JP2024059430A - Light detection device - Google Patents

Light detection device Download PDF

Info

Publication number
JP2024059430A
JP2024059430A JP2022167104A JP2022167104A JP2024059430A JP 2024059430 A JP2024059430 A JP 2024059430A JP 2022167104 A JP2022167104 A JP 2022167104A JP 2022167104 A JP2022167104 A JP 2022167104A JP 2024059430 A JP2024059430 A JP 2024059430A
Authority
JP
Japan
Prior art keywords
pixel
pixels
light
wavelength
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022167104A
Other languages
Japanese (ja)
Inventor
創造 横川
Sozo Yokokawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2022167104A priority Critical patent/JP2024059430A/en
Priority to PCT/JP2023/036586 priority patent/WO2024085005A1/en
Publication of JP2024059430A publication Critical patent/JP2024059430A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

To provide a light detection device capable of improving color balance together with sensitivity improvement.SOLUTION: According to one embodiment of the present disclosure, a first light detection device includes: a semiconductor substrate having a first surface and a second surface which face each other with a plurality of first pixels and second pixels for selectively and photoelectrically converting wavelengths different from each other arranged in a matrix; a wavelength separation structure where media having refraction indexes different from each other are planarly and discretely provided for the respective first pixels and second pixels on the first surface side, and which separates, in the first pixels, incident light into first wavelength components and the other wavelength components to selectively guide the first wavelength components to the first pixels, and separate, in the second pixels, the incident light into second wavelength components and the other wavelength components to selectively guide the second wavelength components to the second pixels; and an aperture adjustment structure provided on the first surface side to make an effective pixel aperture size of pixels of ones having relatively lower photosensitivity between the first pixels and the second pixels larger than those of the other pixels.SELECTED DRAWING: Figure 1

Description

本開示は、波長分離構造を有する光検出装置に関する。 This disclosure relates to a photodetector having a wavelength separation structure.

例えば、特許文献1では、ナノポスト構造により光を散乱または回折させ、空間的に波長分離することにより光利用効率の向上を図ったイメージセンサが開示されている。 For example, Patent Document 1 discloses an image sensor that uses a nanopost structure to scatter or diffract light and spatially separate wavelengths to improve light utilization efficiency.

特開2021-069119号公報JP 2021-069119 A

ところで、光検出装置では、色バランスの改善が求められている。 However, there is a demand for improved color balance in light detection devices.

感度の向上と共に色バランスを改善することが可能な光検出装置を提供することが望ましい。 It is desirable to provide a photodetection device that can improve color balance while increasing sensitivity.

本開示の一実施形態としての第1の光検出装置は、対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、互いに異なる屈折率を有する媒質が第1の面側に第1の画素および第2の画素それぞれに平面且つ離散的に設けられ、第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して第1の波長成分を選択的に第1の画素に導き、第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して第2の波長成分を選択的に第2の画素に導く波長分離構造と、第1の面側に設けられ、第1の画素および第2の画素のうち光感度が相対的に低い一方の画素の実効的な画素開口サイズを他方の画素よりも大きくする開口調整構造とを備えたものである。 A first photodetector according to an embodiment of the present disclosure includes a semiconductor substrate having opposing first and second surfaces, on which a plurality of first and second pixels that selectively perform photoelectric conversion of wavelengths different from each other are arranged in a matrix, a wavelength separation structure in which media having different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates the incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates the incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel, and an aperture adjustment structure provided on the first surface side that makes the effective pixel aperture size of one of the first and second pixels, which has a relatively low photosensitivity, larger than that of the other pixel.

本開示の一実施形態としての第2の光検出装置は、対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、互いに異なる屈折率を有する媒質が第1の面側に第1の画素および第2の画素それぞれに平面且つ離散的に設けられ、第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して第1の波長成分を選択的に第1の画素に導き、第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して第2の波長成分を選択的に第2の画素に導く波長分離構造と、第1の面側において、第1の画素および第2の画素のうち光感度が相対的に低い画素に設けられた集光素子とを備えたものである。 A second photodetector according to an embodiment of the present disclosure includes a semiconductor substrate having opposing first and second surfaces, in which a plurality of first and second pixels that selectively perform photoelectric conversion of wavelengths different from each other are arranged in a matrix, a wavelength separation structure in which media having different refractive indices are provided planarly and discretely on the first surface side of the first pixels and second pixels, in which the first pixels separate incident light into a first wavelength component and other wavelength components and selectively guide the first wavelength component to the first pixel, and the second pixels separate incident light into a second wavelength component and other wavelength components and selectively guide the second wavelength component to the second pixel, and a light-collecting element provided on the first surface side of the first and second pixels that have a relatively low photosensitivity.

本開示の一実施形態としての第3の光検出装置は、対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、互いに異なる屈折率を有する媒質が第1の面側に第1の画素および第2の画素それぞれに平面且つ離散的に設けられ、第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して第1の波長成分を選択的に第1の画素に導き、第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して第2の波長成分を選択的に第2の画素に導く波長分離構造と、第1の面と波長分離構造との間において、隣り合う第1の画素と第2の画素との境界に設けられ、第の画素および第2の画素のそれぞれに開口を有する枠体と、開口内に充填された、第1の画素および第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタとからなるカラーフィルタ層とを備えたものであり、開口のサイズは光感度が相対的に低い画素の開口が他の画素の開口よりも大きい。 A third photodetector according to an embodiment of the present disclosure includes a semiconductor substrate having opposing first and second surfaces, on which a plurality of first pixels and second pixels that selectively perform photoelectric conversion on wavelengths different from each other are arranged in a matrix, and a medium having a refractive index different from each other is provided planarly and discretely on the first surface side of the first pixel and the second pixel, respectively, and the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel. The device includes a wavelength separation structure that separates the first wavelength component into a long wavelength component and a second wavelength component and selectively guides the second wavelength component to the second pixel, a frame body that is provided between the first surface and the wavelength separation structure at the boundary between the adjacent first pixel and second pixel and has an opening in each of the first pixel and the second pixel, and a color filter layer that is filled in the opening and is made of a color filter that selectively transmits the wavelength that is photoelectrically converted in each of the first pixel and the second pixel, and the size of the opening is larger for the pixel with relatively low photosensitivity than for the other pixels.

本開示の一実施形態としての第1の光検出装置では、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板の光入射面となる第1の面側に波長分離構造および開口調整構造を設けるようにした。波長分離構造は、互いに異なる屈折率を有する媒質が第1の画素および第2の画素それぞれに平面且つ離散的に設けられており、第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して第1の波長成分を選択的に第1の画素に導き、第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して第2の波長成分を選択的に第2の画素に導く。開口調整構造は、第1の面側に設けられ、第1の画素および第2の画素のうち光感度が相対的に低い一方の画素の実効的な画素開口サイズを他方の画素よりも大きくする。本開示の一実施形態としての第2の光検出装置では、開口調整構造として、第1の画素および第2の画素のうち光感度が相対的に低い画素に集光素子を設けるようにした。本開示の一実施形態としての第3の光検出装置では、第1の面と波長分離構造との間に、隣り合う第1の画素と第2の画素との境界に設けられ、第の画素および第2の画素のそれぞれに開口を有する枠体と、開口内に充填された、第1の画素および第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタとからなるカラーフィルタ層を開口調整構造として、光感度が相対的に低い画素の開口サイズを他の画素の開口サイズよりも大きくした。これにより、相対的に光感度が低い画素における量子効率が向上する。 In a first photodetector according to an embodiment of the present disclosure, a wavelength separation structure and an aperture adjustment structure are provided on the first surface side, which is the light incident surface of a semiconductor substrate on which a plurality of first pixels and second pixels that selectively convert different wavelengths into electric signals are arranged in a matrix. In the wavelength separation structure, a medium having a different refractive index is provided planarly and discretely on each of the first pixel and the second pixel, and the first pixel separates the incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates the incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel. The aperture adjustment structure is provided on the first surface side, and makes the effective pixel aperture size of one of the first and second pixels, which has a relatively low photosensitivity, larger than that of the other pixel. In a second photodetector according to an embodiment of the present disclosure, a light collecting element is provided on the pixel having a relatively low photosensitivity of the first and second pixels, as the aperture adjustment structure. In a third photodetector according to an embodiment of the present disclosure, a frame body is provided between the first surface and the wavelength separation structure at the boundary between the adjacent first and second pixels, and has an opening in each of the first and second pixels. The frame body and the color filter layer are filled in the openings and selectively transmit the wavelengths photoelectrically converted in the first and second pixels. The color filter layer is an aperture adjustment structure, and the aperture size of the pixel with a relatively low photosensitivity is made larger than the aperture size of the other pixels. This improves the quantum efficiency of the pixel with a relatively low photosensitivity.

本開示の第1の実施の形態に係る光検出装置の構成の一例を表す断面模式図である。1 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a first embodiment of the present disclosure. 図1に示した光検出装置の全体構成を表すブロック図である。2 is a block diagram showing an overall configuration of the photodetector shown in FIG. 1 . 図1に示した単位画素の等価回路図である。2 is an equivalent circuit diagram of the unit pixel shown in FIG. 1 . 図1に示した光検出装置の平面レイアウトの一例を表す模式図である。2 is a schematic diagram illustrating an example of a planar layout of the photodetector illustrated in FIG. 1 . 図4に示した平面レイアウトを有する光検出装置を模式的に表した斜視図である。5 is a perspective view showing a schematic diagram of a light detection device having the planar layout shown in FIG. 4. 参考例1としての光検出装置の断面模式図である。FIG. 2 is a schematic cross-sectional view of a photodetector according to a first embodiment of the present invention; 参考例2としての光検出装置の断面模式図である。FIG. 11 is a schematic cross-sectional view of a photodetector according to a second embodiment of the present invention; 図6に示した光検出装置におけるR,G,Bの量子効率を表す特性図である。7 is a characteristic diagram showing the quantum efficiency of R, G, and B in the photodetector shown in FIG. 6. 図7に示した光検出装置におけるR,G,Bの量子効率を表す特性図である。8 is a characteristic diagram showing the quantum efficiency of R, G, and B in the photodetector shown in FIG. 7 . 図1に示した光検出装置におけるR,G,Bの量子効率を表す特性図である。2 is a characteristic diagram showing the quantum efficiency of R, G, and B in the photodetector shown in FIG. 1 . 本開示の変形例1に係る光検出装置の構成の一例を表す断面模式図である。1 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a first modified example of the present disclosure. 本開示の変形例2に係る光検出装置の構成の一例を表す断面模式図である。11 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a second modified example of the present disclosure. FIG. 本開示の変形例3に係る光検出装置の構成の一例を表す断面模式図である。11 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a third modified example of the present disclosure. FIG. 本開示の変形例3に係る光検出装置の構成の他の例を表す断面模式図である。13 is a schematic cross-sectional view illustrating another example of the configuration of a light detection device according to Modification 3 of the present disclosure. FIG. 本開示の変形例3に係る光検出装置の構成の他の例を表す断面模式図である。13 is a schematic cross-sectional view illustrating another example of the configuration of a light detection device according to Modification 3 of the present disclosure. FIG. 本開示の変形例4に係る光検出装置の構成の一例を表す断面模式図である。13 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a fourth modified example of the present disclosure. FIG. 本開示の第2の実施の形態に係る光検出装置の構成の一例を表す断面模式図である。FIG. 11 is a schematic cross-sectional view illustrating an example of a configuration of a light detection device according to a second embodiment of the present disclosure. 図17に示した光検出装置の平面レイアウトの一例を表す模式図である。18 is a schematic diagram illustrating an example of a planar layout of the photodetector shown in FIG. 17. 図1に示した光検出装置を有する電子機器の構成例を表すブロック図である。2 is a block diagram illustrating an example of the configuration of an electronic device having the photodetector shown in FIG. 1 . 図1等に示した光検出装置を用いた光検出システムの全体構成の一例を表す模式図である。2 is a schematic diagram illustrating an example of an overall configuration of a light detection system using the light detection device illustrated in FIG. 1 etc. 図20Aに示した光検出システムの回路構成の一例を表す図である。20B is a diagram illustrating an example of a circuit configuration of the light detection system illustrated in FIG. 20A. 車両制御システムの概略的な構成の一例を示すブロック図である。1 is a block diagram showing an example of a schematic configuration of a vehicle control system; 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。4 is an explanatory diagram showing an example of the installation positions of an outside-vehicle information detection unit and an imaging unit; FIG. 内視鏡手術システムの概略的な構成の一例を示す図である。1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system. カメラヘッド及びCCUの機能構成の一例を示すブロック図である。2 is a block diagram showing an example of the functional configuration of a camera head and a CCU. FIG.

以下、本開示における一実施形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
1.第1の実施の形態(開口調整構造としてオンチップレンズを用いた例)
2.変形例
2-1.変形例1(開口調整構造としてインナーレンズを用いた例)
2-2.変形例2(開口調整構造としてインナーレンズを用いた他の例)
2-3.変形例3(開口調整構造としてオンチップレンズおよびインナーレンズを用いた例)
2-4.変形例4(同色画素が隣接するレイアウトにおけるオンチップレンズのレイアウト例)
3.第2の実施の形態(開口調整構造としてカラーフィルタ層を用いた例)
4.適用例
5.応用例
Hereinafter, an embodiment of the present disclosure will be described in detail with reference to the drawings. The following description is a specific example of the present disclosure, and the present disclosure is not limited to the following aspect. Furthermore, the present disclosure is not limited to the arrangement, dimensions, dimensional ratios, etc. of each component shown in each drawing. The order of description is as follows.
1. First embodiment (example in which an on-chip lens is used as an aperture adjustment structure)
2. Modifications 2-1. Modification 1 (Example of using an inner lens as the aperture adjustment structure)
2-2. Modification 2 (another example using an inner lens as the aperture adjustment structure)
2-3. Modification 3 (Example of using an on-chip lens and an inner lens as an aperture adjustment structure)
2-4. Modification 4 (Layout example of on-chip lenses in a layout in which pixels of the same color are adjacent to each other)
3. Second embodiment (example in which a color filter layer is used as an aperture adjustment structure)
4. Application examples 5. Application examples

<1.第1の実施の形態>
図1は、本開示の第1の実施の形態に係る光検出装置(光検出装置1)の断面構成の一例を模式的に表したものである。図2は、図1に示した光検出装置1の全体構成の一例を表したものである。光検出装置1は、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等であり、撮像エリアとして、複数の画素が行列状に2次元配置された画素部(画素部100A)を有している。光検出装置1は、このCMOSイメージセンサ等において、例えば所謂裏面照射型の光検出装置である。
1. First embodiment
Fig. 1 is a schematic diagram showing an example of a cross-sectional configuration of a photodetector (photodetector 1) according to a first embodiment of the present disclosure. Fig. 2 is a diagram showing an example of the overall configuration of the photodetector 1 shown in Fig. 1. The photodetector 1 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor used in electronic devices such as digital still cameras and video cameras, and has a pixel section (pixel section 100A) in which a plurality of pixels are two-dimensionally arranged in a matrix as an imaging area. The photodetector 1 is, for example, a so-called back-illuminated photodetector in this CMOS image sensor or the like.

[光検出装置の概略構成]
光検出装置1は、光学レンズ系(例えば、レンズ群1001、図19参照)を介して被写体からの入射光(像光)を取り込んで、撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力するものである。光検出装置1は、半導体基板11上に、撮像エリアとしての画素部100Aを有すると共に、この画素部100Aの周辺領域に、例えば、垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、出力回路114、制御回路115および入出力端子116を有している。
[Schematic configuration of the photodetector]
The photodetector 1 captures incident light (image light) from a subject via an optical lens system (e.g., a lens group 1001, see FIG. 19), converts the amount of incident light imaged on an imaging surface into an electrical signal on a pixel-by-pixel basis, and outputs the electrical signal as a pixel signal. The photodetector 1 has a pixel section 100A as an imaging area on a semiconductor substrate 11, and has, for example, a vertical drive circuit 111, a column signal processing circuit 112, a horizontal drive circuit 113, an output circuit 114, a control circuit 115, and an input/output terminal 116 in the peripheral region of the pixel section 100A.

画素部100Aには、例えば、複数の単位画素Pが行列状に2次元配置されている。複数の単位画素Pは、撮像レンズによって結像された被写体像をフォトダイオードPDにおいて光電変換して画像生成用の信号を生成するものである。 In the pixel section 100A, for example, a plurality of unit pixels P are arranged two-dimensionally in a matrix. The plurality of unit pixels P photoelectrically converts the subject image formed by the imaging lens in a photodiode PD to generate a signal for generating an image.

単位画素Pには、例えば、画素行毎に画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列毎に垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、垂直駆動回路111の各行に対応した出力端に接続されている。 In the unit pixel P, for example, a pixel drive line Lread (specifically, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column. The pixel drive line Lread transmits a drive signal for reading out a signal from the pixel. One end of the pixel drive line Lread is connected to an output terminal of the vertical drive circuit 111 corresponding to each row.

垂直駆動回路111は、シフトレジスタやアドレスデコーダ等によって構成され、画素部100Aの各単位画素Pを、例えば、行単位で駆動する画素駆動部である。垂直駆動回路111によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通してカラム信号処理回路112に供給される。カラム信号処理回路112は、垂直信号線Lsig毎に設けられたアンプや水平選択スイッチ等によって構成されている。 The vertical drive circuit 111 is a pixel drive unit that is composed of a shift register, an address decoder, etc., and drives each unit pixel P of the pixel section 100A, for example, row by row. The signals output from each unit pixel P of the pixel row selected and scanned by the vertical drive circuit 111 are supplied to the column signal processing circuit 112 through each vertical signal line Lsig. The column signal processing circuit 112 is composed of an amplifier, a horizontal selection switch, etc., provided for each vertical signal line Lsig.

水平駆動回路113は、シフトレジスタやアドレスデコーダ等によって構成され、カラム信号処理回路112の各水平選択スイッチを走査しつつ順番に駆動するものである。この水平駆動回路113による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線121に出力され、当該水平信号線121を通して半導体基板11の外部へ伝送される。 The horizontal drive circuit 113 is composed of a shift register, an address decoder, etc., and drives each horizontal selection switch of the column signal processing circuit 112 in sequence while scanning them. Through selective scanning by this horizontal drive circuit 113, the signals of each pixel transmitted through each vertical signal line Lsig are output in sequence to the horizontal signal line 121, and transmitted to the outside of the semiconductor substrate 11 through the horizontal signal line 121.

出力回路114は、カラム信号処理回路112の各々から水平信号線121を介して順次供給される信号に対して信号処理を行って出力するものである。出力回路114は、例えば、バッファリングのみを行う場合もあるし、黒レベル調整、列ばらつき補正および各種デジタル信号処理等が行われる場合もある。 The output circuit 114 processes and outputs the signals sequentially supplied from each of the column signal processing circuits 112 via the horizontal signal line 121. The output circuit 114 may perform only buffering, or may perform black level adjustment, column variation correction, various digital signal processing, etc., for example.

垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、水平信号線121および出力回路114からなる回路部分は、半導体基板11上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。 The circuit portion consisting of the vertical drive circuit 111, column signal processing circuit 112, horizontal drive circuit 113, horizontal signal line 121, and output circuit 114 may be formed directly on the semiconductor substrate 11, or may be disposed on an external control IC. In addition, these circuit portions may be formed on other substrates connected by cables or the like.

制御回路115は、半導体基板11の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、光検出装置1の内部情報等のデータを出力するものである。制御回路115はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動回路111、カラム信号処理回路112および水平駆動回路113等の周辺回路の駆動制御を行う。 The control circuit 115 receives a clock and data instructing the operation mode provided from outside the semiconductor substrate 11, and also outputs data such as internal information of the photodetector 1. The control circuit 115 further has a timing generator that generates various timing signals, and controls the driving of peripheral circuits such as the vertical drive circuit 111, the column signal processing circuit 112, and the horizontal drive circuit 113 based on the various timing signals generated by the timing generator.

入出力端子116は、外部との信号のやり取りを行うものである。 The input/output terminal 116 is used to exchange signals with the outside world.

[単位画素の回路構成]
図3は、図2に示した光検出装置1の単位画素Pの読み出し回路の一例を表したものである。単位画素Pは、例えば、図3に示したように、1つの光電変換部12と、転送トランジスタTRと、フローティングディフュージョンFDと、リセットトランジスタRSTと、増幅トランジスタAMPと、選択トランジスタSELとを有している。
[Circuit configuration of unit pixel]
Fig. 3 illustrates an example of a readout circuit of the unit pixel P of the photodetector 1 illustrated in Fig. 2. As illustrated in Fig. 3, the unit pixel P includes, for example, one photoelectric conversion unit 12, a transfer transistor TR, a floating diffusion FD, a reset transistor RST, an amplification transistor AMP, and a selection transistor SEL.

光電変換部12はフォトダイオード(PD)である。光電変換部12は、アノードが接地電圧線に接続され、カソードが転送トランジスタTR1のソースに接続されている。 The photoelectric conversion unit 12 is a photodiode (PD). The anode of the photoelectric conversion unit 12 is connected to the ground voltage line, and the cathode is connected to the source of the transfer transistor TR1.

転送トランジスタTR1は、光電変換部12とフローティングディフュージョンFDとの間に接続されている。転送トランジスタTRのゲート電極には、駆動信号TRsigが印加される。この駆動信号TRsigがアクティブ状態になると、転送トランジスタTRの転送ゲートが導通状態となり、光電変換部12に蓄積されている信号電荷が、転送トランジスタTRを介してフローティングディフュージョンFDに転送される。 The transfer transistor TR1 is connected between the photoelectric conversion unit 12 and the floating diffusion FD. A drive signal TRsig is applied to the gate electrode of the transfer transistor TR. When this drive signal TRsig becomes active, the transfer gate of the transfer transistor TR becomes conductive, and the signal charge stored in the photoelectric conversion unit 12 is transferred to the floating diffusion FD via the transfer transistor TR.

フローティングディフュージョンFDは、転送トランジスタTRと増幅トランジスタAMPとの間に接続されている。フローティングディフュージョンFDは、転送トランジスタTRにより転送される信号電荷を電圧信号に電荷電圧変換して、増幅トランジスタAMPに出力する。 The floating diffusion FD is connected between the transfer transistor TR and the amplification transistor AMP. The floating diffusion FD converts the signal charge transferred by the transfer transistor TR into a voltage signal and outputs it to the amplification transistor AMP.

リセットトランジスタRSTは、フローティングディフュージョンFDと電源部との間に接続されている。リセットトランジスタRSTのゲート電極には、駆動信号RSTsigが印加される。この駆動信号RSTsigがアクティブ状態になると、リセットトランジスタRSTのリセットゲートが導通状態となり、フローティングディフュージョンFDの電位が電源部のレベルにリセットされる。 The reset transistor RST is connected between the floating diffusion FD and the power supply unit. A drive signal RSTsig is applied to the gate electrode of the reset transistor RST. When this drive signal RSTsig becomes active, the reset gate of the reset transistor RST becomes conductive, and the potential of the floating diffusion FD is reset to the level of the power supply unit.

増幅トランジスタAMPは、そのゲート電極がフローティングディフュージョンFDに、ドレイン電極が電源部にそれぞれ接続されており、フローティングディフュージョンFDが保持している電圧信号の読み出し回路、所謂ソースフォロア回路の入力部となる。即ち、増幅トランジスタAMPは、そのソース電極が選択トランジスタSELを介して垂直信号線Lsigに接続されることで、垂直信号線Lsigの一端に接続される定電流源とソースフォロア回路を構成する。 The amplifier transistor AMP has its gate electrode connected to the floating diffusion FD and its drain electrode connected to the power supply, and serves as the input of a readout circuit for the voltage signal held by the floating diffusion FD, a so-called source follower circuit. That is, the amplifier transistor AMP has its source electrode connected to the vertical signal line Lsig via the selection transistor SEL, and thus constitutes a constant current source and a source follower circuit connected to one end of the vertical signal line Lsig.

選択トランジスタSELは、増幅トランジスタAMPのソース電極と、垂直信号線Lsigとの間に接続される。選択トランジスタSELのゲート電極には、駆動信号SELsigが印加される。この駆動信号SELsigがアクティブ状態になると、選択トランジスタSELが導通状態となり、単位画素Pが選択状態となる。これにより、増幅トランジスタAMPから出力される読み出し信号(画素信号)が、選択トランジスタSELを介して、垂直信号線Lsigに出力される。 The selection transistor SEL is connected between the source electrode of the amplification transistor AMP and the vertical signal line Lsig. A drive signal SELsig is applied to the gate electrode of the selection transistor SEL. When this drive signal SELsig becomes active, the selection transistor SEL becomes conductive and the unit pixel P becomes selected. As a result, the read signal (pixel signal) output from the amplification transistor AMP is output to the vertical signal line Lsig via the selection transistor SEL.

[単位画素の構成]
図4は、図1に示した光検出装置1の平面レイアウトの一例を模式的に表したものであり、図1は、図4に示したI-I’線に対応する光検出装置1の断面構成を表している。図5は、図4に示した平面レイアウトの光検出装置1を模式的に表した斜視図である。光検出装置1は、上記のように、例えば裏面照射型の光検出装置であり、画素部100Aに行列状に2次元配置された複数の単位画素Pは、それぞれ、例えば、受光部10と、受光部10の光入射側S1に設けられた導光部20と、受光部10の光入射側S1とは反対側に設けられた多層配線層30とが積層された構成を有している。
[Configuration of unit pixel]
Fig. 4 is a schematic diagram showing an example of a planar layout of the photodetector 1 shown in Fig. 1, and Fig. 1 shows a cross-sectional configuration of the photodetector 1 corresponding to the line II' shown in Fig. 4. Fig. 5 is a schematic perspective view of the photodetector 1 having the planar layout shown in Fig. 4. As described above, the photodetector 1 is, for example, a back-illuminated photodetector, and each of the unit pixels P arranged two-dimensionally in a matrix in the pixel section 100A has a configuration in which, for example, a light receiving section 10, a light guide section 20 provided on the light incident side S1 of the light receiving section 10, and a multilayer wiring layer 30 provided on the side opposite to the light incident side S1 of the light receiving section 10 are stacked.

受光部10は、対向する第1面11S1および第2面11S2を有する半導体基板11と、半導体基板11に埋め込み形成された複数の光電変換部12とを有している。半導体基板11は、例えば、シリコン基板で構成されている。光電変換部12は、例えばPIN(Positive Intrinsic Negative)型のフォトダイオード(PD)であり、半導体基板11の所定領域にpn接合を有している。光電変換部12は、上記のように、単位画素P毎に1つ埋め込み形成されている。 The light receiving unit 10 has a semiconductor substrate 11 having a first surface 11S1 and a second surface 11S2 facing each other, and a plurality of photoelectric conversion units 12 embedded in the semiconductor substrate 11. The semiconductor substrate 11 is, for example, made of a silicon substrate. The photoelectric conversion units 12 are, for example, PIN (Positive Intrinsic Negative) type photodiodes (PD), and have a pn junction in a predetermined region of the semiconductor substrate 11. As described above, one photoelectric conversion unit 12 is embedded in each unit pixel P.

受光部10は、さらに、素子分離部13を有している。 The light receiving section 10 further has an element isolation section 13.

素子分離部13は、隣り合う単位画素Pの間に設けられている。換言すると、素子分離部13は単位画素Pの周囲に設けられており、画素部100Aにおいて格子状に設けられている。素子分離部13は、隣り合う単位画素Pを電気的、且つ、光学的に分離するためのものであり、例えば、半導体基板11の第1面11S1側から第2面11S2側に向かって延伸している。素子分離部13は、例えば、p型の不純物を拡散することが形成することができる。この他、素子分離部13は、例えば、半導体基板11に第1面11S1側から開口を形成し、その開口の側面および底面を固定電荷層14で被覆し、絶縁層を埋め込んだSTI(Shallow Trench Isolation)構造やFFTI(Full Trench Isolation)構造としてもよい。また、STI構造内およびFFTI構造内には、エアギャップを形成するようにしてもよい。 The element isolation section 13 is provided between adjacent unit pixels P. In other words, the element isolation section 13 is provided around the unit pixel P and is provided in a lattice pattern in the pixel section 100A. The element isolation section 13 is for electrically and optically isolating adjacent unit pixels P, and extends, for example, from the first surface 11S1 side of the semiconductor substrate 11 toward the second surface 11S2 side. The element isolation section 13 can be formed, for example, by diffusing p-type impurities. In addition, the element isolation section 13 may be, for example, an STI (Shallow Trench Isolation) structure or an FFTI (Full Trench Isolation) structure in which an opening is formed in the semiconductor substrate 11 from the first surface 11S1 side, the side and bottom surfaces of the opening are covered with a fixed charge layer 14, and an insulating layer is embedded. In addition, an air gap may be formed in the STI structure and the FFTI structure.

半導体基板11の第1面11S1には、さらに半導体基板11の第1面11S1での反射防止を兼ねた固定電荷層14が設けられている。固定電荷層14は、正の固定電荷を有する膜でもよし、負の固定電荷を有する膜でもよい。固定電荷層14の構成材料としては、半導体基板11のバンドギャップよりも広いバンドギャップを有する半導体材料または導電材料が挙げられる。具体的には、例えば、例えば、酸化ハフニウム(HfO)、酸化アルミニウム(AlO)、酸化ジルコニウム(ZrO)、酸化タンタル(TaO)、酸化チタン(TiO)、酸化ランタン(LaO)、酸化プラセオジム(PrO)、酸化セリウム(CeO)、酸化ネオジム(NdO)、酸化プロメチウム(PmO)、酸化サマリウム(SmO)、酸化ユウロピウム(EuO)、酸化ガドリニウム(GdO)、酸化テルビウム(TbO)、酸化ジスプロシウム(DyO)、酸化ホルミウム(HoO)、酸化ツリウム(TmO)、酸化イッテルビウム(YbO)、酸化ルテチウム(LuO)、酸化イットリウム(YO)、窒化ハフニウム(HfN)、窒化アルミニウム(AlN)、酸窒化ハフニウム(HfO)および酸窒化アルミニウム(AlO)等が挙げられる。固定電荷層14は、単層膜としてもよいし、異なる材料からなる積層膜としてもよい。 The first surface 11S1 of the semiconductor substrate 11 is further provided with a fixed charge layer 14 that also serves to prevent reflection on the first surface 11S1 of the semiconductor substrate 11. The fixed charge layer 14 may be a film having a positive fixed charge or a film having a negative fixed charge. Examples of the material of the fixed charge layer 14 include a semiconductor material or a conductive material having a band gap wider than the band gap of the semiconductor substrate 11. Specifically, for example, hafnium oxide (HfO x ), aluminum oxide (AlO x ), zirconium oxide (ZrO x ), tantalum oxide (TaO x ), titanium oxide (TiO x ), lanthanum oxide (LaO x ), praseodymium oxide (PrO x ), cerium oxide (CeO x ), neodymium oxide (NdO x ), promethium oxide (PmO x ), samarium oxide (SmO x ), europium oxide (EuO x ), gadolinium oxide (GdO x ), terbium oxide (TbO x ), dysprosium oxide (DyO x ), holmium oxide (HoO x ), thulium oxide (TmO x ), ytterbium oxide (YbO x ), lutetium oxide (LuO x ), yttrium oxide (YO x ), hafnium nitride (HfN x ), aluminum nitride (AlN x ), hafnium oxynitride (HfO x N y ), aluminum oxynitride (AlO x N y ), etc. The fixed charge layer 14 may be a single layer film or a laminated film made of different materials.

導光部20は、受光部10の光入射側S1に、例えば、カラーフィルタ層23と、透明層24とを有し、光入射側S1から入射した光を受光部10側へと導く。カラーフィルタ層23は、例えば、隔壁21とカラーフィルタ22とからなる。透明層24は、層内に、例えば単位画素P毎に設けられた分光部25を含む波長分離層26を有し、光入射側S1の表面にはオンチップレンズ24Lが設けられている。 The light guide section 20 has, for example, a color filter layer 23 and a transparent layer 24 on the light incident side S1 of the light receiving section 10, and guides the light incident from the light incident side S1 to the light receiving section 10. The color filter layer 23 is composed of, for example, a partition wall 21 and a color filter 22. The transparent layer 24 has, within the layer, a wavelength separation layer 26 including a spectroscopic section 25 provided for each unit pixel P, and an on-chip lens 24L is provided on the surface of the light incident side S1.

隔壁21は、隣り合う単位画素Pの境界に設けられ、単位画素P毎に開口21Hを有する枠体である。換言すると、隔壁21は、素子分離部13と同様に、単位画素Pの周囲に設けられており、画素部100Aにおいて格子状に設けられている。隔壁21は、光入射側S1から斜め入射した光が隣接する単位画素Pへ漏れ込むのを防ぐためのものである。隔壁21は、例えば、カラーフィルタ22よりも屈折率の低い材料を用いて形成することができる。 The partition 21 is provided at the boundary between adjacent unit pixels P and is a frame having an opening 21H for each unit pixel P. In other words, the partition 21 is provided around the unit pixel P in the same manner as the element isolation section 13, and is provided in a lattice pattern in the pixel section 100A. The partition 21 is intended to prevent light obliquely incident from the light incident side S1 from leaking into an adjacent unit pixel P. The partition 21 can be formed, for example, using a material with a lower refractive index than the color filter 22.

隔壁21は、光学的黒レベルを決定する単位画素Pの遮光を兼ねていてもよい。また、隔壁21は、画素部100Aの周辺領域に設けられる周辺回路へのノイズの発生を抑制するための遮光を兼ねていてもよい。その場合、隔壁21は、例えば、遮光性を有する材料を用いて形成することができる。このような材料としては、例えば、タングステン(W)、銀(Ag)、銅(Cu)、チタン(Ti)、アルミニウム(Al)またはそれらの合金が挙げられる。この他、TiN等の金属化合物が挙げられる。隔壁21は、例えば単層膜または積層膜として形成するようにしてもよい。積層膜とする場合には、例えば、Ti、タンタル(Ta)、W、コバルト(Co)またはモリブデン(Mo)あるいはそれらの合金、窒化物、酸化物または炭化物からなる層を下地層として設けるようにしてもよい。 The partition 21 may also serve as a light shield for the unit pixel P that determines the optical black level. The partition 21 may also serve as a light shield to suppress the generation of noise in a peripheral circuit provided in the peripheral region of the pixel unit 100A. In this case, the partition 21 may be formed, for example, using a material having light shielding properties. Examples of such materials include tungsten (W), silver (Ag), copper (Cu), titanium (Ti), aluminum (Al), or alloys thereof. Other examples include metal compounds such as TiN. The partition 21 may be formed, for example, as a single layer film or a laminated film. In the case of a laminated film, for example, a layer made of Ti, tantalum (Ta), W, cobalt (Co), or molybdenum (Mo), or an alloy, nitride, oxide, or carbide thereof may be provided as an underlayer.

カラーフィルタ22は、所定の波長の光を選択的に透過するものであり、例えば、赤色光(R)を選択的に透過させる赤色フィルタ22Rと、緑色光(G)を選択的に透過させる緑色フィルタ22Gと、青色光(B)を選択的に透過させる青色フィルタ22Bとを有する。各色フィルタ22R,22G,22Bは、隔壁21の開口21Hにそれぞれ充填されている。具体的には、各色フィルタ22R,22G,22Bは、例えば図4に示したように、2行×2列で配置された4つの単位画素Pに対して、緑色フィルタ22Gが対角線上に2つ配置され、赤色フィルタ22Rおよび青色フィルタ22Bが、直交する対角線上に1つずつ配置されている。各色フィルタ22R,22G,22Bが設けられた単位画素Pでは、例えば、それぞれの光電変換部12において対応する色光が選択的に光電変換されるようになっている。 The color filters 22 selectively transmit light of a predetermined wavelength, and include, for example, a red filter 22R that selectively transmits red light (R), a green filter 22G that selectively transmits green light (G), and a blue filter 22B that selectively transmits blue light (B). Each of the color filters 22R, 22G, and 22B is filled in the opening 21H of the partition 21. Specifically, for each of the color filters 22R, 22G, and 22B, two green filters 22G are arranged diagonally, and one red filter 22R and one blue filter 22B are arranged on the diagonal lines perpendicular to each other, for four unit pixels P arranged in two rows and two columns, as shown in FIG. 4. In the unit pixel P provided with each of the color filters 22R, 22G, and 22B, for example, the corresponding color light is selectively photoelectrically converted in each photoelectric conversion unit 12.

即ち、画素部100Aでは、それぞれ、赤色光(R)を選択的に受光して光電変換する単位画素P(赤色画素Pr)、緑色光(G)を選択的に受光して光電変換する単位画素P(緑色画素Pg)および青色光(B)を選択的に受光して光電変換する単位画素P(青色画素Pb)が、ベイヤー状に配列されている。赤色画素Pr、緑色画素Pgおよび青色画素Pbは、それぞれ、赤色光(R)成分の画素信号、緑色光(G)成分の画素信号、青色光(B)成分の画素信号を生成する。光検出装置1は、RGBの画素信号を得ることができる。 That is, in the pixel section 100A, unit pixels P (red pixels Pr) that selectively receive and photoelectrically convert red light (R), unit pixels P (green pixels Pg) that selectively receive and photoelectrically convert green light (G), and unit pixels P (blue pixels Pb) that selectively receive and photoelectrically convert blue light (B) are arranged in a Bayer pattern. The red pixels Pr, green pixels Pg, and blue pixels Pb generate pixel signals of the red light (R) component, the green light (G) component, and the blue light (B) component, respectively. The photodetection device 1 can obtain RGB pixel signals.

カラーフィルタ22は、シアン、マゼンタおよび黄色をそれぞれ選択的に透過するフィルタを有していてもよい。各色フィルタ22R,22G,22Bが設けられた単位画素Pでは、例えば、それぞれの光電変換部12において対応する色光が検出されるようになっている。カラーフィルタ22は、例えば、樹脂材料に顔料や染料を分散させることで形成することができる。カラーフィルタ22の膜厚は、その分光スペクトルによる色再現性やセンサ感度を考慮して、色毎に異なる膜厚としてもよい。 The color filter 22 may have filters that selectively transmit cyan, magenta, and yellow, respectively. In a unit pixel P in which each color filter 22R, 22G, and 22B is provided, for example, the corresponding color light is detected in each photoelectric conversion unit 12. The color filter 22 may be formed, for example, by dispersing a pigment or dye in a resin material. The film thickness of the color filter 22 may be different for each color, taking into account the color reproducibility and sensor sensitivity due to the spectral distribution.

透明層24は、光を透過する透明層である。透明層24は、光入射側S1から入射する光(入射光)に対して、例えば1.5以下の屈折率を有している。透明層24は、例えば、シリコン酸化物(SiO)、フッ素を添加したシリコン酸化物(SiOF)、フッ素樹脂、多孔質シリカまたはそれらの混合素材を用いて形成されている。 The transparent layer 24 is a transparent layer that transmits light. The transparent layer 24 has a refractive index of, for example, 1.5 or less with respect to light (incident light) incident from the light incident side S1. The transparent layer 24 is formed using, for example, silicon oxide (SiO 2 ), silicon oxide doped with fluorine (SiOF), fluororesin, porous silica, or a mixture of these materials.

透明層24の層内には、上記のように、分光部25を含む波長分離層26が設けられている。波長分離層26は、本開示の「波長分離構造」の一具体例に相当するものである。波長分離構造は、互いに屈折率が異なる第1の媒質および第2の媒質を有し、本実施の形態では、例えば単位画素P毎に設けられた分光部25が「第2の媒質」に相当するものであり、分光部25の周囲の透明層24が「第1の媒質」に相当する。 As described above, the wavelength separation layer 26 including the spectroscopic section 25 is provided within the transparent layer 24. The wavelength separation layer 26 corresponds to one specific example of the "wavelength separation structure" of the present disclosure. The wavelength separation structure has a first medium and a second medium with mutually different refractive indices, and in this embodiment, for example, the spectroscopic section 25 provided for each unit pixel P corresponds to the "second medium", and the transparent layer 24 around the spectroscopic section 25 corresponds to the "first medium".

波長分離層26は、単位画素P毎に平面且つ離散的に設けられた、例えば1または複数設けられた分光部25によって、各単位画素Pにおいて入射光を所定の波長成分とそれ以外の波長成分とに分離して所定の波長成分を選択的に各分光部25が設けられた単位画素Pに導き、それ以外の波長成分を他の単位画素Pに導く。波長分離層26は、分光部25の屈折率とその周囲の媒質(透明層24)の屈折率との差によって、入射する光に位相遅延を生じさせ、波面に影響を与える。波長分離層26は、分光部25によって入射光を分光する領域(分光領域)ともいえる。 The wavelength separation layer 26 separates the incident light into a predetermined wavelength component and other wavelength components at each unit pixel P by using, for example, one or more spectroscopic sections 25 provided planarly and discretely for each unit pixel P, and selectively guides the predetermined wavelength component to the unit pixel P in which the spectroscopic section 25 is provided, and guides the other wavelength components to other unit pixels P. The wavelength separation layer 26 generates a phase delay in the incident light due to the difference between the refractive index of the spectroscopic section 25 and the refractive index of the surrounding medium (transparent layer 24), and affects the wavefront. The wavelength separation layer 26 can also be said to be a region (spectroscopic region) in which the incident light is spectroscopically separated by the spectroscopic section 25.

分光部25は、単位画素P毎に、例えば1または複数設けられた微小な構造体であり、例えば、入射光の所定の波長以下の大きさの柱状構造(ピラー構造)を有する。分光部25は、入射光に含まれる各波長域の光が所望の方向に分岐して進むように、分光部25の大きさ、形状および屈折率等が定められる。分光部25の位相差に関わるパラメータは、媒質の屈折率と分光部25の高さおよび直径がある。例えば、各色画素Pr,Pg,Pbに設けられる分光部25は、それぞれ、例えば50nm以上500nm以下の直径を有する。分光部25の高さは、入射光の波長の1周波数分程度あればよく、例えば500nm以上1500nm以下である。 The spectroscopic section 25 is a minute structure, for example, one or more of which are provided for each unit pixel P, and has, for example, a columnar structure (pillar structure) with a size equal to or smaller than a predetermined wavelength of the incident light. The size, shape, refractive index, etc. of the spectroscopic section 25 are determined so that light of each wavelength range contained in the incident light branches and travels in the desired direction. Parameters related to the phase difference of the spectroscopic section 25 include the refractive index of the medium and the height and diameter of the spectroscopic section 25. For example, the spectroscopic section 25 provided for each color pixel Pr, Pg, Pb each has a diameter of, for example, 50 nm or more and 500 nm or less. The height of the spectroscopic section 25 may be about one frequency of the wavelength of the incident light, for example, 500 nm or more and 1500 nm or less.

各色画素Pr,Pg,Pbに設けられた各分光部25では、光の波長に応じて異なる位相遅延量が生じることに起因して、波長域毎に光の伝搬方向が変わる。例えば、赤色画素Prに入射した光のうち、赤色光(R)はそのまま赤色画素Prの光電変換部12へ向けて導かれ、それ以外の波長の光は赤色画素Prと隣り合う緑色画素Pgおよび青色画素Pbの光電変換部12へ向かって伝搬する。例えば、緑色画素Pgに入射した光のうち、緑色光(G)はそのまま緑色画素Pgの光電変換部12へ向けて導かれ、それ以外の波長の光は緑色画素Pgと隣り合う赤色画素Prおよび青色画素Pbの光電変換部12へ向かって伝搬する。例えば、青色画素Pbに入射した光のうち、青色光(B)はそのまま青色画素Pbの光電変換部12へ向けて導かれ、それ以外の波長の光は青色画素Pbと隣り合う赤色画素Prおよび緑色画素Pgの光電変換部12へ向かって伝搬する。 In each of the light splitting sections 25 provided in each of the color pixels Pr, Pg, and Pb, the propagation direction of light changes for each wavelength range due to the occurrence of different phase delay amounts depending on the wavelength of light. For example, of the light incident on the red pixel Pr, red light (R) is guided directly to the photoelectric conversion section 12 of the red pixel Pr, and light of other wavelengths propagates toward the photoelectric conversion section 12 of the green pixel Pg and blue pixel Pb adjacent to the red pixel Pr. For example, of the light incident on the green pixel Pg, green light (G) is guided directly to the photoelectric conversion section 12 of the green pixel Pg, and light of other wavelengths propagates toward the photoelectric conversion section 12 of the red pixel Pr and blue pixel Pb adjacent to the green pixel Pg. For example, of the light incident on the blue pixel Pb, blue light (B) is guided directly to the photoelectric conversion section 12 of the blue pixel Pb, and light of other wavelengths propagates toward the photoelectric conversion section 12 of the red pixel Pr and green pixel Pg adjacent to the blue pixel Pb.

分光部25は、周囲の透明層24の屈折率よりも高い屈折率を有しており、例えば、光入射側S1から入射する光(入射光)に対して1.7以上の屈折率を有している。分光部25は、透明層24の屈折率よりも高い屈折率を有する材料を用いて形成されている。分光部25は、例えば、酸化チタン(TiO)、酸化アルミニウム(Al)、シリコン窒化物(Si)、アモルファスシリコン(α-Si)またはそれらの混合素材を用いて形成されている。 The spectroscopic section 25 has a refractive index higher than that of the surrounding transparent layer 24, and for example has a refractive index of 1.7 or higher for light (incident light) incident from the light incident side S1. The spectroscopic section 25 is formed using a material having a refractive index higher than that of the transparent layer 24. The spectroscopic section 25 is formed using, for example, titanium oxide (TiO 2 ), aluminum oxide (Al 2 O 3 ), silicon nitride (Si 3 N 4 ), amorphous silicon (α-Si), or a mixture of these materials.

なお、各色画素Pr,Pg,Pbに設けられる分光部25は、同じ材料を用いて形成してもよいし、異なる材料を用いて形成してもよい。 The spectroscopic sections 25 provided in each of the color pixels Pr, Pg, and Pb may be formed using the same material or different materials.

透明層24の光入射側S1の表面には、集光素子としてオンチップレンズ24Lが、例えば青色画素Pbに選択的に設けられている。このオンチップレンズ24Lが、本開示の「開口調整構造」の一具体例に相当するものである。開口調整構造は、所定の直径を有する分光部25が設けられた各色画素Pr,Pg,Pbのうち光感度が相対的に低い色画素(例えば、青色画素Pb)の実効的な画素開口サイズを他の色画素(例えば、赤色画素Prおよび緑色画素Pg)よりも大きくするものである。オンチップレンズ24Lを青色画素Pbに選択的に設けることにより、青色画素Pbにおける青色光(B)の感度が向上し、各色画素Pr,Pg,Pbの感度バランスを調整することができる。 On the surface of the light incident side S1 of the transparent layer 24, an on-chip lens 24L is selectively provided as a light collecting element, for example, on the blue pixel Pb. This on-chip lens 24L corresponds to one specific example of the "aperture adjustment structure" of the present disclosure. The aperture adjustment structure makes the effective pixel aperture size of a color pixel (e.g., blue pixel Pb) having a relatively low light sensitivity among the color pixels Pr, Pg, Pb provided with a spectroscopic section 25 having a predetermined diameter larger than the other color pixels (e.g., red pixel Pr and green pixel Pg). By selectively providing the on-chip lens 24L on the blue pixel Pb, the sensitivity of the blue light (B) in the blue pixel Pb is improved, and the sensitivity balance of each color pixel Pr, Pg, Pb can be adjusted.

オンチップレンズ24Lは、透明層24と同じ材料を用いて形成してもよいし、異なる材料を用いて形成してもよい。オンチップレンズ24Lは、透明層24において挙げた材料の他に、例えば、シリコン窒化物(Si)、シリコン酸窒化物(SiON)およびアモルファスシリコン(α-Si)等の無機材料が挙げられる。この他、オンチップレンズ24Lは、エピスルフィド系樹脂、チエタン化合物やその樹脂等の高屈折率の有機材料を用いて形成してもよい。オンチップレンズ24Lの形状は、特に限定されるものではなく、半球形状や半円筒状等の各種レンズ形状を採用することができる。 The on-chip lens 24L may be formed using the same material as the transparent layer 24, or may be formed using a different material. In addition to the materials listed for the transparent layer 24, the on-chip lens 24L may be formed using inorganic materials such as silicon nitride (Si 3 N 4 ), silicon oxynitride (SiON), and amorphous silicon (α-Si). In addition, the on-chip lens 24L may be formed using an organic material with a high refractive index, such as an episulfide resin, a thietane compound, or a resin thereof. The shape of the on-chip lens 24L is not particularly limited, and various lens shapes such as a hemispherical shape or a semicylindrical shape may be adopted.

多層配線層30は、受光部10の光入射側S1とは反対側、具体的には、半導体基板11の第2面11S2側に設けられている。多層配線層30は、例えば、複数の配線層31,32,33が、層間絶縁層34を間に積層された構成を有している。多層配線層30には、例えば、上述した読み出し回路の他に、垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、出力回路114、制御回路115および入出力端子116等が形成されている。 The multi-layer wiring layer 30 is provided on the side opposite to the light incident side S1 of the light receiving section 10, specifically, on the second surface 11S2 side of the semiconductor substrate 11. The multi-layer wiring layer 30 has, for example, a configuration in which a plurality of wiring layers 31, 32, and 33 are stacked with an interlayer insulating layer 34 between them. In addition to the readout circuit described above, the multi-layer wiring layer 30 also has, for example, a vertical drive circuit 111, a column signal processing circuit 112, a horizontal drive circuit 113, an output circuit 114, a control circuit 115, and an input/output terminal 116 formed therein.

配線層31,32,33は、例えば、アルミニウム(Al)、銅(Cu)またはタングステン(W)等を用いて形成されている。この他、配線層31,32,33は、ポリシリコン(Poly-Si)を用いて形成するようにしてもよい。 The wiring layers 31, 32, and 33 are formed using, for example, aluminum (Al), copper (Cu), or tungsten (W). Alternatively, the wiring layers 31, 32, and 33 may be formed using polysilicon (Poly-Si).

層間絶縁層34は、例えば、酸化シリコン(SiO)、TEOS、窒化シリコン(SiN)および酸窒化シリコン(SiO)等のうちの1種よりなる単層膜、あるいはこれらのうちの2種以上よりなる積層膜により形成されている。 The interlayer insulating layer 34 is formed of, for example, a single layer film made of one of silicon oxide (SiO x ), TEOS, silicon nitride (SiN x ), silicon oxynitride (SiO x N y ), etc., or a laminate film made of two or more of these materials.

[作用・効果]
本実施の形態の光検出装置1では、単位画素P毎に平面且つ離散的に、例えば1または複数設けられた分光部25を含む波長分離層26が層内に設けられた透明層24の光入射側S1の表面にオンチップレンズ24Lを、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的に設けるようにした。これにより、青色画素Pbにおける青色光(B)の感度が向上する。以下、これについて説明する。
[Action and Effects]
In the photodetector 1 of this embodiment, a wavelength separation layer 26 including, for example, one or a plurality of spectroscopic sections 25 provided planarly and discretely for each unit pixel P is provided in the transparent layer 24. An on-chip lens 24L is selectively provided on the surface of the light incident side S1 of the transparent layer 24 in a color pixel having a relatively low light sensitivity (for example, a blue pixel Pb). This improves the sensitivity of the blue pixel Pb to blue light (B). This will be described below.

近年、微細化が進むことによる画素の感度低下に対する対策としてナノポスト構造により光を散乱させ、空間的に波長分離することにより、各色の実効的な集光エリアを単画素よりも大きくする技術が注目されている。ナノポスト構造は周囲の媒質に対して高い屈折率を有しており、ナノポスト構造と媒質との間に波長に応じた位相差が生じる。そのためナノポストの半径や長さ、配置を最適化することで、画素ユニットを構成する各色画素に対応する可視波長帯を分配することができる。これにより、一般的なカラーフィルタでRGBの色情報を取得するフルカラーイメージセンサと比較して高い感度を実現することができる。 In recent years, as a countermeasure against the decrease in pixel sensitivity caused by miniaturization, a technology that uses nanopost structures to scatter light and spatially separate wavelengths, thereby making the effective light-collecting area of each color larger than that of a single pixel, has been attracting attention. The nanopost structure has a high refractive index compared to the surrounding medium, and a phase difference according to the wavelength occurs between the nanopost structure and the medium. Therefore, by optimizing the radius, length, and arrangement of the nanoposts, it is possible to distribute the visible wavelength band corresponding to each color pixel that makes up the pixel unit. This makes it possible to achieve higher sensitivity than full-color image sensors that obtain RGB color information using general color filters.

しかしながら、ナノポスト構造は光波長に対してサブ波長スケール(例えば、直径数10nm~数100nm)の微細構造である。そのため、感度を最大化しつつ、さらに、例えばRGB3色の感度比率をバランスよく向上させるためには、ナノポスト構造の緻密なサイズ制御、位置制御が必要となり、製造難易度の上昇やコストアップの弊害が生じる。 However, the nanopost structure is a microstructure on the subwavelength scale (e.g., diameter of tens to hundreds of nm) relative to the wavelength of light. Therefore, in order to maximize sensitivity while also improving the sensitivity ratio of the three colors, RGB, in a well-balanced manner, precise size and position control of the nanopost structure is required, which increases the difficulty of manufacturing and increases costs.

例えば、前述したナノポスト構造により光利用効率の向上を図ったイメージセンサでは、単位画素に対して中央に相対的に太めの直径を有するナノポストを配置し、画素境界には異なる直径を有する細いナノポストを配置するレイアウトになっている。これらのナノポスト構造はナノポストにより生じる位相差の波長依存性を用いて入射光を色毎に、空間的に異なる位置に分離するが、分離する距離は小さい。そのため、CMOSイメージセンサの画素サイズが小さいほど適応しやすい。具体的には画素サイズが1.0μm以下の微細な画素で効果を奏する。 For example, in an image sensor that uses the nanopost structure described above to improve light utilization efficiency, a nanopost with a relatively thick diameter is placed in the center of each unit pixel, and thin nanoposts with different diameters are placed at the pixel boundaries. These nanopost structures use the wavelength dependency of the phase difference generated by the nanoposts to separate the incident light into spatially different positions for each color, but the separation distance is small. Therefore, the smaller the pixel size of the CMOS image sensor, the easier it is to apply. Specifically, it is effective for fine pixels with a pixel size of 1.0 μm or less.

一例として0.8×0.8μmの画素の中央に1本のナノポストを配置する場合、行方向および列方向にそれぞれ隣り合うナノポストとの間隔は0.8μmとなる。更に、間にナノポストを配置すると、その感覚は0.4μmと非常に狭くなる。但し、ナノポストは孤立しているため少なくとも100nm程度の間隔もしくは直径でナノポストを配置する必要がある。更に、周囲の媒質とナノポストとの相対的な屈折率差分を利用して所望の波長に対して2piの位相差を設けるためには、ナノポストの高さは500nm~1500nm程度とある程度の高さが必要となる。したがって、細いナノポストの場合には直径と高さのアスペクト比率は1:10程度と大きくなり、製造上の技術課題が大きい。 As an example, if one nanopost is placed in the center of a pixel of 0.8 x 0.8 μm, the spacing between adjacent nanoposts in both the row and column directions will be 0.8 μm. If a nanopost is placed between them, the spacing will be very narrow at 0.4 μm. However, since the nanoposts are isolated, they must be placed with a spacing or diameter of at least about 100 nm. Furthermore, in order to use the relative refractive index difference between the surrounding medium and the nanopost to provide a phase difference of 2 pi for the desired wavelength, the nanopost must have a certain height of about 500 nm to 1500 nm. Therefore, in the case of thin nanoposts, the aspect ratio of the diameter to the height will be large, about 1:10, which poses significant technical challenges in manufacturing.

これに対して本実施の形態では、半導体基板11の第1面11S1側(光入射側S1)に設けられた透明層24の層内に、波長分離構造として、単位画素P毎に、例えば1つずつ分光部25を有する波長分離層26を設け、透明層24の光入射側S1の表面にオンチップレンズ24Lを、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的に設け、青色画素Pbの実効的な画素開口サイズを大きくした。 In contrast to this, in the present embodiment, a wavelength separation layer 26 having, for example, one spectroscopic section 25 for each unit pixel P is provided as a wavelength separation structure within the transparent layer 24 provided on the first surface 11S1 side (light incident side S1) of the semiconductor substrate 11, and an on-chip lens 24L is selectively provided on the surface of the light incident side S1 of the transparent layer 24 for a color pixel with a relatively low light sensitivity (for example, a blue pixel Pb), thereby increasing the effective pixel aperture size of the blue pixel Pb.

図6は、参考例1としての光検出装置1000Aの断面構成を模式的に表したものである。図7は、参考例2としての光検出装置1000Bの断面構成を模式的に表したものである。光検出装置1000Aは、光検出装置1と同様に、受光部1010と、受光部1010の光入射側S1に設けられた導光部1020と、受光部1010の光入射側S1とは反対側に設けられた多層配線層1030とが積層されている。受光部1010は、対向する第1面1011S1および第2面1011S2を有する半導体基板1011と、半導体基板1011に埋め込み形成された複数の光電変換部1012と、隣り合う光電変換部1012の間に設けられた素子分離部1013とを有する。導光部1020は、隔壁1021と各色フィルタ1022R,1022G,1022Bを有するカラーフィルタ1022とからなるカラーフィルタ層1023を有し、カラーフィルタ層1023上には、各色画素Pr,Pg,Pbそれぞれにオンチップレンズ1024Lが設けられている。多層配線層1030は、複数の配線層1031,1032,1033が、層間絶縁層1034を間に積層されている。光検出装置1000Bは、光検出装置1000Aのカラーフィルタ層1023上に透明層1024が設けられており、透明層1024の層内には、光検出装置1と同様に、色画素Pr,Pg,Pb毎に1つずつ分光部1025を有する波長分離構造1026が設けられている。 Figure 6 is a schematic diagram of a cross-sectional configuration of a photodetector 1000A as Reference Example 1. Figure 7 is a schematic diagram of a cross-sectional configuration of a photodetector 1000B as Reference Example 2. In the photodetector 1000A, a light receiving section 1010, a light guide section 1020 provided on the light incident side S1 of the light receiving section 1010, and a multilayer wiring layer 1030 provided on the opposite side of the light incident side S1 of the light receiving section 1010 are stacked, as in the photodetector 1. The light receiving section 1010 has a semiconductor substrate 1011 having a first surface 1011S1 and a second surface 1011S2 facing each other, a plurality of photoelectric conversion sections 1012 formed by embedding the semiconductor substrate 1011, and an element isolation section 1013 provided between adjacent photoelectric conversion sections 1012. The light guide section 1020 has a color filter layer 1023 consisting of a partition wall 1021 and a color filter 1022 having color filters 1022R, 1022G, and 1022B, and on the color filter layer 1023, an on-chip lens 1024L is provided for each of the color pixels Pr, Pg, and Pb. The multilayer wiring layer 1030 has a plurality of wiring layers 1031, 1032, and 1033 stacked with an interlayer insulating layer 1034 between them. The light detection device 1000B has a transparent layer 1024 provided on the color filter layer 1023 of the light detection device 1000A, and the transparent layer 1024 has a wavelength separation structure 1026 having a spectroscopic section 1025 for each of the color pixels Pr, Pg, and Pb, similar to the light detection device 1.

図8は、光検出装置1000Aにおける赤色光(R)、緑色光(G)および青色光(B)の量子効率を表したものである。図9は、光検出装置1000Bにおける赤色光(R)、緑色光(G)および青色光(B)の量子効率を表したものである。図10は、光検出装置1における赤色光(R)、緑色光(G)および青色光(B)の量子効率を表したものである。図8および図9から、各色画素Pr,Pg,Pbに1つずつ分光部1025を有する波長分離構造1026を設けることにより、RGBの感度が向上する一方で、RGBのバランスが崩れている。これに対して、光検出装置1000Bにおいて光感度が相対的に低い青色画素Pbの、透明層24の光入射側S1の表面に選択的にオンチップレンズ24Lを設けた光検出装置1(図10)では、青色光(B)に対する量子効率が向上し、赤色光(R)に対する量子効率が低下し、RGBのバランスが改善される。 Figure 8 shows the quantum efficiency of red light (R), green light (G) and blue light (B) in the photodetector 1000A. Figure 9 shows the quantum efficiency of red light (R), green light (G) and blue light (B) in the photodetector 1000B. Figure 10 shows the quantum efficiency of red light (R), green light (G) and blue light (B) in the photodetector 1. From Figures 8 and 9, by providing a wavelength separation structure 1026 having one spectroscopic section 1025 for each color pixel Pr, Pg, Pb, the sensitivity of RGB is improved, but the balance of RGB is lost. In contrast, in the photodetector 1000B, in which an on-chip lens 24L is selectively provided on the surface of the light incident side S1 of the transparent layer 24 of the blue pixel Pb, which has a relatively low light sensitivity, the quantum efficiency for blue light (B) is improved and the quantum efficiency for red light (R) is reduced, improving the RGB balance.

これにより、シンプルな波長分離構造によりRGBの感度を向上させつつ、開口調整構造としてオンチップレンズ24Lを、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的に設けるという簡易な手段で、感度のばらつきが補正される。 This allows the RGB sensitivity to be improved by a simple wavelength separation structure, while the sensitivity variations can be corrected by the simple means of selectively providing an on-chip lens 24L as an aperture adjustment structure in color pixels with relatively low light sensitivity (e.g., blue pixel Pb).

以上により、本実施の形態の光検出装置1では、感度の向上と共に色バランスを改善することが可能となる。 As a result, the photodetector 1 of this embodiment can improve the color balance while also increasing sensitivity.

また、本実施の形態の光検出装置1では、単位画素P毎に、例えば1つずつ分光部25を有するシンプルな波長分離構造で感度を向上させ、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的にオンチップレンズ24Lを設けるというシンプルな開口調整構造で感度のばらつきを補正するようにしたので、ナノポスト構造のみで感度を最大化しつつ、RGB3色の感度比率バランス向上させるイメージセンサと比較して、製造難易度および製造コストを低減することが可能となる。 In addition, in the photodetector 1 of this embodiment, the sensitivity is improved by a simple wavelength separation structure having, for example, one spectroscopic section 25 for each unit pixel P, and the variation in sensitivity is corrected by a simple aperture adjustment structure in which an on-chip lens 24L is selectively provided for a color pixel with a relatively low light sensitivity (for example, a blue pixel Pb). This makes it possible to reduce the difficulty and cost of manufacturing compared to an image sensor that maximizes sensitivity using only a nanopost structure while improving the balance of the sensitivity ratios of the three colors RGB.

次に、本開示の変形例1~4および第2の実施の形態について説明する。以下では、上記第1の実施の形態と同様の構成要素については同一の符号を付し、適宜その説明を省略する。 Next, we will explain modified examples 1 to 4 and the second embodiment of the present disclosure. In the following, the same components as those in the first embodiment above will be given the same reference numerals, and their explanation will be omitted as appropriate.

<2.変形例>
(2-1.変形例1)
図11は、本開示の変形例1に係る光検出装置(光検出装置1A)の断面構成の一例を模式的に表したものである。光検出装置1Aは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記第1の実施の形態と同様に、例えば所謂裏面照射型の光検出装置である。
2. Modified Examples
(2-1. Modification 1)
11 is a schematic diagram illustrating an example of a cross-sectional configuration of a photodetector (photodetector 1A) according to Modification 1 of the present disclosure. The photodetector 1A is, for example, a CMOS image sensor used in electronic devices such as digital still cameras and video cameras, and is, for example, a so-called back-illuminated photodetector similar to the first embodiment.

上記第1の実施の形態では、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的にオンチップレンズ24Lを設けることで色バランスを改善した例を示した。これに対して、本変形例の光検出装置1Aでは、オンチップレンズ24Lの代わりに、カラーフィルタ層23と透明層24との間に、インナーレンズ層27を設けるようにした。インナーレンズ層27の表面には、各色画素Pr,Pg,Pbそれぞれにインナーレンズ27Lが設けられている。これらの点を除き、光検出装置1Aは上記第1の実施の形態に係る光検出装置1と実質的に同様の構成を有する。 In the first embodiment described above, an example was shown in which the color balance was improved by selectively providing on-chip lenses 24L on color pixels with relatively low photosensitivity (e.g., blue pixels Pb). In contrast, in the photodetector 1A of this modified example, an inner lens layer 27 is provided between the color filter layer 23 and the transparent layer 24 instead of the on-chip lenses 24L. An inner lens 27L is provided on the surface of the inner lens layer 27 for each of the color pixels Pr, Pg, and Pb. Except for these points, the photodetector 1A has a substantially similar configuration to the photodetector 1 according to the first embodiment described above.

インナーレンズ層27は、本開示の「開口調整構造」の一具体例に相当するものである。インナーレンズ層27は、例えば、画素部100Aの全面を覆うように設けられており、その表面には、例えばギャップレスに設けられた複数のインナーレンズ27Lを有している。インナーレンズ27Lは、その上方から入射した光を光電変換部12へ導くためのものであり、図11に示したように、各色画素Pr,Pg,Pbそれぞれに設けられている。 The inner lens layer 27 corresponds to one specific example of the "aperture adjustment structure" of the present disclosure. The inner lens layer 27 is provided, for example, so as to cover the entire surface of the pixel section 100A, and has a plurality of inner lenses 27L provided, for example, gaplessly, on its surface. The inner lenses 27L are for guiding light incident from above to the photoelectric conversion section 12, and are provided for each of the color pixels Pr, Pg, and Pb, as shown in FIG. 11.

インナーレンズ27Lを含むインナーレンズ層27は、例えば、シリコン酸化物(SiO)、シリコン窒化物(Si)、シリコン酸窒化物(SiON)およびアモルファスシリコン(α-Si)等の無機材料を用いて形成することができる。この他、インナーレンズ層27は、エピスルフィド系樹脂、チエタン化合物やその樹脂等の高屈折率の有機材料を用いて形成してもよい。インナーレンズ27Lの形状は、特に限定されるものではなく、半球形状や半円筒状等の各種レンズ形状を採用することができる。 The inner lens layer 27 including the inner lens 27L can be formed using inorganic materials such as silicon oxide (SiO 2 ), silicon nitride (Si 3 N 4 ), silicon oxynitride (SiON), and amorphous silicon (α-Si). In addition, the inner lens layer 27 may be formed using organic materials with high refractive index such as episulfide resin, thietane compound, and its resin. The shape of the inner lens 27L is not particularly limited, and various lens shapes such as a hemispherical shape or a semicylindrical shape can be adopted.

このように、本変形例の光検出装置1Aでは、カラーフィルタ層23と透明層24との間に、各色画素Pr,Pg,Pbそれぞれにインナーレンズ27Lを有するインナーレンズ層27を設けるようにした。これにより、上記第1の実施の形態と同様の効果を得ることができる。 In this manner, in the light detection device 1A of this modified example, an inner lens layer 27 having an inner lens 27L for each of the color pixels Pr, Pg, and Pb is provided between the color filter layer 23 and the transparent layer 24. This makes it possible to obtain the same effect as in the first embodiment.

(2-2.変形例2)
図12は、本開示の変形例2に係る光検出装置(光検出装置1B)の断面構成の一例を模式的に表したものである。光検出装置1Bは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記第1の実施の形態と同様に、例えば所謂裏面照射型の光検出装置である。
(2-2. Modification 2)
12 is a schematic diagram illustrating an example of a cross-sectional configuration of a photodetector (photodetector 1B) according to Modification 2 of the present disclosure. The photodetector 1B is, for example, a CMOS image sensor used in electronic devices such as digital still cameras and video cameras, and is, for example, a so-called back-illuminated photodetector, similar to the first embodiment.

上記変形例1では、各色画素Pr,Pg,Pbそれぞれにインナーレンズ27Lを有するインナーレンズ層27を設ける例を示した。これに対して、本変形例の光検出装置1Bでは、光感度が相対的に低い色画素(例えば、青色画素Pb)のインナーレンズ層27の表面に選択的にインナーレンズ27Lが設けられている。これらの点を除き、光検出装置1Bは上記変形例1に係る光検出装置1Aと実質的に同様の構成を有する。 In the above modification 1, an example was shown in which an inner lens layer 27 having an inner lens 27L is provided for each of the color pixels Pr, Pg, and Pb. In contrast, in the photodetector 1B of this modification, an inner lens 27L is selectively provided on the surface of the inner lens layer 27 of a color pixel with a relatively low light sensitivity (e.g., blue pixel Pb). Except for these points, the photodetector 1B has a configuration substantially similar to that of the photodetector 1A according to the above modification 1.

このように、本変形例の光検出装置1Bでは、光感度が相対的に低い色画素(例えば、青色画素Pb)のインナーレンズ層27の表面に選択的にインナーレンズ27Lを設けるようにした。このような構成においても、上記第1の実施の形態と同様の効果を得ることができる。 In this manner, in the light detection device 1B of this modified example, the inner lens 27L is selectively provided on the surface of the inner lens layer 27 of a color pixel (e.g., blue pixel Pb) that has a relatively low light sensitivity. Even with this configuration, it is possible to obtain the same effect as in the first embodiment.

(2-3.変形例3)
図13は、本開示の変形例3に係る光検出装置(光検出装置1C)の断面構成の一例を模式的に表したものである。図14は、本開示の変形例3に係る光検出装置1Cの断面構成の他の例を模式的に表したものである。光検出装置1Cは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記第1の実施の形態と同様に、例えば所謂裏面照射型の光検出装置である。
(2-3. Modification 3)
Fig. 13 is a schematic diagram showing an example of a cross-sectional configuration of a photodetector (photodetector 1C) according to Modification 3 of the present disclosure. Fig. 14 is a schematic diagram showing another example of a cross-sectional configuration of the photodetector 1C according to Modification 3 of the present disclosure. The photodetector 1C is, for example, a CMOS image sensor used in electronic devices such as digital still cameras and video cameras, and is, for example, a so-called back-illuminated photodetector similar to the first embodiment.

上記第1の実施の形態および変形例1,2は、適宜組み合わせることができる。即ち、本開示の「開口調整構造」としてオンチップレンズ24Lおよびインナーレンズ27L(インナーレンズ層27)の両方を用いることができる。例えば、図13に示したように、カラーフィルタ層23と透明層24との間に、各色画素Pr,Pg,Pbそれぞれにインナーレンズ27Lを有するインナーレンズ層27を設け、さらに、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的にオンチップレンズ24Lを設けるようにしてもよい。例えば、図14に示したように、カラーフィルタ層23と透明層24との間に、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的にインナーレンズ27Lを有するインナーレンズ層27を設け、さらに、光感度が相対的に低い色画素(例えば、青色画素Pb)に選択的にオンチップレンズ24Lを設けるようにしてもよい。 The first embodiment and the first and second modifications can be appropriately combined. That is, both the on-chip lens 24L and the inner lens 27L (inner lens layer 27) can be used as the "aperture adjustment structure" of the present disclosure. For example, as shown in FIG. 13, an inner lens layer 27 having an inner lens 27L for each of the color pixels Pr, Pg, and Pb may be provided between the color filter layer 23 and the transparent layer 24, and an on-chip lens 24L may be selectively provided for a color pixel having a relatively low light sensitivity (e.g., a blue pixel Pb). For example, as shown in FIG. 14, an inner lens layer 27 having an inner lens 27L may be selectively provided for a color pixel having a relatively low light sensitivity (e.g., a blue pixel Pb) between the color filter layer 23 and the transparent layer 24, and an on-chip lens 24L may be selectively provided for a color pixel having a relatively low light sensitivity (e.g., a blue pixel Pb).

また、オンチップレンズ24Lとインナーレンズ27Lを色画素Pr,Pg,Pbのいずれかに選択的に設ける場合には、必ずしも同じ色画素(例えば、青色画素Pb)に両方設ける必要はない。例えば、図15に示したように、オンチップレンズ24Lは青色画素Pbに選択的に設け、インナーレンズ27Lは赤色画素Prに選択的に設けるようにしてもよい。 In addition, when the on-chip lens 24L and the inner lens 27L are selectively provided to any of the color pixels Pr, Pg, and Pb, it is not necessary to provide both to the same color pixel (e.g., blue pixel Pb). For example, as shown in FIG. 15, the on-chip lens 24L may be selectively provided to the blue pixel Pb, and the inner lens 27L may be selectively provided to the red pixel Pr.

このような構成においても、上記第1の実施の形態と同様の効果を得ることができる。 Even with this configuration, the same effects as in the first embodiment can be obtained.

(2-4.変形例4)
図16は、本開示の変形例4に係る光検出装置(光検出装置1D)の断面構成の一例を模式的に表したものである。光検出装置1Dは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記第1の実施の形態と同様に、例えば所謂裏面照射型の光検出装置である。
(2-4. Modification 4)
16 is a schematic diagram illustrating an example of a cross-sectional configuration of a photodetector (photodetector 1D) according to Modification 4 of the present disclosure. The photodetector 1D is, for example, a CMOS image sensor used in electronic devices such as digital still cameras and video cameras, and is, for example, a so-called back-illuminated photodetector similar to the first embodiment.

上記第1の実施の形態では、1つの色画素Pr,Pg,Pbがベイヤー状に配列された例を示したが、画素部100Aにおける各色画素Pr,Pg,Pbの配列はこれに限定されるものではない。例えば、同色の色画素Pr,Pg,Pbが複数、例えば2行×2列や3行×3列に配置された色画素群を色画素ユニット(赤色画素ユニットUr,緑色画素ユニットUg,青色画素ユニットUb)とし、これら色画素ユニット(赤色画素ユニットUr,緑色画素ユニットUg,青色画素ユニットUb)をベイヤー状に配列するようにしてもよい。その際には、オンチップレンズ24Lは、図16に示したように、隣接配置された光感度が相対的に低い色画素ユニット(例えば、青色画素ユニットUb)に対して1つ配置する。換言すると、同色画素が隣接配置されてなる色画素ユニットUr,Ug,Ubがベイヤー状に配置された光検出装置1Dでは、隣接配置された色画素(例えば、2行×2列で隣接配置された青色画素Pb)において共有するようにオンチップレンズ24Lは色画素ユニットに対して1つ配置される。 In the first embodiment, an example in which one color pixel Pr, Pg, Pb is arranged in a Bayer pattern is shown, but the arrangement of each color pixel Pr, Pg, Pb in the pixel unit 100A is not limited to this. For example, a color pixel group in which multiple color pixels Pr, Pg, Pb of the same color are arranged, for example, in 2 rows x 2 columns or 3 rows x 3 columns, may be a color pixel unit (red pixel unit Ur, green pixel unit Ug, blue pixel unit Ub), and these color pixel units (red pixel unit Ur, green pixel unit Ug, blue pixel unit Ub) may be arranged in a Bayer pattern. In this case, as shown in FIG. 16, one on-chip lens 24L is arranged for the adjacent color pixel unit (for example, blue pixel unit Ub) with relatively low photosensitivity. In other words, in a photodetector 1D in which color pixel units Ur, Ug, and Ub, each of which is made up of adjacent pixels of the same color, are arranged in a Bayer pattern, one on-chip lens 24L is arranged for each color pixel unit so that it is shared by adjacent color pixels (for example, blue pixels Pb arranged adjacently in 2 rows and 2 columns).

このような構成においても、上記第1の実施の形態と同様の効果を得ることができる。 Even with this configuration, the same effects as in the first embodiment can be obtained.

<3.第2の実施の形態>
図17は、本開示の第2の実施の形態に係る光検出装置(光検出装置2)の断面構成の一例を模式的に表したものである。図18は、図17に示した光検出装置2の平面レイアウトの一例を模式的に表したものであり、図17は、図18に示したII-II’線に対応する光検出装置2の断面構成を表している。
3. Second embodiment
Fig. 17 is a schematic diagram showing an example of a cross-sectional configuration of a photodetector (photodetector 2) according to a second embodiment of the present disclosure. Fig. 18 is a schematic diagram showing an example of a planar layout of the photodetector 2 shown in Fig. 17, and Fig. 17 shows a cross-sectional configuration of the photodetector 2 corresponding to line II-II' shown in Fig. 18.

本実施の形態の光検出装置2は、オンチップレンズ24Lを設けず、カラーフィルタ層43を本開示の「開口調整構造」の一具体例として用いたものである。この点を除き、光検出装置2は上記第1の実施の形態に係る光検出装置1と実質的に同様の構成を有する。 The photodetector 2 of this embodiment does not have an on-chip lens 24L, and uses a color filter layer 43 as a specific example of the "aperture adjustment structure" of the present disclosure. Except for this point, the photodetector 2 has a configuration substantially similar to that of the photodetector 1 according to the first embodiment.

カラーフィルタ層43は、上記第1の実施の形態と同様に、例えば、隔壁41とカラーフィルタ42とからなる。 As in the first embodiment, the color filter layer 43 is composed of, for example, a partition wall 41 and a color filter 42.

隔壁41は、隣り合う単位画素Pの境界に設けられ、単位画素P毎に開口41Hを有する枠体である。換言すると、隔壁41は、素子分離部13と同様に、単位画素Pの周囲に設けられており、画素部100Aにおいて格子状に設けられている。隔壁41は、光入射側S1から斜め入射した光が隣接する単位画素Pへ漏れ込むのを防ぐためのものである。例えば、カラーフィルタ42よりも屈折率の低い材料を用いて形成することができる。 The partition 41 is provided at the boundary between adjacent unit pixels P, and is a frame having an opening 41H for each unit pixel P. In other words, the partition 41 is provided around the unit pixel P, similar to the element isolation section 13, and is provided in a lattice pattern in the pixel section 100A. The partition 41 is intended to prevent light obliquely incident from the light incident side S1 from leaking into an adjacent unit pixel P. For example, it can be formed using a material with a lower refractive index than the color filter 42.

隔壁41は、光学的黒レベルを決定する単位画素Pの遮光を兼ねていてもよい。また、隔壁41は、画素部100Aの周辺領域に設けられる周辺回路へのノイズの発生を抑制するための遮光を兼ねていてもよい。その場合、隔壁41は、例えば、遮光性を有する材料を用いて形成することができる。このような材料としては、例えば、タングステン(W)、銀(Ag)、銅(Cu)、チタン(Ti)、アルミニウム(Al)またはそれらの合金が挙げられる。この他、TiN等の金属化合物が挙げられる。隔壁41は、例えば単層膜または積層膜として形成するようにしてもよい。積層膜とする場合には、例えば、Ti、タンタル(Ta)、W、コバルト(Co)またはモリブデン(Mo)あるいはそれらの合金、窒化物、酸化物または炭化物からなる層を下地層として設けるようにしてもよい。 The partition 41 may also serve as a light shield for the unit pixel P that determines the optical black level. The partition 41 may also serve as a light shield to suppress the generation of noise in a peripheral circuit provided in the peripheral region of the pixel unit 100A. In this case, the partition 41 can be formed, for example, using a material having light shielding properties. Examples of such materials include tungsten (W), silver (Ag), copper (Cu), titanium (Ti), aluminum (Al), or alloys thereof. Other examples include metal compounds such as TiN. The partition 41 may be formed, for example, as a single layer film or a laminated film. In the case of a laminated film, for example, a layer made of Ti, tantalum (Ta), W, cobalt (Co), or molybdenum (Mo), or an alloy, nitride, oxide, or carbide thereof may be provided as an underlayer.

本実施の形態では、隔壁41の開口41Hは、各色画素Pr,Pg,Pbの光感度に応じて異なる大きさとなっている。例えば、図17および図18に示したように、光感度が相対的に低い青色画素Pbの開口41Hbは、赤色画素Prおよび緑色画素Pgの開口41Hr,41Hgよりも大きく、光感度が相対的に高い赤色画素Prの開口41Hrは、緑色画素Pgおよび青色画素Pbの開口41Hg,41Hbよりも小さい。つまり、各色画素Pr,Pg,Pbにおける開口41Hr,41Hg,41Hbの大きさは、41Hr<41Hg<41Hbとなっている。 In this embodiment, the opening 41H of the partition 41 has a different size depending on the light sensitivity of each color pixel Pr, Pg, Pb. For example, as shown in Figures 17 and 18, the opening 41Hb of the blue pixel Pb, which has a relatively low light sensitivity, is larger than the openings 41Hr, 41Hg of the red pixel Pr and green pixel Pg, and the opening 41Hr of the red pixel Pr, which has a relatively high light sensitivity, is smaller than the openings 41Hg, 41Hb of the green pixel Pg and blue pixel Pb. In other words, the size of the openings 41Hr, 41Hg, 41Hb in each color pixel Pr, Pg, Pb is 41Hr < 41Hg < 41Hb.

カラーフィルタ42は、所定の波長の光を選択的に透過するものであり、例えば、赤色光(R)を選択的に透過させる赤色フィルタ42Rと、緑色光(G)を選択的に透過させる緑色フィルタ42Gと、青色光(B)を選択的に透過させる青色フィルタ42Bとを有する。各色フィルタ42R,42G,42Bは、隔壁41の開口41Hにそれぞれ充填されている。具体的には、各色フィルタ42R,42G,42Bは、例えば図18に示したように、2行×2列で配置された4つの単位画素Pに対して、緑色フィルタ42Gが対角線上に2つ配置され、赤色フィルタ42Rおよび青色フィルタ42Bが、直交する対角線上に1つずつ配置されている。各色フィルタ42R,42G,42Bが設けられた単位画素Pでは、例えば、それぞれの光電変換部12において対応する色光が選択的に光電変換されるようになっている。 The color filters 42 selectively transmit light of a predetermined wavelength, and include, for example, a red filter 42R that selectively transmits red light (R), a green filter 42G that selectively transmits green light (G), and a blue filter 42B that selectively transmits blue light (B). Each of the color filters 42R, 42G, and 42B is filled in the opening 41H of the partition wall 41. Specifically, for each of the color filters 42R, 42G, and 42B, two green filters 42G are arranged diagonally for four unit pixels P arranged in two rows and two columns, as shown in FIG. 18, and one red filter 42R and one blue filter 42B are arranged on the diagonal lines perpendicular to each other. In the unit pixel P provided with each of the color filters 42R, 42G, and 42B, for example, the corresponding color light is selectively photoelectrically converted in each photoelectric conversion unit 12.

即ち、画素部100Aでは、それぞれ、赤色光(R)を選択的に受光して光電変換する単位画素P(赤色画素Pr)、緑色光(G)を選択的に受光して光電変換する単位画素P(緑色画素Pg)および青色光(B)を選択的に受光して光電変換する単位画素P(青色画素Pb)が、ベイヤー状に配列されている。赤色画素Pr、緑色画素Pgおよび青色画素Pbは、それぞれ、赤色光(R)成分の画素信号、緑色光(G)成分の画素信号、青色光(B)成分の画素信号を生成する。光検出装置2は、RGBの画素信号を得ることができる。 That is, in the pixel section 100A, unit pixels P (red pixels Pr) that selectively receive and photoelectrically convert red light (R), unit pixels P (green pixels Pg) that selectively receive and photoelectrically convert green light (G), and unit pixels P (blue pixels Pb) that selectively receive and photoelectrically convert blue light (B) are arranged in a Bayer pattern. The red pixels Pr, green pixels Pg, and blue pixels Pb generate pixel signals of the red light (R) component, the green light (G) component, and the blue light (B) component, respectively. The photodetector 2 can obtain RGB pixel signals.

カラーフィルタ42は、シアン、マゼンタおよび黄色をそれぞれ選択的に透過するフィルタを有していてもよい。各色フィルタ42R,42G,42Bが設けられた単位画素Pでは、例えば、それぞれの光電変換部12において対応する色光が検出されるようになっている。カラーフィルタ42は、例えば、樹脂材料に顔料や染料を分散させることで形成することができる。カラーフィルタ42の膜厚は、その分光スペクトルによる色再現性やセンサ感度を考慮して、色毎に異なる膜厚としてもよい。 The color filter 42 may have filters that selectively transmit cyan, magenta, and yellow, respectively. In a unit pixel P in which each color filter 42R, 42G, and 42B is provided, for example, the corresponding color light is detected in each photoelectric conversion unit 12. The color filter 42 may be formed, for example, by dispersing a pigment or dye in a resin material. The film thickness of the color filter 42 may be different for each color, taking into account the color reproducibility and sensor sensitivity due to the spectral distribution.

このように、本実施の形態では、半導体基板11の第1面11S1側(光入射側S1)に設けられた透明層24の層内に、波長分離構造として、単位画素P毎に、例えば1つずつ分光部25を有する波長分離層26を設け、カラーフィルタ層43において単位画素P毎に形成される隔壁41の開口41Hの大きさを、各色画素Pr,Pg,Pbのうち光感度が相対的に低い色画素(例えば、青色画素Pb)ほど大きく、光感度が相対的に高い色画素(例えば、赤色画素Pr)ほど小さくした。これにより、シンプルな波長分離構造によりRGBの感度を向上させつつ、簡易な手段で、感度のばらつきが補正される。 In this manner, in the present embodiment, a wavelength separation layer 26 having, for example, one light-splitting section 25 is provided for each unit pixel P as a wavelength separation structure within the transparent layer 24 provided on the first surface 11S1 side (light incident side S1) of the semiconductor substrate 11, and the size of the opening 41H of the partition 41 formed for each unit pixel P in the color filter layer 43 is made larger for color pixels Pr, Pg, Pb with relatively low light sensitivity (e.g., blue pixel Pb) and smaller for color pixels with relatively high light sensitivity (e.g., red pixel Pr). This allows the sensitivity of RGB to be improved by a simple wavelength separation structure, while sensitivity variations are corrected by simple means.

以上により、本実施の形態の光検出装置2では、感度の向上と共に色バランスを改善することが可能となる。 As a result, the photodetector 2 of this embodiment can improve the color balance while also increasing sensitivity.

また、本実施の形態の光検出装置2では、単位画素P毎に、例えば1つずつ分光部25を有するシンプルな波長分離構造で感度を向上させ、カラーフィルタ層43において単位画素P毎に形成される隔壁41の開口41Hの大きさを、各色画素Pr,Pg,Pbのうち光感度が相対的に低い色画素ほど大きく、光感度が相対的に高い色画素ほど小さくするというシンプルな開口調整構造で感度のばらつきを補正するようにしたので、ナノポスト構造のみで感度を最大化しつつ、RGB3色の感度比率バランス向上させるイメージセンサと比較して、製造難易度および製造コストを低減することが可能となる。 In addition, in the photodetector 2 of this embodiment, the sensitivity is improved by a simple wavelength separation structure having, for example, one spectroscopic section 25 for each unit pixel P, and the size of the opening 41H of the partition 41 formed for each unit pixel P in the color filter layer 43 is larger for color pixels Pr, Pg, Pb with relatively low light sensitivity and smaller for color pixels with relatively high light sensitivity, thereby correcting the variation in sensitivity with a simple opening adjustment structure. This makes it possible to reduce the difficulty and cost of manufacturing compared to an image sensor that maximizes sensitivity using only a nanopost structure while improving the balance of the sensitivity ratios of the three colors RGB.

<4.適用例>
(適用例1)
上記光検出装置1等は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図19は、電子機器1000の概略構成を表したものである。
4. Application Examples
(Application Example 1)
The photodetector 1 and the like can be applied to any type of electronic device equipped with an imaging function, for example, a camera system such as a digital still camera or a video camera, a mobile phone equipped with an imaging function, etc. Fig. 19 shows a schematic configuration of an electronic device 1000.

電子機器1000は、例えば、レンズ群1001と、光検出装置1と、DSP(Digital Signal Processor)回路1002と、フレームメモリ1003と、表示部1004と、記録部1005と、操作部1006と、電源部1007とを有し、バスライン1008を介して相互に接続されている。 The electronic device 1000 includes, for example, a lens group 1001, a photodetector 1, a DSP (Digital Signal Processor) circuit 1002, a frame memory 1003, a display unit 1004, a recording unit 1005, an operation unit 1006, and a power supply unit 1007, which are interconnected via a bus line 1008.

レンズ群1001は、被写体からの入射光(像光)を取り込んで光検出装置1の撮像面上に結像するものである。光検出装置1は、レンズ群1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号としてDSP回路1002に供給する。 The lens group 1001 captures incident light (image light) from a subject and forms an image on the imaging surface of the photodetector 1. The photodetector 1 converts the amount of incident light formed on the imaging surface by the lens group 1001 into an electrical signal on a pixel-by-pixel basis and supplies the signal as a pixel signal to the DSP circuit 1002.

DSP回路1002は、光検出装置1から供給される信号を処理する信号処理回路である。DSP回路1002は、光検出装置1からの信号を処理して得られる画像データを出力する。フレームメモリ1003は、DSP回路1002により処理された画像データを一時的に保持するものである。 The DSP circuit 1002 is a signal processing circuit that processes the signal supplied from the photodetection device 1. The DSP circuit 1002 outputs image data obtained by processing the signal from the photodetection device 1. The frame memory 1003 temporarily holds the image data processed by the DSP circuit 1002.

表示部1004は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、光検出装置1で撮像された動画または静止画の画像データを、半導体メモリやハードディスク等の記録媒体に記録する。 The display unit 1004 is, for example, a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and records the image data of moving images or still images captured by the light detection device 1 on a recording medium such as a semiconductor memory or a hard disk.

操作部1006は、ユーザによる操作に従い、電子機器1000が所有する各種の機能についての操作信号を出力する。電源部1007は、DSP回路1002、フレームメモリ1003、表示部1004、記録部1005および操作部1006の動作電源となる各種の電源を、これら供給対象に対して適宜供給するものである。 The operation unit 1006 outputs operation signals for various functions of the electronic device 1000 in accordance with operations by the user. The power supply unit 1007 appropriately supplies various types of power to the DSP circuit 1002, frame memory 1003, display unit 1004, recording unit 1005, and operation unit 1006 to these power sources.

(適用例2)
図20Aは、光検出装置1を備えた光検出システム2000の全体構成の一例を模式的に表したものである。図20Bは、光検出システム2000の回路構成の一例を表したものである。光検出システム2000は、赤外光L2を発する光源部としての発光装置2001と、光電変換素子を有する受光部としての光検出装置2002とを備えている。光検出装置2002としては、上述した光検出装置1を用いることができる。光検出システム2000は、さらに、システム制御部2003、光源駆動部2004、センサ制御部2005、光源側光学系2006およびカメラ側光学系2007を備えていてもよい。
(Application Example 2)
Fig. 20A is a schematic diagram showing an example of the overall configuration of a light detection system 2000 including a light detection device 1. Fig. 20B is a diagram showing an example of the circuit configuration of the light detection system 2000. The light detection system 2000 includes a light emitting device 2001 as a light source unit that emits infrared light L2, and a light detection device 2002 as a light receiving unit having a photoelectric conversion element. The light detection device 1 described above can be used as the light detection device 2002. The light detection system 2000 may further include a system control unit 2003, a light source driving unit 2004, a sensor control unit 2005, a light source side optical system 2006, and a camera side optical system 2007.

光検出装置2002は光L1と光L2とを検出することができる。光L1は、外部からの環境光が被写体(測定対象物)2100(図20A)において反射された光である。光L2は発光装置2001において発光されたのち、被写体2100に反射された光である。光L1は例えば可視光であり、光L2は例えば赤外光である。光L1は、光検出装置2002における光電変換部において検出可能であり、光L2は、光検出装置2002における光電変換領域において検出可能である。光L1から被写体2100の画像情報を獲得し、光L2から被写体2100と光検出システム2000との間の距離情報を獲得することができる。光検出システム2000は、例えば、スマートフォン等の電子機器や車等の移動体に搭載することができる。発光装置2001は例えば、半導体レーザ、面発光半導体レーザ、垂直共振器型面発光レーザ(VCSEL)で構成することができる。発光装置2001から発光された光L2の光検出装置2002による検出方法としては、例えばiTOF方式を採用することができるが、これに限定されることはない。iTOF方式では、光電変換部は、例えば光飛行時間(Time-of-Flight;TOF)により被写体2100との距離を測定することができる。発光装置2001から発光された光L2の光検出装置2002による検出方法としては、例えば、ストラクチャード・ライト方式やステレオビジョン方式を採用することもできる。例えばストラクチャード・ライト方式では、あらかじめ定められたパターンの光を被写体2100に投影し、そのパターンのひずみ具合を解析することによって光検出システム2000と被写体2100との距離を測定することができる。また、ステレオビジョン方式においては、例えば2以上のカメラを用い、被写体2100を2以上の異なる視点から見た2以上の画像を取得することで光検出システム2000と被写体との距離を測定することができる。なお、発光装置2001と光検出装置2002とは、システム制御部2003によって同期制御することができる。 The light detection device 2002 can detect light L1 and light L2. Light L1 is external ambient light reflected by the subject (measurement object) 2100 (FIG. 20A). Light L2 is light emitted by the light emitting device 2001 and then reflected by the subject 2100. Light L1 is, for example, visible light, and light L2 is, for example, infrared light. Light L1 can be detected by the photoelectric conversion unit in the light detection device 2002, and light L2 can be detected by the photoelectric conversion region in the light detection device 2002. Image information of the subject 2100 can be obtained from the light L1, and distance information between the subject 2100 and the light detection system 2000 can be obtained from the light L2. The light detection system 2000 can be mounted on, for example, an electronic device such as a smartphone or a moving object such as a car. The light emitting device 2001 can be configured, for example, by a semiconductor laser, a surface-emitting semiconductor laser, or a vertical-cavity surface-emitting laser (VCSEL). The detection method of the light L2 emitted from the light emitting device 2001 by the light detection device 2002 may be, for example, an iTOF method, but is not limited thereto. In the iTOF method, the photoelectric conversion unit can measure the distance to the subject 2100 by, for example, the time-of-flight (TOF). The detection method of the light L2 emitted from the light emitting device 2001 by the light detection device 2002 may be, for example, a structured light method or a stereo vision method. For example, in the structured light method, a predetermined pattern of light is projected onto the subject 2100, and the distance between the light detection system 2000 and the subject 2100 can be measured by analyzing the degree of distortion of the pattern. In addition, in the stereo vision method, for example, two or more cameras are used to obtain two or more images of the subject 2100 viewed from two or more different viewpoints, thereby measuring the distance between the light detection system 2000 and the subject. The light emitting device 2001 and the light detection device 2002 can be synchronously controlled by the system control unit 2003.

<5.応用例>
(内視鏡手術システムへの応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
<5. Application Examples>
(Application example to endoscopic surgery system)
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the technology according to the present disclosure may be applied to an endoscopic surgery system.

図21は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 Figure 21 is a diagram showing an example of the general configuration of an endoscopic surgery system to which the technology disclosed herein (the present technology) can be applied.

図21では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。 Figure 21 shows an operator (doctor) 11131 performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000. As shown in the figure, the endoscopic surgery system 11000 is composed of an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, a support arm device 11120 that supports the endoscope 11100, and a cart 11200 on which various devices for endoscopic surgery are mounted.

内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。 The endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101. In the illustrated example, the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.

鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。 The endoscope 11100 has an opening at the tip of the tube 11101 into which an objective lens is fitted. A light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens toward an object to be observed inside the body cavity of the patient 11132. The endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.

カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。 An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the object being observed is focused onto the image sensor by the optical system. The observation light is photoelectrically converted by the image sensor to generate an electrical signal corresponding to the observation light, i.e., an image signal corresponding to the observed image. The image signal is sent to the camera control unit (CCU) 11201 as RAW data.

CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統
括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
The CCU 11201 is configured with a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and performs overall control of the operations of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various types of image processing on the image signal, such as development processing (demosaic processing), for displaying an image based on the image signal.

表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。 Under the control of the CCU 11201, the display device 11202 displays an image based on an image signal that has been subjected to image processing by the CCU 11201.

光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。 The light source device 11203 is composed of a light source such as an LED (light emitting diode) and supplies illumination light to the endoscope 11100 when photographing the surgical site, etc.

入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。 The input device 11204 is an input interface for the endoscopic surgery system 11000. A user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204. For example, the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) of the endoscope 11100.

処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。 The treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc. The insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon. The recorder 11207 is a device capable of recording various types of information related to the surgery. The printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.

なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。 The light source device 11203 that supplies irradiation light to the endoscope 11100 when photographing the surgical site can be composed of a white light source composed of, for example, an LED, a laser light source, or a combination of these. When the white light source is composed of a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so that the white balance of the captured image can be adjusted in the light source device 11203. In this case, it is also possible to capture images corresponding to each of the RGB colors in a time-division manner by irradiating the observation object with laser light from each of the RGB laser light sources in a time-division manner and controlling the drive of the image sensor of the camera head 11102 in synchronization with the irradiation timing. According to this method, a color image can be obtained without providing a color filter to the image sensor.

また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。 The light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals. The image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.

また、光源装置11203は、特殊光観察に対応した所定の波長域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を
照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織に
その試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
The light source device 11203 may be configured to supply light in a predetermined wavelength range corresponding to the special light observation. In the special light observation, for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band light is irradiated compared to the irradiation light (i.e., white light) during normal observation, and a predetermined tissue such as blood vessels on the mucosal surface is photographed with high contrast, so-called narrow band imaging is performed. Alternatively, in the special light observation, a fluorescent observation may be performed in which an image is obtained by fluorescence generated by irradiating an excitation light. In the fluorescent observation, an excitation light is irradiated to a body tissue and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and an excitation light corresponding to the fluorescent wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image. The light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.

図22は、図21に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。 Figure 22 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in Figure 21.

カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。 The camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405. The CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413. The camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.

レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。 The lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401. The lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.

撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するため
の1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
The imaging element constituting the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type). When the imaging unit 11402 is configured as a multi-plate type, for example, each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining them. Alternatively, the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display. By performing 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site. In addition, when the imaging unit 11402 is configured as a multi-plate type, the lens unit 11401 may also be provided in multiple systems corresponding to each imaging element.

また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。 Furthermore, the imaging unit 11402 does not necessarily have to be provided in the camera head 11102. For example, the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.

駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。 The drive unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be appropriately adjusted.

通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。 The communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201. The communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.

また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。 The communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201 and supplies them to the camera head control unit 11405. The control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.

なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。 The above-mentioned frame rate, exposure value, magnification, focus, and other imaging conditions may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. In the latter case, the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.

カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。 The camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.

通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。 The communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102. The communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.

また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。 The communication unit 11411 also transmits a control signal to the camera head 11102 for controlling the driving of the camera head 11102. The image signal and the control signal can be transmitted by electrical communication, optical communication, etc.

画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。 The image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.

制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。 The control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.

また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。 The control unit 11413 also displays the captured image showing the surgical site on the display device 11202 based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 can recognize surgical tools such as forceps, specific body parts, bleeding, mist generated when using the energy treatment tool 11112, and the like, by detecting the shape and color of the edges of objects included in the captured image. When the control unit 11413 displays the captured image on the display device 11202, it may use the recognition result to superimpose various types of surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can proceed with the surgery reliably.

カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。 The transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable for electrical signal communication, an optical fiber for optical communication, or a composite cable of these.

ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。 In the illustrated example, communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.

以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。 An example of an endoscopic surgery system to which the technology disclosed herein can be applied has been described above. The technology disclosed herein can be applied to the imaging unit 11402 of the configuration described above. By applying the technology disclosed herein to the imaging unit 11402, detection accuracy is improved.

なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。 Note that, although an endoscopic surgery system has been described here as an example, the technology disclosed herein may also be applied to other systems, such as a microsurgery system.

(移動体への応用例)
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
(Example of application to moving objects)
The technology according to the present disclosure can be applied to various products. For example, the technology according to the present disclosure may be realized as a device mounted on any type of moving body, such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, a robot, a construction machine, or an agricultural machine (tractor).

図23は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 Figure 23 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.

車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図23に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。 The vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001. In the example shown in FIG. 23, the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050. In addition, the functional configuration of the integrated control unit 12050 includes a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.

駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。 The drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs. For example, the drive system control unit 12010 functions as a control device for a drive force generating device for generating a drive force for the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.

ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 The body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs. For example, the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps. In this case, radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020. The body system control unit 12020 receives these radio waves or signal inputs and controls the vehicle's door lock device, power window device, lamps, etc.

車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。 The outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000. For example, the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030. The outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images. The outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, or characters on the road surface based on the received images.

撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。 The imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received. The imaging unit 12031 can output the electrical signal as an image, or as distance measurement information. The light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.

車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。 The in-vehicle information detection unit 12040 detects information inside the vehicle. For example, a driver state detection unit 12041 that detects the state of the driver is connected to the in-vehicle information detection unit 12040. The driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.

マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。 The microcomputer 12051 can calculate the control target values of the driving force generating device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output a control command to the drive system control unit 12010. For example, the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an ADAS (Advanced Driver Assistance System), including avoiding or mitigating vehicle collisions, following based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 The microcomputer 12051 can also perform cooperative control for the purpose of autonomous driving, which allows the vehicle to travel autonomously without relying on the driver's operation, by controlling the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。 The microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside-vehicle information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside-vehicle information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching high beams to low beams.

音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図23の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。 The audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying information to vehicle occupants or the outside of the vehicle. In the example of FIG. 23, an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices. The display unit 12062 may include, for example, at least one of an on-board display and a head-up display.

図24は、撮像部12031の設置位置の例を示す図である。 Figure 24 shows an example of the installation position of the imaging unit 12031.

図24では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。 In FIG. 24, the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.

撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 The imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle cabin of the vehicle 12100. The imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100. The imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100. The imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100. The imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin is mainly used to detect leading vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.

なお、図24には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。 In addition, FIG. 24 shows an example of the imaging ranges of the imaging units 12101 to 12104. Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose, imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively, and imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door. For example, an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.

撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。 At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information. For example, at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or may be an imaging element having pixels for phase difference detection.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 For example, the microcomputer 12051 can extract, as a preceding vehicle, the closest three-dimensional object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster) by calculating the distance to each three-dimensional object within the imaging range 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. Furthermore, the microcomputer 12051 can set the distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of autonomous driving, which runs autonomously without relying on the driver's operation.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。 For example, the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, the microcomputer 12051 can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by performing forced deceleration or avoidance steering via the drive system control unit 12010.

撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。 At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays. For example, the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured images of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not the object is a pedestrian. When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian. The audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.

以上、本開示に係る技術が適用され得る移動体制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、上記第1,第2の実施の形態およびその変形例1~4に係る光検出装置(例えば、光検出装置1)は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、ノイズの少ない高精細な撮影画像を得ることができるので、移動体制御システムにおいて撮影画像を利用した高精度な制御を行うことができる。 An example of a mobile object control system to which the technology according to the present disclosure can be applied has been described above. The technology according to the present disclosure can be applied to the imaging unit 12031 of the configuration described above. Specifically, the light detection devices according to the first and second embodiments and their modifications 1 to 4 (e.g., light detection device 1) can be applied to the imaging unit 12031. By applying the technology according to the present disclosure to the imaging unit 12031, a high-definition captured image with little noise can be obtained, and therefore high-precision control using the captured image can be performed in the mobile object control system.

以上、第1,第2の実施の形態、変形例1~4および適用例ならびに応用例を挙げて本開示を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上述した変形例1~4は、上記第1の実施の形態の変形例として説明したが、各変形例および第2の実施の形態の構成を適宜組み合わせることができる。例えば、本開示の「開口調整構造」をカラーフィルタ層23とオンチップレンズ24Lやインナーレンズ27Lとを組み合わせた構成としてもよい。 Although the present disclosure has been described above with reference to the first and second embodiments, modifications 1 to 4, and application examples, the present technology is not limited to the above-mentioned embodiments, and various modifications are possible. For example, modifications 1 to 4 described above have been described as modifications of the first embodiment, but the configurations of each modification and the second embodiment can be appropriately combined. For example, the "aperture adjustment structure" of the present disclosure may be configured by combining the color filter layer 23 with the on-chip lens 24L or the inner lens 27L.

なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limited to those described, and other effects may also be present.

なお、本開示は以下のような構成をとることも可能である。以下の構成の本技術によれば、これにより、相対的に光感度が低い画素における量子効率が向上する。よって、感度の向上と共に色バランスを改善することが可能となる。
(1)
対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面側に設けられ、前記第1の画素および前記第2の画素のうち光感度が相対的に低い一方の画素の実効的な画素開口サイズを他方の画素よりも大きくする開口調整構造と
を備えた光検出装置。
(2)
前記波長分離構造は、前記第1の画素および前記第2の画素に対する共通層として形成される第1の媒質と、前記第1の画素および前記第2の画素それぞれに設けられた第2の媒質とを有し、
前記第2の媒質は前記入射光の所定の波長以下の大きさの柱状構造を有し、前記第1の媒質よりも高い屈折率を有する、前記(1)に記載の光検出装置。
(3)
前記第2の媒質は、前記第1の画素および前記第2の画素それぞれに1または複数設けられると共に、前記第1の画素および前記第2の画素それぞれに異なる径を有する、前記(2)に記載の光検出装置。
(4)
前記第1の媒質は、前記入射光に対して1.5以下の屈折率を有する、前記(2)または(3)に記載の光検出装置。
(5)
前記第1の媒質は、シリコン酸化物、フッ素を添加したシリコン酸化物、フッ素樹脂、多孔質シリカまたはそれらの混合素材からなる、前記(2)乃至(4)のうちのいずれか1つに記載の光検出装置。
(6)
前記第2の媒質は、前記入射光に対して1.7以上の屈折率を有する、前記(2)乃至(5)のうちのいずれか1つに記載の光検出装置。
(7)
前記第2の媒質は、酸化チタン、酸化アルミニウム、シリコン窒化物、アモルファスシリコンまたはそれらの混合素材からなる、前記(2)乃至(6)のうちのいずれか1つに記載の光検出装置。
(8)
前記開口調整構造は、前記一方の画素に選択的に設けられる集光素子からなる、前記(1)乃至(7)のうちのいずれか1つに記載の光検出装置。
(9)
前記集光素子は、前記波長分離構造よりも光入射側に配置されるオンチップレンズである、前記(8)に記載の光検出装置。
(10)
前記集光素子は、前記第1の面と前記波長分離構造との間に配置されるインナーレンズである、前記(8)または(9)に記載の光検出装置。
(11)
複数の前記第1の画素および前記第2の画素は、それぞれ、前記半導体基板において、行方向および列方向に複数隣接配置されており、
前記集光素子は、隣接配置された複数の前記第1の画素からなる第1の画素群または隣接配置された複数の第2の画素からなる第2の画素群のうち、光感度が相対的に低い一方の画素群に1つずつ設けられている、前記(8)乃至(10)のうちのいずれか1つに記載の光検出装置。
(12)
前記開口調整構造は、前記第1の面と前記波長分離構造との間において、隣り合う前記第1の画素と前記第2の画素との境界に設けられ、前記第1の画素および前記第2の画素のそれぞれに開口を有する枠体からなり、
前記一方の画素の開口サイズは、前記他方の開口サイズよりも大きく、
前記開口には、それぞれ、前記第1の画素および前記第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタが充填されている
前記(1)乃至(11)のうちのいずれか1つに記載の光検出装置。
(13)
前記枠体は、前記カラーフィルタよりも屈折率の低い材料からなる、前記(12)に記載の光検出装置。
(14)
対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面側において、前記第1の画素および前記第2の画素のうち光感度が相対的に低い画素に設けられた集光素子と
を備えた光検出装置。
(15)
前記集光素子は、前記波長分離構造よりも光入射側に配置されるオンチップレンズである、前記(14)に記載の光検出装置。
(16)
前記集光素子は、前記第1の面と前記波長分離構造との間に配置されるインナーレンズである、前記(14)または(15)に記載の光検出装置。
(17)
対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面と前記波長分離構造との間において、隣り合う前記第1の画素と前記第2の画素との境界に設けられ、前記第1の画素および前記第2の画素のそれぞれに開口を有する枠体と、前記開口内に充填された、前記第1の画素および前記第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタとからなるカラーフィルタ層とを備え、
前記開口のサイズは光感度が相対的に低い画素の開口が他の画素の開口よりも大きい
光検出装置。
(18)
前記枠体は、前記カラーフィルタよりも屈折率の低い材料からなる、前記(17)に記載の光検出装置。
The present disclosure may also be configured as follows. According to the present technology having the following configuration, the quantum efficiency of pixels having relatively low light sensitivity is improved. This makes it possible to improve the color balance as well as the sensitivity.
(1)
a semiconductor substrate having a first surface and a second surface opposed to each other, and a plurality of first pixels and second pixels that selectively perform photoelectric conversion on wavelengths different from each other and are arranged in a matrix;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
an aperture adjustment structure provided on the first surface side and configured to make an effective pixel aperture size of one of the first pixels and the second pixels, which has a relatively low light sensitivity, larger than that of the other pixel.
(2)
the wavelength separation structure includes a first medium formed as a common layer for the first pixel and the second pixel, and a second medium provided in each of the first pixel and the second pixel;
The optical detection device according to (1), wherein the second medium has a columnar structure having a size equal to or smaller than a predetermined wavelength of the incident light and has a refractive index higher than that of the first medium.
(3)
The photodetector according to (2), wherein the second medium is provided in one or more of the first pixel and the second pixel, and has a different diameter in the first pixel and the second pixel.
(4)
The optical detection device according to (2) or (3), wherein the first medium has a refractive index of 1.5 or less for the incident light.
(5)
The optical detection device according to any one of (2) to (4), wherein the first medium is made of silicon oxide, silicon oxide doped with fluorine, fluororesin, porous silica, or a mixture of these materials.
(6)
The optical detection device according to any one of (2) to (5), wherein the second medium has a refractive index of 1.7 or more for the incident light.
(7)
The optical detection device according to any one of (2) to (6), wherein the second medium is made of titanium oxide, aluminum oxide, silicon nitride, amorphous silicon, or a mixture thereof.
(8)
The light detection device according to any one of (1) to (7), wherein the aperture adjustment structure is composed of a light-collecting element selectively provided in the one pixel.
(9)
The photodetector according to (8), wherein the light-collecting element is an on-chip lens that is arranged on the light incident side of the wavelength separation structure.
(10)
The optical detection device according to (8) or (9), wherein the light-collecting element is an inner lens disposed between the first surface and the wavelength separation structure.
(11)
the first pixels and the second pixels are arranged adjacent to each other in a row direction and a column direction on the semiconductor substrate,
The optical detection device according to any one of (8) to (10), wherein the light-collecting elements are provided in one of a first pixel group consisting of a plurality of adjacently arranged first pixels or a second pixel group consisting of a plurality of adjacently arranged second pixels, whichever has a relatively lower optical sensitivity.
(12)
the aperture adjustment structure is provided at a boundary between the first pixel and the second pixel adjacent to each other between the first surface and the wavelength separation structure, and is composed of a frame having an aperture in each of the first pixel and the second pixel;
an aperture size of the one pixel is larger than an aperture size of the other pixel,
The light detection device described in any one of (1) to (11), wherein the openings are filled with color filters that selectively transmit wavelengths that are photoelectrically converted in the first pixel and the second pixel, respectively.
(13)
The light detection device according to (12), wherein the frame is made of a material having a lower refractive index than the color filter.
(14)
a semiconductor substrate having a first surface and a second surface opposed to each other, the semiconductor substrate having a plurality of first pixels and second pixels arranged in a matrix, the first pixels and second pixels selectively performing photoelectric conversion on wavelengths different from each other;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
a light-collecting element provided on the first surface side in a pixel having a relatively low light sensitivity out of the first pixels and the second pixels.
(15)
The photodetector according to (14), wherein the light-collecting element is an on-chip lens arranged on the light incident side of the wavelength separation structure.
(16)
The optical detection device according to (14) or (15), wherein the light-collecting element is an inner lens disposed between the first surface and the wavelength separation structure.
(17)
a semiconductor substrate having a first surface and a second surface opposed to each other, and a plurality of first pixels and second pixels that selectively perform photoelectric conversion on wavelengths different from each other and are arranged in a matrix;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
a frame body provided at a boundary between the first pixel and the second pixel adjacent to each other between the first surface and the wavelength separation structure, the frame body having an opening at each of the first pixel and the second pixel, and a color filter layer including a color filter filled in the opening and selectively transmitting a wavelength that is photoelectrically converted in each of the first pixel and the second pixel;
The size of the aperture of a pixel having a relatively low light sensitivity is larger than the size of the aperture of other pixels.
(18)
The light detection device according to (17), wherein the frame is made of a material having a lower refractive index than the color filter.

1,1A,1B,1C,1D,2…光検出装置、10…受光部、11…半導体基板、12…光電変換部、13…素子分離部、14…固定電荷層、20…導光部、21…隔壁、22…カラーフィルタ、22B…青色フィルタ、33G…緑色フィルタ、22R…赤色フィルタ、23…カラーフィルタ層、24…透明層、24L…オンチップレンズ、25…分光部、26…波長分離層、27…インナーレンズ層、27L…インナーレンズ、30…多層配線層、31,32,33…配線層、34…層間絶縁層、11S1…第1面、11S2…第2面、S1…光入射側。

1, 1A, 1B, 1C, 1D, 2...photodetector, 10...light-receiving section, 11...semiconductor substrate, 12...photoelectric conversion section, 13...element isolation section, 14...fixed charge layer, 20...light-guiding section, 21...partition, 22...color filter, 22B...blue filter, 33G...green filter, 22R...red filter, 23...color filter layer, 24...transparent layer, 24L...on-chip lens, 25...spectroscopic section, 26...wavelength separation layer, 27...inner lens layer, 27L...inner lens, 30...multilayer wiring layer, 31, 32, 33...wiring layer, 34...interlayer insulating layer, 11S1...first surface, 11S2...second surface, S1...light incident side.

Claims (18)

対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面側に設けられ、前記第1の画素および前記第2の画素のうち光感度が相対的に低い一方の画素の実効的な画素開口サイズを他方の画素よりも大きくする開口調整構造と
を備えた光検出装置。
a semiconductor substrate having a first surface and a second surface opposed to each other, the semiconductor substrate having a plurality of first pixels and second pixels arranged in a matrix, the first pixels and second pixels selectively performing photoelectric conversion on wavelengths different from each other;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
an aperture adjustment structure provided on the first surface side and configured to make an effective pixel aperture size of one of the first pixels and the second pixels, which has a relatively low light sensitivity, larger than that of the other pixel.
前記波長分離構造は、前記第1の画素および前記第2の画素に対する共通層として形成される第1の媒質と、前記第1の画素および前記第2の画素それぞれに設けられた第2の媒質とを有し、
前記第2の媒質は前記入射光の所定の波長以下の大きさの柱状構造を有し、前記第1の媒質よりも高い屈折率を有する、請求項1に記載の光検出装置。
the wavelength separation structure includes a first medium formed as a common layer for the first pixel and the second pixel, and a second medium provided in each of the first pixel and the second pixel;
2. The optical detection device according to claim 1, wherein the second medium has a columnar structure having a size equal to or smaller than a predetermined wavelength of the incident light, and has a refractive index higher than that of the first medium.
前記第2の媒質は、前記第1の画素および前記第2の画素それぞれに1または複数設けられると共に、前記第1の画素および前記第2の画素それぞれに異なる径を有する、請求項2に記載の光検出装置。 The photodetector according to claim 2, wherein one or more second media are provided for each of the first pixel and the second pixel, and the first pixel and the second pixel have different diameters. 前記第1の媒質は、前記入射光に対して1.5以下の屈折率を有する、請求項2に記載の光検出装置。 The optical detection device according to claim 2, wherein the first medium has a refractive index of 1.5 or less for the incident light. 前記第1の媒質は、シリコン酸化物、フッ素を添加したシリコン酸化物、フッ素樹脂、多孔質シリカまたはそれらの混合素材からなる、請求項2に記載の光検出装置。 The optical detection device according to claim 2, wherein the first medium is made of silicon oxide, silicon oxide doped with fluorine, fluororesin, porous silica, or a mixture of these materials. 前記第2の媒質は、前記入射光に対して1.7以上の屈折率を有する、請求項2に記載の光検出装置。 The optical detection device according to claim 2, wherein the second medium has a refractive index of 1.7 or more for the incident light. 前記第2の媒質は、酸化チタン、酸化アルミニウム、シリコン窒化物、アモルファスシリコンまたはそれらの混合素材からなる、請求項2に記載の光検出装置。 The optical detection device according to claim 2, wherein the second medium is made of titanium oxide, aluminum oxide, silicon nitride, amorphous silicon, or a mixture thereof. 前記開口調整構造は、前記一方の画素に選択的に設けられる集光素子からなる、請求項1に記載の光検出装置。 The optical detection device according to claim 1, wherein the aperture adjustment structure is composed of a light-collecting element selectively provided in one of the pixels. 前記集光素子は、前記波長分離構造よりも光入射側に配置されるオンチップレンズである、請求項8に記載の光検出装置。 The optical detection device according to claim 8, wherein the light-collecting element is an on-chip lens arranged on the light-incident side of the wavelength separation structure. 前記集光素子は、前記第1の面と前記波長分離構造との間に配置されるインナーレンズである、請求項8に記載の光検出装置。 The optical detection device according to claim 8, wherein the focusing element is an inner lens disposed between the first surface and the wavelength separation structure. 複数の前記第1の画素および前記第2の画素は、それぞれ、前記半導体基板において、行方向および列方向に複数隣接配置されており、
前記集光素子は、隣接配置された複数の前記第1の画素からなる第1の画素群または隣接配置された複数の第2の画素からなる第2の画素群のうち、光感度が相対的に低い一方の画素群に1つずつ設けられている、請求項8に記載の光検出装置。
the first pixels and the second pixels are arranged adjacent to each other in a row direction and a column direction on the semiconductor substrate,
9. The photodetection device according to claim 8, wherein the light-collecting elements are provided in one pixel group having a relatively lower light sensitivity out of a first pixel group consisting of a plurality of the first pixels arranged adjacent to each other or a second pixel group consisting of a plurality of the second pixels arranged adjacent to each other.
前記開口調整構造は、前記第1の面と前記波長分離構造との間において、隣り合う前記第1の画素と前記第2の画素との境界に設けられ、前記第1の画素および前記第2の画素のそれぞれに開口を有する枠体からなり、
前記一方の画素の開口サイズは、前記他方の開口サイズよりも大きく、
前記開口には、それぞれ、前記第1の画素および前記第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタが充填されている
請求項1に記載の光検出装置。
the aperture adjustment structure is provided at a boundary between the first pixel and the second pixel adjacent to each other between the first surface and the wavelength separation structure, and is composed of a frame having an aperture in each of the first pixel and the second pixel;
an aperture size of the one pixel is larger than an aperture size of the other pixel,
The photodetector according to claim 1 , wherein the openings are filled with color filters that selectively transmit wavelengths that are photoelectrically converted in the first pixel and the second pixel, respectively.
前記枠体は、前記カラーフィルタよりも屈折率の低い材料からなる、請求項12に記載の光検出装置。 The light detection device according to claim 12, wherein the frame is made of a material having a lower refractive index than the color filter. 対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面側において、前記第1の画素および前記第2の画素のうち光感度が相対的に低い画素に設けられた集光素子と
を備えた光検出装置。
a semiconductor substrate having a first surface and a second surface opposed to each other, the semiconductor substrate having a plurality of first pixels and second pixels arranged in a matrix, the first pixels and second pixels selectively performing photoelectric conversion on wavelengths different from each other;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
a light-collecting element provided on the first surface side in a pixel having a relatively low light sensitivity out of the first pixels and the second pixels.
前記集光素子は、前記波長分離構造よりも光入射側に配置されるオンチップレンズである、請求項14に記載の光検出装置。 The optical detection device according to claim 14, wherein the light-collecting element is an on-chip lens arranged on the light-incident side of the wavelength separation structure. 前記集光素子は、前記第1の面と前記波長分離構造との間に配置されるインナーレンズである、請求項14に記載の光検出装置。 The optical detection device according to claim 14, wherein the focusing element is an inner lens disposed between the first surface and the wavelength separation structure. 対向する第1の面および第2の面を有し、互いに異なる波長を選択的に光電変換する複数の第1の画素および第2の画素が行列状に配置された半導体基板と、
互いに異なる屈折率を有する媒質が前記第1の面側に前記第1の画素および前記第2の画素それぞれに平面且つ離散的に設けられ、前記第1の画素では入射光を第1の波長成分とそれ以外の波長成分とに分離して前記第1の波長成分を選択的に前記第1の画素に導き、前記第2の画素では入射光を第2の波長成分とそれ以外の波長成分とに分離して前記第2の波長成分を選択的に前記第2の画素に導く波長分離構造と、
前記第1の面と前記波長分離構造との間において、隣り合う前記第1の画素と前記第2の画素との境界に設けられ、前記第1の画素および前記第2の画素のそれぞれに開口を有する枠体と、前記開口内に充填された、前記第1の画素および前記第2の画素それぞれにおいて光電変換される波長を選択的に透過するカラーフィルタとからなるカラーフィルタ層とを備え、
前記開口のサイズは光感度が相対的に低い画素の開口が他の画素の開口よりも大きい
光検出装置。
a semiconductor substrate having a first surface and a second surface opposed to each other, the semiconductor substrate having a plurality of first pixels and second pixels arranged in a matrix, the first pixels and second pixels selectively performing photoelectric conversion on wavelengths different from each other;
a wavelength separation structure in which media having mutually different refractive indices are provided planarly and discretely on the first surface side of the first pixel and the second pixel, the first pixel separates incident light into a first wavelength component and other wavelength components and selectively guides the first wavelength component to the first pixel, and the second pixel separates incident light into a second wavelength component and other wavelength components and selectively guides the second wavelength component to the second pixel;
a frame body provided at a boundary between the first pixel and the second pixel adjacent to each other between the first surface and the wavelength separation structure, the frame body having an opening at each of the first pixel and the second pixel, and a color filter layer including a color filter filled in the opening and selectively transmitting a wavelength that is photoelectrically converted in each of the first pixel and the second pixel;
The size of the aperture of a pixel having a relatively low light sensitivity is larger than the size of the aperture of other pixels.
前記枠体は、前記カラーフィルタよりも屈折率の低い材料からなる、請求項17に記載の光検出装置。
The light detection device according to claim 17 , wherein the frame is made of a material having a refractive index lower than that of the color filter.
JP2022167104A 2022-10-18 2022-10-18 Light detection device Pending JP2024059430A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022167104A JP2024059430A (en) 2022-10-18 2022-10-18 Light detection device
PCT/JP2023/036586 WO2024085005A1 (en) 2022-10-18 2023-10-06 Photodetector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022167104A JP2024059430A (en) 2022-10-18 2022-10-18 Light detection device

Publications (1)

Publication Number Publication Date
JP2024059430A true JP2024059430A (en) 2024-05-01

Family

ID=88505488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167104A Pending JP2024059430A (en) 2022-10-18 2022-10-18 Light detection device

Country Status (2)

Country Link
JP (1) JP2024059430A (en)
WO (1) WO2024085005A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4652634B2 (en) * 2001-08-31 2011-03-16 キヤノン株式会社 Imaging device
KR101068905B1 (en) * 2008-04-04 2011-09-30 캐논 가부시끼가이샤 Photoelectric conversion device, imaging system, photoelectric conversion device designing method, and photoelectric conversion device manufacturing method
EP3812801B1 (en) 2019-10-23 2024-06-19 Samsung Electronics Co., Ltd. Image sensor including color separating lens array and electronic device including the image sensor

Also Published As

Publication number Publication date
WO2024085005A1 (en) 2024-04-25

Similar Documents

Publication Publication Date Title
US11508768B2 (en) Solid-state imaging device and electronic apparatus
JP7487252B2 (en) Light receiving element
JP7562423B2 (en) Imaging device and electronic device
KR20240037943A (en) imaging device
JP2024059430A (en) Light detection device
WO2023234069A1 (en) Imaging device and electronic apparatus
WO2023068172A1 (en) Imaging device
WO2024053299A1 (en) Light detection device and electronic apparatus
JP7437957B2 (en) Photodetector, solid-state imaging device, and electronic equipment
WO2024202674A1 (en) Semiconductor element and electronic equipment
WO2024162114A1 (en) Light detector, optical element, and electronic appliance
WO2024162113A1 (en) Optical detector, optical element, and electronic device
WO2024202677A1 (en) Light detection device
EP4415047A1 (en) Imaging device
WO2024166667A1 (en) Light detection device and electronic apparatus
WO2024075253A1 (en) Light detection device and electronic equipment
WO2023132137A1 (en) Imaging element and electronic apparatus
WO2024154590A1 (en) Light detection device
WO2023042447A1 (en) Imaging device
WO2024143079A1 (en) Light detection device and electronic equipment
WO2024029408A1 (en) Imaging device
WO2024057805A1 (en) Imaging element and electronic device
WO2023012989A1 (en) Imaging device
WO2024150531A1 (en) Light detection device
WO2023162496A1 (en) Imaging device