DE112020006147T5 - Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung - Google Patents

Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung Download PDF

Info

Publication number
DE112020006147T5
DE112020006147T5 DE112020006147.7T DE112020006147T DE112020006147T5 DE 112020006147 T5 DE112020006147 T5 DE 112020006147T5 DE 112020006147 T DE112020006147 T DE 112020006147T DE 112020006147 T5 DE112020006147 T5 DE 112020006147T5
Authority
DE
Germany
Prior art keywords
pixel
light
sensitivity
pixels
imaging element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020006147.7T
Other languages
English (en)
Inventor
Tomohiko Asatsuma
Ryosuke Nakamura
Satoko Iida
Koshi Okita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112020006147T5 publication Critical patent/DE112020006147T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • H04N25/622Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming by controlling anti-blooming drains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/59Control of the dynamic range by controlling the amount of charge storable in the pixel, e.g. modification of the charge conversion ratio of the floating node capacitance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself

Abstract

Es werden ein Bildgebungselement, ein Bildgebungselementansteuerungsverfahren und eine elektronische Einrichtung bereitgestellt, mit denen es möglich ist, Nebensprechen zwischen Pixeln zu unterdrücken. Das Bildgebungselement gemäß der vorliegenden Offenbarung ist mit Folgendem versehen: einem Einheitspixel, das ein erstes Pixel (300a) einschließlich eines ersten fotoelektrischen Umwandlungselements (101) und ein zweites Pixel (301a) beinhaltet, das ein zweites fotoelektrisches Umwandlungselement (102) beinhaltet und angrenzend an das erste Pixel angeordnet ist; und einer Ladungsspeicherungseinheit (302a), in der durch das zweite fotoelektrische Umwandlungselement erzeugte Ladungen gespeichert werden und die die gespeicherten Ladungen in eine Spannung umwandelt. Die Ladungsspeicherungseinheit ist in einem Grenzteil zwischen dem Einheitspixel und einem daran angrenzenden anderen Einheitspixel angeordnet.

Description

  • Gebiet
  • Die vorliegende Offenbarung betrifft ein Bildgebungselement, ein Bildgebungselementansteuerungsverfahren und eine elektronische Vorrichtung.
  • Hintergrund
  • In einer Bildgebungsvorrichtung, die ein fotoelektrisches Umwandlungselement beinhaltet, ist es wünschenswert, dass das fotoelektrische Umwandlungselement eine hohe Empfindlichkeit aufweist, wenn die Beleuchtungsstärke niedrig ist, während es zum Beispiel wünschenswert ist, dass das fotoelektrische Umwandlungselement weniger wahrscheinlich gesättigt wird, wenn die Beleuchtungsstärke hoch ist. Daher offenbart Patentliteratur 1 zum Beispiel eine Technik zum Anordnen von zwei Elementen, nämlich einem großen und kleinen fotoelektrischen Umwandlungselement mit unterschiedlichen Flächen in einem Einheitspixel und Verwenden eines großflächigen fotoelektrischen Umwandlungselements als ein Hochempfindlichkeitspixel für den Fall einer geringen Beleuchtungsstärke und Verwenden eines kleinflächigen fotoelektrischen Umwandlungselements als ein Niederempfindlichkeitspixel.
  • Zitatliste
  • Patentliteratur
    • Patentliteratur 1: JP 2017-163010 A
    • Patentliteratur 2: JP 2017-175345 A
    • Patentliteratur 3: JP 2017-191950 A
    • Patentliteratur 4: JP 2012-178457 A Kurzdarstellung
  • Technisches Problem
  • In dem Fall der zuvor beschriebenen Konfiguration, bei der das Hochempfindlichkeitspixel und das Niederempfindlichkeitspixel in dem Einheitspixel angeordnet sind, unterscheidet sich die Empfindlichkeit stark zwischen dem Hochempfindlichkeitspixel und dem Niederempfindlichkeitspixel. Dies führt zu der Möglichkeit des Auftretens von Lecken (Nebensprechen) von einfallendem Licht von dem Hochempfindlichkeitspixel zu dem Niederempfindlichkeitspixel und dies könnte eine Verschlechterung der Bildqualität in dem erfassten Bild verursachen.
  • Ein Ziel der vorliegenden Offenbarung ist das Bereitstellen eines Bildgebungselements, eines Bildgebungselementansteuerungsverfahrens und einer elektronischen Vorrichtung, die zum Unterdrücken von Nebensprechen zwischen Pixeln in der Lage sind.
  • Lösung des Problems
  • Zum Lösen des zuvor beschriebenen Problems weist ein Bildgebungselement gemäß einem Aspekt der vorliegenden Offenbarung Folgendes auf: ein Einheitspixel, das ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement und ein zweites Pixel mit einem zweiten fotoelektrischen Umwandlungselement beinhaltet, wobei das zweite Pixel angrenzend an das erste Pixel angeordnet ist; und einen Akkumulationsteil, der eine durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und einem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt.
  • Zum Lösen des zuvor beschriebenen Problems weist ein Bildgebungselement gemäß einem Aspekt der vorliegenden Offenbarung Folgendes auf: ein Pixelarray, das mehrere Pixel beinhaltet; und einen Lichtabschirmungsteil, der zwischen jedem der mehreren Pixel bereitgestellt ist, die in dem Pixelarray enthalten sind, wobei der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen zwei Pixeln, die aneinander angrenzend angeordnet sind, unter den mehreren Pixeln aufweist, so dass die Breite gemäß einem Unterschied der Empfindlichkeit zwischen den zwei Pixeln definiert ist.
  • Zum Lösen des zuvor beschriebenen Problems weist ein Bildgebungselement gemäß einem Aspekt der vorliegenden Offenbarung Folgendes auf: ein Pixelarray, das mehrere Pixel beinhaltet; und einen Grabenlichtabschirmungsteil, der um jedes der mehreren Pixel herum bereitgestellt ist, die in dem Pixelarray enthalten sind, wobei der Grabenlichtabschirmungsteil ohne eine Lücke um ein erstes Pixel unter den mehreren Pixeln herum bereitgestellt ist und der Grabenlichtabschirmungsteil um ein zweites Pixel angrenzend an das erste Pixel herum bereitgestellt ist, so dass der Grabenlichtabschirmungsteil, der um das zweite Pixel herum bereitgestellt ist, von dem Grabenlichtabschirmungsteil beabstandet ist, der um das erste Pixel herum bereitgestellt ist.
  • Zum Lösen des zuvor beschriebenen Problems weist ein Bildgebungselement gemäß einem Aspekt der vorliegenden Offenbarung Folgendes auf: ein erstes Pixel; ein zweites Pixel, das angrenzend an das erste Pixel angeordnet ist; einen Grabenlichtabschirmungsteil, der um sowohl das erste Pixel als auch das zweite Pixel herum bereitgestellt ist; und eine Lichtabschirmungswand, die in einer Tiefenrichtung eines Grabens bei wenigstens einer ersten Grenze zwischen dem ersten Pixel und dem zweiten Pixel des Grabenlichtabschirmungsteils bereitgestellt ist, wobei die Lichtabschirmungswand so gebildet ist, dass sie in der ersten Grenze an einer Position näher an einer Richtung des zweiten Pixels eingebettet ist.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine Konfiguration eines Beispiels für eine elektronische Vorrichtung veranschaulicht, auf die die Technologie gemäß jeder Ausführungsform der vorliegenden Offenbarung anwendbar ist.
    • 2 ist ein Blockdiagramm, das ein schematisches Konfigurationsbeispiel eines CMOS-Bildsensors veranschaulicht, der auf jede Ausführungsform anwendbar ist.
    • 3 ist ein Schaltbild, das ein schematisches Konfigurationsbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 4 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 5 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 6 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 7 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 8 ist eine Draufsicht, die ein Planarlayoutbeispiel eines Farbfilterarrays veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 9 ist ein Diagramm, das eine Struktur eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist.
    • 10 ist ein Zeitverlaufsdiagramm, das ein Operationsbeispiel eines Einheitspixels zur Zeit des Beginnens einer Belichtung veranschaulicht, welches auf jede Ausführungsform anwendbar ist.
    • 11 ist ein Zeitverlaufsdiagramm, das ein Operationsbeispiel eines Einheitspixels zur Zeit des Auslesens veranschaulicht, welches auf jede Ausführungsform anwendbar ist.
    • 12A ist eine Draufsicht eines Beispiels für ein Pixel, welche schematisch eine Anordnungsposition eines Akkumulationsteils gemäß einer ersten Ausführungsform veranschaulicht.
    • 12B ist eine Draufsicht eines Beispiels für ein Pixel, welche schematisch eine Anordnungsposition des Akkumulationsteils gemäß der ersten Ausführungsform veranschaulicht.
    • 12C ist eine Draufsicht, die schematisch ein Beispiel veranschaulicht, bei dem der Akkumulationsteil an einer ungeeigneten Position angeordnet ist.
    • 13 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall, in dem ein Akkumulationsteil an einer geeigneten Position angeordnet ist, gemäß der ersten Ausführungsform veranschaulicht.
    • 14 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall veranschaulicht, in dem ein Akkumulationsteil an einer ungeeigneten Position angeordnet ist.
    • 15A ist ein Diagramm, das ein Beispiel für einen Fall veranschaulicht, in dem ein Sichtwinkel der Pixelarrayeinheit mit Bezug auf eine Zeilenrichtig breit in einer Spaltenrichtung ist.
    • 15B ist ein Diagramm, das ein Beispiel für eine Anordnung des Akkumulationsteils in einem Fall, in dem der Sichtwinkel mit Bezug auf die Pixelarrayeinheit breit in der Zeilenrichtung ist, gemäß einer ersten Modifikation der ersten Ausführungsform veranschaulicht.
    • 16A ist eine Ansicht, die ein Beispiel in einem Fall veranschaulicht, in dem der Sichtwinkel der Pixelarrayeinheit mit Bezug auf die Spaltenrichtung breiter als der Sichtwinkel mit Bezug auf die Zeilenrichtung ist.
    • 16B ist ein Diagramm, das ein Beispiel für eine Anordnung des Akkumulationsteils in einem Fall, in dem der Sichtwinkel mit Bezug auf die Pixelarrayeinheit 11 breit in der Spaltenrichtung ist, gemäß der ersten Modifikation der ersten Ausführungsform veranschaulicht.
    • 17A ist eine Draufsicht, die schematisch ein erstes Anordnungsbeispiel eines Grabenlichtabschirmungsteils gemäß einer zweiten Modifikation der ersten Ausführungsform veranschaulicht.
    • 17B ist eine Draufsicht, die schematisch ein zweites Anordnungsbeispiel des Grabenlichtabschirmungsteils gemäß der zweiten Modifikation der ersten Ausführungsform veranschaulicht.
    • 18A ist ein schematisches Diagramm, das eine Anordnung eines Zwischenpixellichtabschirmungsteils gemäß einer zweiten Ausführungsform veranschaulicht.
    • 18B ist ein schematisches Diagramm, das eine Anordnung eines Zwischenpixellichtabschirmungsteils gemäß einer zweiten Ausführungsform veranschaulicht.
    • 19A ist ein schematisches Diagramm, das eine Anordnung eines Zwischenpixellichtabschirmungsteils gemäß einer ersten Modifikation der zweiten Ausführungsform veranschaulicht.
    • 19B ist ein schematisches Diagramm, das eine Anordnung eines Zwischenpixellichtabschirmungsteils gemäß der ersten Modifikation der zweiten Ausführungsform veranschaulicht.
    • 20 ist ein schematisches Diagramm, das ein Beispiel für ein Pixelarray durch Verwenden eines RCCC-Arrays veranschaulicht, das auf eine zweite Modifikation der zweiten Ausführungsform anwendbar ist.
    • 21 ist eine Draufsicht, die ein Anordnungsbeispiel von Grabenlichtabschirmungsteilen gemäß einer dritten Ausführungsform veranschaulicht.
    • 22 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall veranschaulicht, in dem die dritte Ausführungsform nicht angewandt wird.
    • 23 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Element in einem Fall veranschaulicht, in dem die dritte Ausführungsform angewandt wird.
    • 24 ist ein schematisches Diagramm, das ein Konfigurationsbeispiel eines Grabenlichtabschirmungsteils gemäß einer ersten Modifikation der dritten Ausführungsform veranschaulicht.
    • 25 ist ein schematisches Diagramm, das ein Konfigurationsbeispiel eines Grabenlichtabschirmungsteils gemäß einer zweiten Modifikation der dritten Ausführungsform veranschaulicht.
    • 26 ist eine Querschnittsansicht, die einen Querschnitt eines Beispiels für ein Festkörperbildgebungselement gemäß einer bekannten Technik in einer Einfallsrichtung von einfallendem Licht veranschaulicht.
    • 27 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß einer vierten Ausführungsform veranschaulicht.
    • 28 ist ein schematisches Diagramm, das eine Beziehung zwischen der Lichtabschirmungswand gemäß der vierten Ausführungsform und dem ersten Grabenlichtabschirmungsteil und dem zweiten Grabenlichtabschirmungsteil veranschaulicht.
    • 29 ist ein schematisches Diagramm, das die Anordnung der Lichtabschirmungswand gemäß der vierten Ausführungsform veranschaulicht.
    • 30 ist ein schematisches Diagramm, das einen Lichtabschirmungseffekt durch die Pixelstruktur gemäß der vierten Ausführungsform veranschaulicht.
    • 31 ist ein schematisches Diagramm, das eine Anordnung einer Lichtabschirmungswand gemäß einer ersten Modifikation der vierten Ausführungsform veranschaulicht.
    • 32 ist ein schematisches Diagramm, das eine Anordnung einer Lichtabschirmungswand gemäß einer zweiten Modifikation der vierten Ausführungsform veranschaulicht.
    • 33 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß einer dritten Modifikation der vierten Ausführungsform veranschaulicht.
    • 34 ist ein schematisches Diagramm, das eine Anordnung einer Lichtabschirmungswand gemäß einer zweiten Modifikation der vierten Ausführungsform veranschaulicht.
    • 35 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß einer vierten Modifikation der vierten Ausführungsform veranschaulicht.
    • 36 ist ein schematisches Diagramm, das die Anordnung eines Zwischenpixellichtabschirmungsteils und eines Wellenleiters gemäß einer fünften Modifikation der vierten Ausführungsform veranschaulicht.
    • 37 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß einer sechsten Modifikation der vierten Ausführungsform veranschaulicht.
    • 38 ist ein Diagramm, das ein Verwendungsbeispiel einer Bildgebungsvorrichtung veranschaulicht, auf die die Technologie der vorliegenden Offenbarung angewandt wird.
    • 39 ist ein Diagramm, das ein Beispiel für eine schematische Konfiguration eines endoskopischen Chirurgiesystems veranschaulicht.
    • 40 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration eines Kamerakopfes und einer CCU veranschaulicht.
    • 41 ist ein Blockdiagramm, das ein Beispiel für eine schematische Konfiguration eines Fahrzeugsteuersystems veranschaulicht.
    • 42 ist ein Diagramm, das ein Beispiel für Installationspositionen einer Fahrzeugaußenbereichsinformationsdetektionseinheit und einer Bildgebungseinheit veranschaulicht.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen der vorliegenden Offenbarung werden nachfolgend ausführlich unter Bezugnahme auf die Zeichnungen beschrieben. In jeder der folgenden Ausführungsformen werden die gleichen Teile durch die gleichen Bezugszeichen bezeichnet und wird eine wiederholende Beschreibung davon weggelassen.
  • Nachfolgend werden Ausführungsformen der vorliegenden Offenbarung in der folgenden Reihenfolge beschrieben.
    • 1. Technologie, die auf jede Ausführungsform anwendbar ist
      • 1-1. Elektronische Vorrichtung
      • 1-2. Schematische Konfiguration eines CMOS-Bildsensors
      • 1-3. Einheitspixel
        • 1-3-1. Schaltkreiskonfigurationsbeispiel
        • 1-3-2. Planarlayoutbeispiel
          • 1-3-2-1. Planarlayoutbeispiel einer zweiten Oberfläche
          • 1-3-2-2. Planarlayout einer ersten Oberfläche und zweiten Oberfläche
          • 1-3-2-3. Planarlayout eines Farbfilters
        • 1-3-3. Strukturbeispiel
        • 1-3-4. Operationsbeispiel
    • 2. Erste Ausführungsform
      • 2-1. Erste Modifikation
      • 2-2. Zweite Modifikation
    • 3. Zweite Ausführungsform
      • 3-1. Erste Modifikation
      • 3-2. Zweite Modifikation
    • 4. Dritte Ausführungsform
      • 4-1. Erste Modifikation
      • 4-2. Zweite Modifikation
    • 5. Vierte Ausführungsform
      • 5-0. Bezüglich bekannter Technik
      • 5-1. Bezüglich der vierten Ausführungsform
        • 5-1-1. Überblick der vierten Ausführungsform
        • 5-1-2. Spezielle Beschreibung der vierten Ausführungsform
      • 5-2. Erste Modifikation
      • 5-3. Zweite Modifikation
      • 5-4. Dritte Modifikation
      • 5-5. Vierte Modifikation
      • 5-6. Fünfte Modifikation
      • 5-7. Sechste Modifikation
      • 5-8. Andere Modifikationen
    • 6. Fünfte Ausführungsform
      • 6-1. Anwendungsbeispiel der Technologie der vorliegenden Offenbarung
      • 6-2. Anwendungsbeispiel für ein endoskopisches Chirurgiesystem
      • 6-3. Anwendungsbeispiel für sich bewegende Objekte
  • [1. Technologie, die auf jede Ausführungsform anwendbar ist]
  • Zuerst wird zum Fördern des Verständnisses eine Technik, die auf jede Ausführungsform anwendbar ist, schematisch beschrieben.
  • (1-1. Elektronische Vorrichtung)
  • Zuerst wird eine elektronische Vorrichtung, auf die die Technologie gemäß jeder Ausführungsform der vorliegenden Offenbarung anwendbar ist, beschrieben. 1 ist ein Blockdiagramm, das eine Konfiguration eines Beispiels für eine elektronische Vorrichtung veranschaulicht, auf die die Technologie gemäß jeder Ausführungsform der vorliegenden Offenbarung anwendbar ist.
  • In 1 beinhaltet eine elektronische Vorrichtung 1000 eine optische Einheit 1010, eine Bildgebungsvorrichtung 1011, einen Signalverarbeitungsschaltkreis 1012, eine Anzeigevorrichtung 1013 und ein Speicherungsmedium 1014. In 1 wird ein Bildgebungselement als eine Bildgebungsvorrichtung gemäß der vorliegenden Offenbarung, die nachfolgend ausführlich beschrieben ist, auf die Bildgebungsvorrichtung 1011 angewandt. Das Bildgebungselement beinhaltet Folgendes: mehrere Pixel, die jeweils einfallendes Licht durch fotoelektrische Umwandlung in elektrische Signale umwandeln; und einen Ansteuerungsschaltkreis, der die mehreren Pixel ansteuert. Hier beinhalten Anwendungsbeispiele der elektronischen Vorrichtung 1000 eine Digitalfotokamera, eine Digitalvideokamera, ein Mobiltelefon mit einer Bildgebungsfunktion und ein Smartphone.
  • Die optische Einheit 1010 beinhaltet eine oder mehrere Linsen, einen Blendenmechanismus, einen Fokussierungsmechanismus und dergleichen und bildet ein Bild von Bildlicht (einfallendem Licht) von einem Motiv auf einer Bildgebungsoberfläche der Bildgebungsvorrichtung 1011. Mit dieser Struktur wird eine Signalladung in der Bildgebungsvorrichtung 1011 für eine gewisse Periode akkumuliert. Der Signalverarbeitungsschaltkreis 1012 führt verschiedene Arten von Signalverarbeitung einschließlich einer Bildverarbeitung an dem Pixelsignal durch, das von der Bildgebungsvorrichtung 1011 ausgegeben wird. Das Bildsignal, das die Signalverarbeitung durchlief, kann in dem Speicherungsmedium 1014, wie etwa einem nichtflüchtigen Medium, wie etwa einem Flash-Laufwerk oder einem Festplattenlaufwerk, gespeichert werden. Des Weiteren kann ein Bild basierend auf dem Pixelsignal auch an die Anzeigevorrichtung 1013 ausgegeben werden.
  • (1-2. Schematische Konfiguration eines CMOS-Bildsensors)
  • Als Nächstes wird eine schematische Konfiguration einer Komplementärer-Metall-Oxid-Halbleiter(CMOS)-Festkörperbildgebungsvorrichtung als ein Bildgebungselement gemäß der vorliegenden Offenbarung beschrieben. In der folgenden Beschreibung wird eine CMOS-Festkörperbildgebungsvorrichtung als ein CMOS-Bildsensor abgekürzt. 1 ist ein Blockdiagramm, das ein schematisches Konfigurationsbeispiel eines CMOS-Bildsensors veranschaulicht, der auf jede Ausführungsform anwendbar ist. Hier ist der CMOS-Bildsensor ein Bildsensor, der durch Anwenden oder partielles Verwenden eines CMOS-Prozesses erzeugt wird. Zum Beispiel beinhaltet der auf jede Ausführungsform anwendbare CMOS-Bildsensor einen rückwärtig belichteten CMOS-Bildsensor.
  • In 1 weist ein CMOS-Bildsensor 10, der ein auf jede Ausführungsform anwendbares Bildgebungselement ist, zum Beispiel eine gestapelte Struktur auf, bei der ein Halbleiterchip, auf dem eine Pixelarrayeinheit 11 gebildet ist, und ein Halbleiterchip, auf dem ein Peripherieschaltkreis gebildet ist, gestapelt sind. Der Peripherieschaltkreis kann zum Beispiel einen Vertikalansteuerungsschaltkreis 12, einen Spaltenverarbeitungsschaltkreis 13, einen Horizontalansteuerungsschaltkreis 14 und eine Systemsteuereinheit 15 beinhalten.
  • Der CMOS-Bildsensor 10 beinhaltet ferner eine Signalverarbeitungseinheit 18 und eine Datenspeicherungseinheit 19. Die Signalverarbeitungseinheit 18 und die Datenspeicherungseinheit 19 können auf demselben Halbleiterchip wie der Peripherieschaltkreis bereitgestellt werden oder können auf einem anderen Halbleiterchip bereitgestellt werden.
  • Die Pixelarrayeinheit 11 weist eine Konfiguration auf, bei der Einheitspixel (nachfolgend in manchen Fällen einfach als „Pixel“ beschrieben), die jeweils ein fotoelektrisches Umwandlungselement aufweisen, das eine Ladung gemäß der Menge an empfangenem Licht erzeugt und akkumuliert, in einer Zeilenrichtung und einer Spaltenrichtung, das heißt in einem zweidimensionalen gitterartigen Matrixmuster, angeordnet sind. Hier verweist die Zeilenrichtung auf eine Anordnungsrichtung von Pixeln in einer Pixelzeile (das heißt der horizontalen Richtung), während die Spaltenrichtung auf eine Anordnungsrichtung von Pixeln in einer Pixelspalte (das heißt der vertikalen Richtung) verweist. Spezielle Schaltkreiskonfigurationen und Pixelstrukturen der Einheitspixel werden nachfolgend ausführlich beschrieben.
  • Die Pixelarrayeinheit 11 weist Pixelansteuerungsleitungen LD auf, die in der Zeilenrichtung für einzelne Pixelzeilen verdrahtet sind, während sie Vertikalsignalleitungen VSL aufweist, die in der Spaltenrichtung für einzelne Pixelspalten mit Bezug auf das Pixelarray in einer Matrix verdrahtet sind. Die Pixelansteuerungsleitung LD überträgt ein Ansteuerungssignal zum Durchführen einer Ansteuerung, wenn ein Signal von einem Pixel ausgelesen wird. Obwohl 1 die Pixelansteuerungsleitung LD als eine Verdrahtungsleitung veranschaulicht, ist die Anzahl nicht auf eine beschränkt. Ein Ende der Pixelansteuerungsleitung LD ist mit einem Ausgangsanschluss verbunden, der jeder von Zeilen des Vertikalansteuerungsschaltkreises 12 entspricht.
  • Der Vertikalansteuerungsschaltkreis 12 beinhaltet ein Schieberegister, einen Adressendecodierer und dergleichen und steuert sämtliche Pixel der Pixelarrayeinheit 11 gleichzeitig oder Zeile für Zeile an. Das heißt, zusammen mit der Systemsteuereinheit 15, die den Vertikalansteuerungsschaltkreis 12 steuert, stellt der Vertikalansteuerungsschaltkreis 12 eine Ansteuerungseinheit dar, die die Operation jedes von Pixeln der Pixelarrayeinheit 11 steuert. Obwohl eine spezielle Konfiguration des Vertikalansteuerungsschaltkreises 12 nicht veranschaulicht ist, beinhaltet der Vertikalansteuerungsschaltkreis typischerweise zwei Scansysteme eines Auslesescansystems und eines Sweep-Out (Ausfegen)-Scansystems.
  • Um ein Signal von dem Einheitspixel auszulesen, führt das Auslesescansystem sequentiell einen selektiven Scan von Einheitspixeln der Pixelarrayeinheit 11 Zeile für Zeile durch. Das Signal, das von dem Einheitspixel ausgelesen wird, ist ein analoges Signal. Das Sweep-Out-Scansystem führt einen Sweep-Out-Scan an einer Auslesezeile, an der ein Auslesescan durch das Auslesescansystem durchzuführen ist, um eine Belichtungszeit vor dem Auslesescan durch.
  • Durch den Sweep-Out-Scan durch das Sweep-Out-Scansystem werden unnötige Ladungen aus dem fotoelektrischen Umwandlungselement des Einheitspixels der Auslesezielzeile herausgefegt, und das fotoelektrische Umwandlungselement wird zurückgesetzt. Durch Ausfegen (Zurücksetzen) unnötiger Ladungen in dem Sweep-Out-Scansystem wird eine Elektronischer-Verschluss-Operation durchgeführt. Hier verweist die Elektronischer-Verschluss-Operation auf eine Operation des Verwerfens von Ladungen des fotoelektrischen Umwandlungselements und erneuten Beginnens einer Belichtung (Beginnen einer Akkumulation von Ladungen).
  • Das Signal, das durch die Ausleseoperation durch das Auslesescansystem ausgelesen wird, entspricht der Menge an empfangenem Licht nach der unmittelbar vorhergehenden Ausleseoperation oder Elektronischer-Verschluss-Operation. Anschließend entspricht eine Periode von dem Auslesezeitpunkt unmittelbar vor einer Ausleseoperation oder dem Sweep-Out-Zeitpunkt der Elektronischer-Verschluss-Operation bis zu dem Auslesezeitpunkt der aktuellen Ausleseoperation einer Ladungsakkumulationsperiode (auch als eine Belichtungsperiode bezeichnet) in dem Einheitspixel.
  • Ein Signal, das von jedem von Einheitspixeln in der Pixelzeile ausgegeben wird, die selektiv durch den Vertikalansteuerungsschaltkreis 12 gescannt wird, wird durch jede der Vertikalsignalleitungen VSL für jede Pixelspalte in den Spaltenauswahlschaltkreis 13 eingegeben. Der Spaltenverarbeitungsschaltkreis 13 führt eine vorbestimmte Signalverarbeitung an dem Signal durch, das von jedem Pixel der ausgewählten Zeile durch die Vertikalsignalleitung VSL für jede der Pixelspalten der Pixelarrayeinheit 11 ausgegeben wird, und hält das Pixelsignal temporär nach der Signalverarbeitung.
  • Insbesondere führt der Spaltenverarbeitungsschaltkreis 13 wenigstens einen Rauschentfernungsprozess, zum Beispiel einen Korrelierte-Doppelabtastung(CDS)-Prozess oder einen Doppeldatenabtastung(DDS)-Prozess, als die Signalverarbeitung durch. Zum Beispiel entfernt der CDS-Prozess das Rauschen mit festem Muster, das für das Pixel einzigartig ist, wie etwa das Rücksetzrauschen und die Schwellenvariation des Verstärkungstransistors in dem Pixel. Der Spaltenverarbeitungsschaltkreis 13 weist zum Beispiel auch eine Analog-Digital(AD)-Umsetzungsfunktion auf und setzt ein analoges Pixelsignal, das durch Auslesen von dem fotoelektrischen Umwandlungselement erhalten wird, in ein digitales Signal um und gibt das digitale Signal aus.
  • Der Horizontalansteuerungsschaltkreis 14 beinhaltet ein Schieberegister, einen Adressendecodierer und dergleichen und wählt sequentiell einen Ausleseschaltkreis (nachfolgend als ein Pixelschaltkreis bezeichnet) aus, der einer Pixelspalte des Spaltenverarbeitungsschaltkreises 13 entspricht. Durch den selektiven Scan, der durch den Horizontalansteuerungsschaltkreis 14 durchgeführt wird, werden Pixelsignale, die einer Signalverarbeitung für jeden Pixelschaltkreis in dem Spaltenverarbeitungsschaltkreis 13 unterzogen werden, sequentiell ausgegeben.
  • Die Systemsteuereinheit 15 beinhaltet einen Timinggenerator, der verschiedene Timingsignale und dergleichen erzeugt, und führt eine Ansteuerungssteuerung des Vertikalansteuerungsschaltkreises 12, des Spaltenverarbeitungsschaltkreises 13, des Horizontalansteuerungsschaltkreises 14 und dergleichen basierend auf verschiedenen Timings durch, die durch den Timinggenerator erzeugt werden.
  • Die Signalverarbeitungseinheit 18 weist wenigstens eine arithmetische Verarbeitungsfunktion auf und führt eine vielfältige Signalverarbeitung, wie etwa eine arithmetische Verarbeitung, an dem Pixelsignal durch, das von dem Spaltenverarbeitungsschaltkreis 13 ausgegeben wird. Die Datenspeicherungseinheit 19 speichert temporär Daten, die für Prozesse bei einer Signalverarbeitung in der Signalverarbeitungseinheit 18 erforderlich sind.
  • Es wird angemerkt, dass das Ausgabebild, das von der Signalverarbeitungseinheit 18 ausgegeben wird, einer vorbestimmten Verarbeitung in einem Anwendungsprozessor oder dergleichen in der elektronischen Vorrichtung unterzogen werden kann, die mit dem CMOS-Bildsensor 10 ausgestattet ist, oder zum Beispiel über ein vorbestimmtes Netz an eine externe Vorrichtung übertragen werden kann.
  • (1-3. Einheitspixel)
  • Als Nächstes wird das zuvor beschriebene Einheitspixel spezieller beschrieben.
  • (1-3-1. Schaltkreiskonfigurationsbeispiel)
  • 3 ist ein Schaltbild, das ein schematisches Konfigurationsbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist. Wie in 3 veranschaulicht, beinhaltet ein Einheitspixel 100 zwei fotoelektrische Umwandlungselemente, nämlich ein erstes fotoelektrisches Umwandlungselement 101 und ein zweites fotoelektrisches Umwandlungselement 102. Um das erste fotoelektrische Umwandlungselement 101 und das zweite fotoelektrische Umwandlungselement 102 anzusteuern, beinhaltet des Weiteren das Einheitspixel 100 einen ersten Transfertransistor 103, einen zweiten Transfertransistor 104, einen dritten Transfertransistor 105, einen vierten Transfertransistor 106, einen Floating-Diffusion(FD)-Teil 107, einen Rücksetztransistor 108, einen Verstärkungstransistor 109 und einen Auswahltransistor 110.
  • Das Pixel, das mit dem zweiten fotoelektrischen Umwandlungselement 102 gebildet ist, das in dem Einheitspixel 100 enthalten ist, das auf jede Ausführungsform anwendbar ist, ist als ein Pixel vom FD-Akkumulationstyp konfiguriert, das ein Signal gemäß der Ladung liest, die durch das zweite fotoelektrische Umwandlungselement 102 durch Akkumulieren der erzeugten Ladung in einem Knoten 113 erzeugt wird, der eine nachfolgend zu beschreibende Floating-Diffusion-Schicht ist.
  • Der erste Transfertransistor 103, der zweite Transfertransistor 104, der dritte Transfertransistor 105, der vierte Transfertransistor 106, der Rücksetztransistor 108, der Verstärkungstransistor 109 und der Auswahltransistor 110 sind zum Beispiel mit einem n-Typ-MOS-Transistor (nachfolgend als ein NMOS-Transistor bezeichnet) gebildet.
  • In der folgenden Beschreibung werden der erste Transfertransistor 103, der zweite Transfertransistor 104, der dritte Transfertransistor 105, der vierte Transfertransistor 106, der Rücksetztransistor 108, der Verstärkungstransistor 109 und der Auswahltransistor 110 auch einfach als Pixeltransistoren bezeichnet.
  • Der Rücksetztransistor 108 und der Verstärkungstransistor 109 sind mit einer Leistungsversorgung VDD verbunden. Das erste fotoelektrische Umwandlungselement 101 beinhaltet eine Vorrichtung, die als eine eingebettete Fotodiode bezeichnet wird, in der ein n-Typ-Fremdstoffgebiet innerhalb eines p-Typ-Fremdstoffgebiets gebildet ist, das in einem Siliciumhalbleitersubstrat gebildet ist. Gleichermaßen beinhaltet das zweite fotoelektrische Umwandlungselement 102 eine eingebettete Fotodiode. Das erste fotoelektrische Umwandlungselement 101 und das zweite fotoelektrische Umwandlungselement 102 erzeugen Ladungen, die der Menge an empfangenem Licht entsprechen, und akkumulieren die erzeugten Ladungen bis zu einer gewissen Menge.
  • Des Weiteren beinhaltet das Einheitspixel 100 ferner einen Ladungsakkumulationsteil 111. Der Ladungsakkumulationsteil 111 ist zum Beispiel eine MetallOxid-Halbleiter(MOS)-Kapazität oder eine Metall-Isolator-Halbleiter(MIS)-Kapazität.
  • In 3 sind der erste Transfertransistor 103, der zweite Transfertransistor 104, der dritte Transfertransistor 105 und der vierte Transfertransistor 106 zwischen dem ersten fotoelektrischen Umwandlungselement 101 und dem zweiten fotoelektrischen Umwandlungselement 102 in Reihe verbunden. Die Floating-Diffusion-Schicht, die zwischen dem ersten Transfertransistor 103 und dem zweiten Transfertransistor 104 verbunden ist, fungiert als der FD-Teil 107. Der FD-Teil 107 beinhaltet eine parasitäre Kapazität C10.
  • Die Floating-Diffusion-Schicht, die zwischen dem zweiten Transfertransistor 104 und dem dritten Transfertransistor 105 verbunden ist, fungiert als ein Knoten 112. Der Knoten 112 beinhaltet eine parasitäre Kapazität C11. Die Floating-Diffusion-Schicht, die zwischen dem dritten Transfertransistor 105 und dem vierten Transfertransistor 106 verbunden ist, fungiert als ein Knoten 113. Der Ladungsakkumulationsteil 111 ist mit dem Knoten 113 verbunden.
  • Das in 3 exemplarisch gezeigte Einheitspixel 100 ist mit mehreren Ansteuerungsleitungen auf einer Pixelzeilenbasis verbunden, wie zum Beispiel der in 2 beschriebenen Pixelansteuerungsleitung LD. Durch die mehreren Ansteuerungsleitungen werden verschiedene Ansteuerungssignale TRG, FDG, FCG, TGS, RST und SEL von dem Vertikalansteuerungsschaltkreis 12 bereitgestellt. Die Ansteuerungssignale TRG, FDG, FCG, TGS, RST und SEL können jeweils zum Beispiel ein Pulssignal sein, in dem ein High-Pegel(zum Beispiel die Leistungsversorgungsspannung VDD)-Zustand als ein aktiver Zustand bestimmt wird und ein Low-Pegel-Zustand (zum Beispiel ein Massepotential oder ein negatives Potential) als ein inaktiver Zustand bestimmt wird, oder ein Signal, das jeden Pegelzustand für eine vorbestimmte Zeit beibehält.
  • Das Ansteuerungssignal TRG wird an die Gate-Elektrode des ersten Transfertransistors 103 angelegt. Wenn das Ansteuerungssignal TRG aktiv ist, wird der erste Transfertransistor 103 leitfähig und wird die in dem ersten fotoelektrischen Umwandlungselement 101 akkumulierte Ladung über den ersten Transfertransistor 103 an den FD-Teil 107 transferiert.
  • Das Ansteuerungssignal FDG wird an die Gate-Elektrode des zweiten Transfertransistors 104 angelegt. Der Zustand, in dem das Ansteuerungssignal FDG aktiv ist und der zweite Transfertransistor 104 leitfähig ist, ermöglicht, dass die Potentiale des FD-Teils 107 und des Knotens 112 miteinander gekoppelt werden, um ein Ladungsakkumulationsgebiet zu bilden.
  • Das Ansteuerungssignal FCG wird an die Gate-Elektrode des dritten Transfertransistors 105 angelegt. Der Zustand, in dem das Ansteuerungssignal FDG und das Ansteuerungssignal FCG aktiv sind und der zweite Transfertransistor 104 und der dritte Transfertransistor 105 leitfähig sind, ermöglicht, dass die Potentiale von dem FD-Teil 107 zu dem Ladungsakkumulationsteil 111 miteinander gekoppelt werden, um ein Ladungsakkumulationsgebiet zu bilden.
  • Das Ansteuerungssignal TGS wird an die Gate-Elektrode des vierten Transfertransistors 106 angelegt. Wenn das Ansteuerungssignal TGS aktiv ist, wird der vierte Transfertransistor 106 leitfähig und wird die in dem zweiten fotoelektrischen Umwandlungselement 102 akkumulierte Ladung über den vierten Transfertransistor 106 an den Ladungsakkumulationsteil 111 transferiert. Der Zustand, in dem der vierte Transfertransistor 106, der dritte Transfertransistor 105 und der zweite Transfertransistor 104 aktiv sind, ermöglicht, dass die Potentiale von dem Ladungsakkumulationsteil 111 zu dem FD-Teil 107 miteinander gekoppelt werden, und dann wird die in dem zweiten fotoelektrischen Umwandlungselement 102 akkumulierte Ladung zu dem gekoppelten Ladungsakkumulationsgebiet transferiert.
  • Des Weiteren weist das Kanalgebiet unter der Gate-Elektrode des vierten Transfertransistors 106 zum Beispiel das Potential auf, das im Vergleich zu dem Kanalgebiet unter der Gate-Elektrode des ersten Transfertransistors 103, des zweiten Transfertransistors 104 oder des dritten Transfertransistors 105 geringfügig in einer positiven Richtung verschoben ist (mit anderen Worten ist das Potential geringfügig tiefer), und dies bildet einen Überflusspfad für Ladungen. Wenn die fotoelektrische Umwandlung in dem zweiten fotoelektrischen Umwandlungselement 102 zur Erzeugung einer Ladung geführt hat, die die Sättigungsladungsmenge des zweiten fotoelektrischen Umwandlungselements 102 überschreitet, fließt die Ladung, die die Sättigungsladungsmenge überschreitet, von dem zweiten fotoelektrischen Umwandlungselement 102 über den Überflusspfad zu dem Ladungsakkumulationsteil 111 über (fließt heraus). Die übergeflossene Ladung wird in dem Ladungsakkumulationsteil 111 akkumuliert.
  • In der folgenden Beschreibung wird der Überflusspfad, der in dem Kanalgebiet unterhalb der Gate-Elektrode des vierten Transfertransistors 106 gebildet wird, einfach als ein Überflusspfad des vierten Transfertransistors 106 bezeichnet.
  • In 3 ist von den zwei Elektroden, die in dem Ladungsakkumulationsteil 111 enthalten sind, eine erste Elektrode eine Knotenelektrode, die mit dem Knoten 113 zwischen dem dritten Transfertransistor 105 und dem vierten Transfertransistor 106 verbunden ist. Eine zweite Elektrode der zwei Elektroden, die in dem Ladungsakkumulationsteil 111 enthalten sind, ist eine masseverbundene Elektrode.
  • Als eine Modifikation kann die zweite Elektrode mit einem speziellen Potential außer dem Massepotential, zum Beispiel einem Leistungsversorgungspotential, verbunden sein.
  • Falls der Ladungsakkumulationsteil 111 die MOS-Kapazität oder die MIS-Kapazität ist, ist die zweite Elektrode beispielsweise ein Fremdstoffgebiet, das auf dem Siliciumsubstrat gebildet ist, und ist der dielektrische Film, der die Kapazität bildet, ein Oxidfilm oder ein Nitridfilm, der auf dem Siliciumsubstrat gebildet ist. Die erste Elektrode ist eine Elektrode, die aus einem leitfähigen Material, zum Beispiel Polysilicium oder Metall, oberhalb der zweiten Elektrode und des dielektrischen Films gebildet ist.
  • Wenn die zweite Elektrode auf das Massepotential gesetzt ist, kann die zweite Elektrode ein p-Typ-Fremdstoffgebiet sein, das elektrisch mit dem p-Typ-Fremdstoffgebiet verbunden ist, das in dem ersten fotoelektrischen Umwandlungselement 101 oder dem zweiten fotoelektrischen Umwandlungselement 102 bereitgestellt ist. Wenn die zweite Elektrode auf ein spezielles Potential außer dem Massepotential eingestellt ist, kann die zweite Elektrode ein n-Typ-Fremdstoffgebiet sein, das in dem p-Typ-Fremdstoffgebiet gebildet ist.
  • Der Knoten 112 ist auch mit dem Rücksetztransistor 108 sowie mit dem zweiten Transfertransistor 104 verbunden. Der Rücksetztransistor ist ferner mit einem speziellen Potential, zum Beispiel einer Leistungsversorgung VDD, verbunden. Ein Ansteuerungssignal RST wird an die Gate-Elektrode des Rücksetztransistors 108 angelegt. Wenn das Ansteuerungssignal RST aktiv ist, wird der Rücksetztransistor 108 leitfähig und wird das Potential des Knotens 112 auf den Pegel der Spannung VDD zurückgesetzt.
  • Wenn das Ansteuerungssignal FDG des zweiten Transfertransistors 104 und das Ansteuerungssignal FCG des dritten Transfertransistors 105 auch bei Aktivierung des Ansteuerungssignals RST aktiviert werden, werden die Potentiale des Knotens 112, des FD-Teils 107 und des Ladungsakkumulationsteils 111 mit gekoppelten Potentialen auf den Pegel der Spannung VDD zurückgesetzt.
  • Durch individuelles Steuern des Ansteuerungssignals FDG und des Ansteuerungssignals FCG können die Potentiale des FD-Teils 107 und des Ladungsakkumulationsteils 111 individuell (unabhängig) auf den Pegel der Spannung VDD zurückgesetzt werden.
  • Der FD-Teil 107, der eine Floating-Diffusion-Schicht ist, weist eine Funktion zum Umwandeln einer Ladung in eine Spannung auf. Das heißt, wenn die Ladung zu dem FD-Teil 107 transferiert wird, ändert sich das Potential des FD-Teils 107 gemäß der Menge der transferierten Ladung.
  • Der Verstärkungstransistor 109 weist auf seiner Source-Seite eine Verbindung zu einer Stromquelle 131 auf, die mit einem Ende der Vertikalsignalleitung VSL verbunden ist, während er auf seiner Drain-Seite mit einer Leistungsversorgung VDD verbunden ist, so dass zusammen mit diesen ein Source-Folger-Schaltkreis gebildet wird. Der FD-Teil 107 ist mit der Gate-Elektrode des Verstärkungstransistors 109 verbunden und dies dient als ein Eingang des Source-Folger-Schaltkreises.
  • Der Auswahltransistor 110 ist zwischen der Source des Verstärkungstransistors 109 und der Vertikalsignalleitung VSL verbunden. Ein Ansteuerungssignal SEL wird an eine Gate-Elektrode des Auswahltransistors 110 angelegt. Wenn das Ansteuerungssignal SEL aktiv ist, wird der Auswahltransistor 110 leitfähig, wobei das Einheitspixel 100 zu einem ausgewählten Zustand verschoben wird.
  • Wenn die Ladungen zu dem FD-Teil 107 transferiert werden, wird das Potential des FD-Teils 107 ein Potential, das der Menge an transferierten Ladungen entspricht, und das Potential wird in den Source-Folger-Schaltkreis eingegeben. Wenn das Ansteuerungssignal SEL aktiv ist, wird das Potential des FD-Teils 107, das der Menge an elektrischer Ladung entspricht, über den Auswahltransistor 110 als die Ausgabe des Source-Folger-Schaltkreises an die Vertikalsignalleitung VSL ausgegeben.
  • Die Lichtempfangsoberfläche des ersten fotoelektrischen Umwandlungselements 101 ist breiter als jene des zweiten fotoelektrischen Umwandlungselements 102. Das heißt, dass bei jeder Ausführungsform das erste fotoelektrische Umwandlungselement 101 eine große Fläche aufweist und das zweite fotoelektrische Umwandlungselement 102 eine kleine Fläche aufweist. In diesem Fall ist, wenn eine Bildgebung unter der Bedingung der gleichen Beleuchtungsstärke und der gleichen Belichtungszeit durchgeführt wird, die in dem ersten fotoelektrischen Umwandlungselement 101 erzeugte Ladung größer als die in dem zweiten fotoelektrischen Umwandlungselement 102 erzeugte Ladung. Daher ist die Spannungsänderung vor und nach dem Transfer der durch das erste fotoelektrische Umwandlungselement 101 erzeugten Ladung an den FD-Teil 107 größer als die Spannungsänderung vor und nach dem Transfer der durch das zweite fotoelektrische Umwandlungselement 102 erzeugten Ladung an den FD-Teil 107. Dies gibt an, dass das erste fotoelektrische Umwandlungselement 101 eine im Vergleich zwischen dem ersten fotoelektrischen Umwandlungselement 101 und dem zweiten fotoelektrischen Umwandlungselement 102 höhere Empfindlichkeit als das zweite fotoelektrische Umwandlungselement 102 hat.
  • Andererseits kann, selbst wenn Licht mit hoher Beleuchtungsstärke einfällt und eine Ladung erzeugt wird, die die Sättigungsladungsmenge des zweiten fotoelektrischen Umwandlungselements 102 überschreitet, das zweite fotoelektrische Umwandlungselement 102 die erzeugte Ladung, die die Sättigungsladungsmenge überschreitet, in dem Ladungsakkumulationsteil 111 akkumulieren. Daher kann, wenn eine Ladung-Spannung-Umwandlung an der in dem zweiten fotoelektrischen Umwandlungselement 102 erzeugten Ladung durchgeführt wird, die Ladung-Spannung-Umwandlung nach dem Addieren sowohl der in dem zweiten fotoelektrischen Umwandlungselement 102 akkumulierten Ladung als auch der in dem Ladungsakkumulationsteil 111 akkumulierten Ladung durchgeführt werden.
  • Mit dieser Konfiguration kann das zweite fotoelektrische Umwandlungselement 102 im Vergleich zu dem ersten fotoelektrischen Umwandlungselement 101 ein Bild mit einer Abstufung über einen breiteren Beleuchtungsstärkenbereich erfassen, mit anderen Worten ein Bild mit einem breiteren Dynamikumfang erfassen.
  • Zwei Bilder, nämlich ein Bild mit hoher Empfindlichkeit, das durch Verwenden des ersten fotoelektrischen Umwandlungselements 101 erfasst wird, und ein Bild mit einem breiten Dynamikumfang, das durch Verwenden des zweiten fotoelektrischen Umwandlungselements 102 erfasst wird, werden durch eine Breiter-Dynamikumfang-Bild-Kombinationsverarbeitung des Kombinierens von zwei Bildern zu einem Bild in zum Beispiel einem Bildsignalverarbeitungsschaltkreis, der in dem CMOS-Bildsensor 10 enthalten ist, oder eine Bildsignalverarbeitungsvorrichtung, die mit dem Äußeren des CMOS-Bildsensors 10 verbunden ist, zu einem Bild kombiniert.
  • (1-3-2. Planarlayoutbeispiel)
  • Als Nächstes wird ein Planarlayoutbeispiel des Einheitspixels 100 beschrieben, das auf jede Ausführungsform anwendbar ist.
  • (1-3-2-1. Planarlayoutbeispiel einer zweiten Oberfläche)
  • 4 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel des Einheitspixels gemäß der vorliegenden Ausführungsform veranschaulicht. 4 veranschaulicht einen Fall, in dem das Einheitspixel 100 eine Vorrichtung ist, die als ein rückwärtig belichteter CMOS-Bildsensor bezeichnet wird.
  • Bei dem rückwärtig belichteten CMOS-Bildsensor 10 beinhaltet das Siliciumsubstrat, auf dem das erste fotoelektrische Umwandlungselement 101 und das zweite fotoelektrische Umwandlungselement 102 gebildet sind, eine erste Oberfläche, die als eine Einfallsoberfläche von Licht zu der Fotodiode dient, und eine zweite Oberfläche, die der ersten Oberfläche zugewandt ist. 4 veranschaulicht ein Planarlayout der zweiten Oberfläche des Siliciumsubstrats, in Bezug auf das Einheitspixel 100, was ein Planarlayout eines aktiven Gebiets, eines fotoelektrischen Umwandlungselements, eines Pixeltransistors, eines Ladungsakkumulationsteils, in Bezug auf das Einheitspixel 100, sowie Verdrahtungsleitungen, die diese Komponenten verbinden, ist.
  • Wie in 4 veranschaulicht, sind das erste fotoelektrische Umwandlungselement 101, der erste Transfertransistor 103, der FD-Teil 107, der zweite Transfertransistor 104, ein Teil des Knotens 112, der Rücksetztransistor 108 und ein Verbindungsteil zu der Leistungsversorgung VDD auf einem kontinuierlichen ersten aktiven Gebiet gebildet.
  • Andererseits sind das zweite fotoelektrische Umwandlungselement 102, der vierte Transfertransistor 106, der Knoten 113, der dritte Transfertransistor 105 und ein anderer Teil des Knotens 112 auf einem kontinuierlichen zweiten aktiven Gebiet gebildet, das von dem ersten aktiven Gebiet verschieden ist.
  • Außerdem sind der Verbindungsteil zu der Vertikalsignalleitung VSL, der Auswahltransistor 110, der Verstärkungstransistor 109 und der Verbindungsteil zu der Leistungsversorgung VDD auf einem kontinuierlichen dritten aktiven Gebiet gebildet, das von dem ersten und zweiten aktiven Gebiet verschieden ist.
  • Des Weiteren ist der Ladungsakkumulationsteil 111 auf einem vierten aktiven Gebiet (nicht veranschaulicht) gebildet, das von dem ersten bis dritten aktiven Gebiet verschieden ist. Aufgrund der Konfiguration des vierten aktiven Gebiets, in dem das Fremdstoffgebiet, das die untere Elektrode des Ladungsakkumulationsteils 111 werden soll, gebildet ist, ist ein dielektrischer Film auf dem vierten aktiven Gebiet angeordnet und ist ferner eine obere Elektrode auf dem dielektrischen Film angeordnet, wobei 4 nur die obere Elektrode veranschaulicht. Das vierte aktive Gebiet, in dem die untere Elektrode gebildet ist, ist unterhalb der oberen Elektrode angeordnet.
  • In 4 sind der FD-Teil 107 und die Gate-Elektrode des Verstärkungstransistors 109 durch eine Verdrahtung miteinander verbunden, die oberhalb der Gate-Elektrode angeordnet ist. Ein Teil des Knotens 112, der in dem ersten aktiven Gebiet gebildet ist, und ein anderer Teil des Knotens 112, der in dem zweiten aktiven Gebiet gebildet ist, sind durch eine Verdrahtung, die oberhalb jeder Gate-Elektrode angeordnet ist, ebenfalls miteinander verbunden. Des Weiteren sind der Knoten 113 und die obere Elektrode des Ladungsakkumulationsteils 111 durch eine Verdrahtung, die oberhalb jeder Gate-Elektrode und der oberen Elektrode des Ladungsakkumulationsteils 111 angeordnet sind ebenfalls miteinander verbunden.
  • Es wird angemerkt, dass ein Gebiet, dass durch eine gestrichelte Linie in 4 umgeben ist, einem Gebiet des Einheitspixels 100 entspricht, das in 3 veranschaulicht ist. Durch Anordnen der Einheitspixel 100 in einem zweidimensionalen gitterartigen Muster (Matrixmuster) sind entsprechend die ersten fotoelektrischen Umwandlungselemente 101 in einem zweidimensionalen gitterartigen Muster anzuordnen. Die zweiten fotoelektrischen Umwandlungselemente 102 sind zwischen den ersten fotoelektrischen Umwandlungselementen 101 angeordnet, so dass sie in einem zweidimensionalen gitterartigen Muster angeordnet sind.
  • (1-3-2-2. Planarlayout einer ersten Oberfläche und zweiten Oberfläche)
  • 5 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel des Einheitspixels gemäß der vorliegenden Ausführungsform veranschaulicht, und ist ein schematisches Diagramm, in dem ein Planarlayout auf der zweiten Oberfläche des Siliciumsubstrats und ein Planarlayout auf der ersten Oberfläche überlagert sind. Das heißt, dass 5 ein Planarlayout der fotoelektrischen Umwandlungselemente und von On-Chip-Linsen, die auf der ersten Oberfläche gebildet sind, zusätzlich zu dem Planarlayout der zweiten Oberfläche veranschaulicht, das in 4 veranschaulicht ist. Es wird angemerkt, dass ein Gebiet, dass durch eine gestrichelte Linie in 5 umgeben ist, einem Gebiet des Einheitspixels 100 entspricht, das in 3 veranschaulicht ist.
  • Wie in 5 veranschaulicht, befinden sich das erste fotoelektrische Umwandlungselement 101 und das zweite fotoelektrische Umwandlungselement 102 in einem gleichen Gebiet auf der zweiten Oberfläche und der ersten Oberfläche.
  • Eine erste On-Chip-Linse 151, die Licht sammelt, das auf das erste fotoelektrische Umwandlungselement 101 einfallen soll, ist so angeordnet, dass sie das erste fotoelektrische Umwandlungselement 101 bedeckt. Gleichermaßen ist eine zweite On-Chip-Linse 152, die Licht sammelt, das auf das zweite fotoelektrische Umwandlungselement 102 einfallen soll, so angeordnet, dass sie das zweite fotoelektrische Umwandlungselement 102 bedeckt.
  • Die Größe der ersten On-Chip-Linse 151 und der zweiten On-Chip-Linse 152 kann in Abhängigkeit von Faktoren bei einer Pixelgestaltung, zum Beispiel des Bereichs von zu sammelndem und auf das fotoelektrische Umwandlungselement auf der ersten Oberfläche einfallenden Licht, der Größe des fotoelektrischen Umwandlungselements, des Pixeltransistors und des Ladungsakkumulationsteils auf der zweiten Oberfläche und der resultierenden Größe eines Pixels oder des Pixelrastermaßes, falls die Pixel in einem Array angeordnet sind, geeignet eingestellt werden.
  • Zum Beispiel würde eine übermäßig große On-Chip-Linse Nachteile verursachen, wie etwa eine Abnahme der Auflösung der Bildgebungsvorrichtung und Auftreten eines nutzlosen Gebiets, in dem die Komponenten des Einheitspixels nicht auf der zweiten Oberfläche angeordnet sind. Andererseits würde eine übermäßig kleine On-Chip-Linse einen Nachteil, wie etwa eine Reduzierung von Licht, das auf das fotoelektrische Umwandlungselement einfällt, und eine resultierende Abnahme der Empfindlichkeit, verursachen. Daher sollen die Größe der On-Chip-Linse auf der ersten Oberfläche und die Größe jeder Komponente des Einheitspixels auf der zweiten Oberflächen bevorzugt geeignet gestaltet werden, während Empfindlichkeit und Auflösung neu ausgeglichen werden.
  • 5 veranschaulicht einen beispielhaften Fall, in dem als ein Ergebnis einer Pixelgestaltung der Durchmesser der ersten On-Chip-Linse 151 gleich dem Pixelrastermaß gemacht wird, die ersten On-Chip-Linsen 151 in einem zweidimensionalen gitterartigen Muster in der vertikalen und horizontalen Richtung angeordnet werden und der Durchmesser der zweiten On-Chip-Linse 152 derart gestaltet wird, dass die zweite On-Chip-Linse 152 in das Gebiet der Lücke zwischen den ersten On-Chip-Linsen 151 passt.
  • In diesem Fall gibt es Beziehungen zwischen einer Entfernung ab von einem Zentrum a der ersten On-Chip-Linse 151, die in einem gewissen ersten Pixel enthalten ist, zu einem Zentrum b der ersten On-Chip-Linse 151, die in einem zweiten Pixel angrenzend an das erste Pixel enthalten ist, einer Entfernung ac von dem Zentrum a der ersten On-Chip-Linse 151, die in dem ersten Pixel enthalten ist, zu einem Zentrum c der zweiten On-Chip-Linse 152, die in dem dritten Pixel enthalten ist, einer Entfernung bc von einem Zentrum b der ersten On-Chip-Linse 151, die in dem zweiten Pixel enthalten ist, zu dem Zentrum c der zweiten On-Chip-Linse 152, die in dem dritten Pixel enthalten ist, einem Radius r1 der ersten On-Chip-Linse 151, die in jedem Pixel enthalten ist, und einem Radius r2 der zweiten On-Chip-Linse 152, die in jedem Pixel enthalten ist, wobei die Beziehungen durch die folgenden Formeln (1) bis (3) repräsentiert werden. Entfernung a b = r 1 × 2
    Figure DE112020006147T5_0001
    Entfernung a c = Entfernung b c = Entfernung a b × 2 / 2
    Figure DE112020006147T5_0002
    r 2 r 1 × ( 2 1 )
    Figure DE112020006147T5_0003
  • Gemäß Formel (1) ist die Entfernung ab zweimal der Radius r1 der ersten On-Chip-Linse 151 und ist die Entfernung ab äquivalent zu dem Durchmesser der ersten On-Chip-Linse 151. Außerdem sind gemäß der Formel (2) die Entfernung ac und die Entfernung bc die gleiche Entfernung und werden ein Wert, der durch Dividieren eines Wertes, der durch Multiplizieren der Entfernung ab mit √2 erhalten wird, durch 2 berechnet wird. Das heißt, dass die Entfernung ac (Entfernung bc) ein Wert ist, der durch Multiplizieren des Radius r1 der ersten On-Chip-Linse 151 mit √2 erhalten wird. Gemäß Formel (3) kann der Radius r2 der zweiten On-Chip-Linse 152 aus den Formeln (1) und (2) hergeleitet werden und ist gleich oder kleiner als ein Wert, der durch Multiplizieren des Radius r1 mit einem Wert, der durch Subtrahieren von 1 von √2 erhalten wird, berechnet werden.
  • 6 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist, und ist ein Diagramm, das durch Extrahieren von Planarlayouts des ersten fotoelektrischen Umwandlungselements 101, des zweiten fotoelektrischen Umwandlungselements 102, der ersten On-Chip-Linse 151 und der zweiten On-Chip-Linse 152 auf der ersten Oberfläche aus 5 erhalten wird. Es wird angemerkt, dass ein Gebiet, dass durch eine gestrichelte Linie in 6 umgeben ist, einem Gebiet des Einheitspixels 100 entspricht, das in 3 veranschaulicht ist.
  • Ähnlich zu 5 veranschaulicht 6 einen beispielhaften Fall, in dem als ein Ergebnis einer Pixelgestaltung der Durchmesser der ersten On-Chip-Linse 151 gleich dem Pixelrastermaß gemacht wird, die ersten On-Chip-Linsen 151 in einem zweidimensionalen gitterartigen Muster in der vertikalen und horizontalen Richtung angeordnet werden und der Durchmesser der zweiten On-Chip-Linse 152 derart gestaltet wird, dass die zweite On-Chip-Linse 152 in das Gebiet der Lücke zwischen den ersten On-Chip-Linsen 151 passt.
  • 7 ist ein schematisches Diagramm, das ein Planarlayoutbeispiel eines Einheitspixels veranschaulicht, das auf jede Ausführungsform anwendbar ist, und ist ein Diagramm, das durch Extrahieren eines Planarlayouts einschließlich Teilen zwischen Pixeln auf der ersten Oberfläche des Einheitspixels 100 zusätzlich zu dem ersten fotoelektrischen Umwandlungselement 101, dem zweiten fotoelektrischen Umwandlungselement 102, der ersten On-Chip-Linse 151 und der zweiten On-Chip-Linse 152 auf der ersten Oberfläche, die in 6 veranschaulicht sind, erhalten wird.
  • Wie in 7 veranschaulicht, ist ein Zwischenpixellichtabschirmungsteil 181 bereitgestellt, um zu verhindern, dass Licht in angrenzende Pixel leckt. In einem Teil, in dem die erste On-Chip-Linse 151 eines gewissen Pixels und die erste On-Chip-Linse 151 eines Pixels angrenzend an das gewisse Pixel am nächsten zueinander sind, sind die Zwischenpixellichtabschirmungsteile 181 mit der gleichen Breite in der Einwärtsrichtung dieser zwei On-Chip-Linsen angeordnet.
  • Des Weiteren sind in einem Teil, in dem die erste On-Chip-Linse 151 und die zweite On-Chip-Linse 152 am nächsten zueinander sind, die Zwischenpixellichtabschirmungsteile 181 mit der gleichen Breite in der Einwärtsrichtung dieser zwei On-Chip-Linsen angeordnet.
  • (1-3-2-3. Planarlayout eines Farbfilters)
  • 8 ist eine Draufsicht, die ein Planarlayoutbeispiel eines Farbfilterarrays veranschaulicht, das auf jede Ausführungsform anwendbar ist, und ist ein Diagramm, das durch Extrahieren des Planarlayouts erster Farbfilter 121R, 121G1, 121G2 und 121B und zweiter Farbfilter 122R, 122G1 bis 122G3, 122B1 und 122B2, die in jedem Pixel auf der ersten Oberfläche des Einheitspixels 100 bereitgestellt sind, zusätzlich zu den Planarlayouts des ersten fotoelektrischen Umwandlungselements 101, des zweiten fotoelektrischen Umwandlungselements 102, der ersten On-Chip-Linse 151, der zweiten On-Chip-Linse 152 und des Zwischenpixellichtabschirmungsteils 181 auf der ersten Oberfläche, die in 7 veranschaulicht sind, erhalten wird. In der folgenden Beschreibung wird, wenn das erste Farbfilter nicht voneinander unterschieden wird, die Bezugsziffer 121 gegeben. Gleichermaßen wird, wenn das zweite Farbfilter nicht voneinander unterschieden wird, die Bezugsziffer 122 gegeben.
  • Das erste Farbfilter 121 ist ein Farbfilter, das für das erste fotoelektrische Umwandlungselement 101 bereitgestellt ist, das ein großes Pixel als ein erstes Pixel darstellt, und ist zum Beispiel zwischen der ersten On-Chip-Linse 151 und dem ersten fotoelektrischen Umwandlungselement 101 in jedem Pixel angeordnet.
  • Das zweite Farbfilter 122 ist ein Farbfilter, das für das zweite fotoelektrische Umwandlungselement 102 bereitgestellt ist, das ein kleines Pixel als das zweite Pixel darstellt, und ist zum Beispiel zwischen der zweiten On-Chip-Linse und dem zweiten fotoelektrischen Umwandlungselement 102 in jedem Pixel angeordnet.
  • Wie aus 4 bis 8 und den Größen der ersten On-Chip-Linse 151 und der On-Chip-Linse 152 basierend auf den zuvor beschriebenen Formeln (1) bis (3) zu sehen ist, ist die Fläche der Lichtempfangsoberfläche des großen Pixels größer als die Fläche der Lichtempfangsoberfläche des kleinen Pixels.
  • Hier wird das Planarlayout des Farbfilters für das große Pixel beschrieben. Wie in 8 veranschaulicht, sind die ersten Farbfilter 121 für die großen Pixel in einem Array auf der ersten Oberfläche zum Beispiel gemäß der Regel des Bayer-Arrays angeordnet. Daher sind, in insgesamt vier großen Pixeln von 2 × 2 Pixel als eine Wiederholungseinheit des Bayer-Arrays, die zwei ersten Farbfilter 121G1 und 121G2, die die Wellenlängenkomponente von Grün (G) transmittieren, diagonal angeordnet, während das erste Farbfilter 121B, das die Wellenlängenkomponente von Blau (B) transmittiert, und das erste Farbfilter 121R, das die Wellenlängenkomponente von Rot (R) transmittiert, diagonal angeordnet sind, so dass sie die zwei ersten Farbfilter schneiden.
  • Das Planarlayout des Farbfilters für das große Pixel kann andere Arten von Arrays sein, die nicht auf das Bayer-Array beschränkt sind.
  • Im Grunde beinhaltet, ähnlich dem ersten Farbfilter 121, das für ein großes Pixel bereitgestellt ist, das zweite Farbfilter 122, das für ein kleines Pixel bereitgestellt ist, eine Kombination aus Farbfiltern, die zum Beispiel die gleichen Wellenlängenkomponenten wie jene des Bayer-Arrays und anderer Farbfilterarrays transmittieren. Falls zum Beispiel das Bayer-Array auf die zweiten Farbfilter 122 angewandt wird, beinhaltet die Wiederholungeinheit des Arrays zwei zweite Farbfilter 122G1 und 122G2, die die grüne (G) Wellenlängenkomponente transmittieren, ein zweites Farbfilter 122R, das die rote (R) Wellenlängenkomponente transmittiert, und ein zweites Farbfilter 122B, das die blaue (B) Wellenlängenkomponente transmittiert.
  • (1-3-3. Strukturbeispiel)
  • Als Nächstes wird ein Strukturbeispiel eines Einheitspixels beschrieben, das auf jede Ausführungsform anwendbar ist. 9 ist ein schematisches Diagramm eines Querschnitts in Bezug auf das Einheitspixel 100 und veranschaulicht wiederholt schematisch einen Teil, in dem die erste On-Chip-Linse 151 und die zweite On-Chip-Linse 152 am nächsten zueinander in einem Pixel sind, und einen Teil, in dem die zweite On-Chip-Linse 152 eines gewissen Pixels und die erste On-Chip-Linse 151 eines Pixels angrenzend daran am nächsten zueinander in zwei angrenzenden Pixeln sind.
  • In 9 beinhaltet jedes Einheitspixel fotoelektrische Umwandlungseinheiten (erste fotoelektrischen Umwandlungseinheiten 101-11, 101-12 und 101-13) des ersten fotoelektrischen Umwandlungselements 101, fotoelektrische Umwandlungseinheiten (zweite fotoelektrische Umwandlungseinheiten 102-11, 102-12 und 102-13) des zweiten fotoelektrischen Umwandlungselements 102, erste On-Chip-Linsen 151-11, 151-12 und 151-13 und zweite On-Chip-Linsen 152-11, 152-12 und 152-13, die jeweils auf diesen fotoelektrischen Umwandlungseinheiten angeordnet sind, Farbfilter 201-11, 201-12 und 201-13, die zwischen der fotoelektrischen Umwandlungseinheit und der On-Chip-Linse angeordnet sind, einen Film mit einer negativen festen Ladung (Film, der als Pinning-Film 231 bezeichnet wird), der zwischen der fotoelektrischen Umwandlungseinheit und den Farbfiltern angeordnet ist, einen Zwischenschichtisolationsfilm 232 und Zwischenpixellichtabschirmungsteile 181-1, 181-2, 181-3, 181-4, 181-5, 181-6 und 181-7, die um die ersten fotoelektrischen Umwandlungseinheiten 101-11, 101-12 und 101-13 und die zweiten fotoelektrischen Umwandlungseinheiten 102-11, 102-12 und 102-13 herum angeordnet sind.
  • 9 veranschaulicht ein Beispiel, bei dem das R-Pixel, das G-Pixel und das B-Pixel von links in der horizontalen Richtung angeordnet sind. Das R-Pixel ist ein Pixel, das mit einem Farbfilter 201-11 versehen ist, das eine rote (R) Wellenlängenkomponente transmittiert. Das G-Pixel ist ein Pixel, das mit einem Farbfilter 201-12 versehen ist, das eine grüne (G) Wellenlängenkomponente transmittiert. Des Weiteren ist das B-Pixel ein Pixel, das mit einem Farbfilter 201-13 versehen ist, das eine blaue (B) Wellenlängenkomponente transmittiert.
  • Zum Beispiel wird eine Beschreibung unter Bezugnahme auf das G-Pixel gegeben, das sich in dem Zentrum befindet. Das G-Pixel beinhaltet einen Stapel einer Verdrahtungsschicht 271, in dem die Verdrahtung 272 auf einem Stützsubstrat 273 angeordnet ist. Auf der Verdrahtungsschicht 271 sind die erste fotoelektrische Umwandlungseinheit 101-12, die eine fotoelektrische Umwandlungseinheit in dem ersten fotoelektrischen Umwandlungselement 101 ist, und die zweite fotoelektrische Umwandlungseinheit 102-12, die eine fotoelektrische Umwandlungseinheit in dem zweiten fotoelektrischen Umwandlungselement 102 ist, gebildet.
  • Sowohl die erste fotoelektrische Umwandlungseinheit 101-12 als auch die zweite fotoelektrische Umwandlungseinheit 102-12 ist eine Fotodiode, die ein p-Wanne-Gebiet 241 und ein darin gebildetes n-Typ-Fremdstoffgebiet beinhaltet. Des Weiteren ist ein p-Typ-Pinning-Gebiet 233-12 zwischen der ersten fotoelektrischen Umwandlungseinheit 101-12 und der Verdrahtungsschicht 271 gebildet, während ein p-Typ-Pinning-Gebiet 235-12 zwischen der zweiten fotoelektrischen Umwandlungseinheit 102-12 und der Verdrahtungsschicht 271 gebildet ist.
  • Zwischen der ersten fotoelektrischen Umwandlungseinheit 101-12 und der zweiten fotoelektrischen Umwandlungseinheit 102-12 ist ein Zwischenpixellichtabschirmungsteil 181-4 bereitgestellt, so dass ein Lecken von Licht von der ersten fotoelektrischen Umwandlungseinheit 101-12 zu der zweiten fotoelektrischen Umwandlungseinheit 102-12 und ein Lecken von Licht von der zweiten fotoelektrischen Umwandlungseinheit 102-12 zu der ersten fotoelektrischen Umwandlungseinheit 101-12 verhindert wird.
  • Des Weiteren ist ein Zwischenpixellichtabschirmungsteil 181-3 bei einem Teil zwischen dem G-Pixel und dem linken angrenzenden Pixel (einem R-Pixel in 9) bereitgestellt, so dass ein Lecken von Licht von dem linken angrenzenden R-Pixel und ein Lecken von Licht zu dem linken angrenzenden R-Pixel verhindert werden.
  • Gleichermaßen ist ein Zwischenpixellichtabschirmungsteil 181-5 bei einem Teil zwischen dem G-Pixel und dem rechten angrenzenden Pixel (einem B-Pixel in 9) bereitgestellt, so dass ein Lecken von Licht von dem rechten angrenzenden B-Pixel und ein Lecken von Licht zu dem rechten angrenzenden B-Pixel verhindert werden.
  • (1-3-4. Operationsbeispiel)
  • Als Nächstes wird ein Operationsbeispiel eines Einheitspixels beschrieben, das auf jede Ausführungsform anwendbar ist.
  • (Operationsbeispiel zur Zeit des Beginnens einer Belichtung)
  • 10 ist ein Zeitverlaufsdiagramm, das ein Operationsbeispiel zu der Zeit des Beginnens einer Belichtung des Einheitspixels veranschaulicht. Zuerst wird ein Operationsbeispiel zur Zeit des Beginnens einer Belichtung des Einheitspixels 100 unter Bezugnahme auf das Zeitverlaufsdiagramm aus 10 und das zuvor beschriebene Schaltbild aus 3 beschrieben. Die Verarbeitung dieser Operation wird zum Beispiel für jede Pixelzeile der Pixelarrayeinheit 11 oder für jede mehrerer Pixelzeilen in einer vorbestimmten Scanreihenfolge durchgeführt. Es wird angemerkt, dass 10 Zeitverlaufsdiagramme eines Horizontalsynchronisationssignals XHS und von Ansteuerungssignalen SEL, RST, FDG, TRG, TGS und FCG veranschaulicht.
  • Zuerst wird zur Zeit t1 das Horizontalsynchronisationssignal eingegeben, um die Belichtungsverarbeitung des Einheitspixels 100 zu beginnen.
  • Als Nächstes werden zur Zeit t2 die Ansteuerungssignale RST und FDG eingeschaltet, um den Rücksetztransistor 108 bzw. den zweiten Transfertransistor 104 einzuschalten. Dies koppelt die Potentiale des FD-Teils 107 und des Knotens 112 miteinander und das Potential des gekoppelten Gebiets wird auf den Pegel der Leistungsversorgungsspannung VDD zurückgesetzt.
  • Als Nächstes wird zur Zeit t3 das Ansteuerungssignal TRG eingeschaltet, um den ersten Transfertransistor 103 einzuschalten. Mit dieser Operation wird die in der fotoelektrischen Umwandlungseinheit des ersten fotoelektrischen Umwandlungselements 101 akkumulierte Ladung über den ersten Transfertransistor 103 zu dem Gebiet transferiert, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind, und die fotoelektrische Umwandlungseinheit des ersten fotoelektrischen Umwandlungselements 101 wird zurückgesetzt.
  • In der folgenden Beschreibung wird die fotoelektrische Umwandlungseinheit des ersten fotoelektrischen Umwandlungselements 101 einfach als das erste fotoelektrische Umwandlungselement 101 bezeichnet, sofern nichts anderes angegeben ist. Gleichermaßen wird die fotoelektrische Umwandlungseinheit des zweiten fotoelektrischen Umwandlungselements 102 einfach als das zweite fotoelektrische Umwandlungselement 102 bezeichnet.
  • Als Nächstes wird zur Zeit t4 das Ansteuerungssignal TRG ausgeschaltet, um den ersten Transfertransistor 103 auszuschalten. Dies beginnt eine Akkumulation von Ladungen in dem ersten fotoelektrischen Umwandlungselement 101, um die Belichtungsperiode zu beginnen.
  • Als Nächstes werden zur Zeit t5 die Ansteuerungssignale TGS und FCG eingeschaltet, um den vierten Transfertransistor 106 bzw. den dritten Transfertransistor 105 einzuschalten. Infolgedessen werden die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt. Des Weiteren wird die in dem zweiten fotoelektrischen Umwandlungselement 102 akkumulierte Ladung über den vierten Transfertransistor 106 zu dem gekoppelten Gebiet transferiert und werden das zweite fotoelektrische Umwandlungselement 102 und der Knoten 113 zurückgesetzt.
  • Als Nächstes wird zur Zeit t6 das Ansteuerungssignal TGS ausgeschaltet, um den vierten Transfertransistor 106 auszuschalten. Dies beginnt eine Akkumulation von Ladungen in dem zweiten fotoelektrischen Umwandlungselement 102.
  • Als Nächstes wird zur Zeit t7 das Ansteuerungssignal FCG ausgeschaltet, um den dritten Transfertransistor 105 auszuschalten. Mit dieser Operation beginnt der Knoten 113 eine Akkumulation einer Ladung, die von dem zweiten fotoelektrischen Umwandlungselement 102 überfließt und über den Überflusspfad des vierten Transfertransistors 106 transferiert wird.
  • Als Nächstes werden zur Zeit t8 die Ansteuerungssignale RST und FDG ausgeschaltet, um den Rücksetztransistor 108 bzw. den zweiten Transfertransistor 104 auszuschalten.
  • Anschließend wird zur Zeit t9 das Horizontalsynchronisationssignal XHS eingegeben.
  • (Operationsbeispiel zur Zeit des Auslesens)
  • Als Nächstes wird ein erstes Operationsbeispiel zur Zeit des Auslesens des Pixelsignals des Einheitspixels 100 unter Bezugnahme auf ein Zeitverlaufsdiagramm aus 11 beschrieben. Die Verarbeitung dieser Operation wird zum Beispiel in der Pixelarrayeinheit 11 für jede Pixelzeile oder jede mehrerer Pixelzeilen in einer vorbestimmten Scanreihenfolge nach einer vorbestimmten Zeit von der Ausführung der Verarbeitung aus 10 durchgeführt. Es wird angemerkt, dass 11 Zeitverlaufsdiagramme eines Horizontalsynchronisationssignals XHS und von Ansteuerungssignalen SEL, RST, FDG, TRG, TGS und FCG veranschaulicht.
  • Zuerst wird zur Zeit t21 das Horizontalsynchronisationssignal XHS eingegeben und beginnt die Ausleseperiode des Einheitspixels 100.
  • Als Nächstes werden zur Zeit t22 die Ansteuerungssignale SEL, RST und FDG eingeschaltet, um den Auswahltransistor 110, den Rücksetztransistor 108 bzw. den zweiten Transfertransistor 104 einzuschalten. Dies setzt das Einheitspixel 100 in einen ausgewählten Zustand. Dies koppelt auch die Potentiale des FD-Teils 107 und des Knotens 112 miteinander und das Potential des gekoppelten Gebiets wird auf den Pegel der Leistungsversorgungsspannung VDD zurückgesetzt.
  • Als Nächstes wird zur Zeit t23 das Ansteuerungssignal RST ausgeschaltet, um den Rücksetztransistor 108 auszuschalten.
  • Als Nächstes wird zur Zeit ta zwischen der Zeit t23 und der Zeit t24 ein Signal NH2, das auf dem Potential des Gebiets basiert, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal NH2 ist ein Signal basierend auf dem Potential in dem Rücksetzzustand des Gebiets, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind.
  • Es wird angemerkt, dass nachfolgend das Signal NH2 als ein Hochempfindlichkeitsrücksetzsignal NH2 bezeichnet wird.
  • Als Nächstes wird zur Zeit t24 das Ansteuerungssignal FDG ausgeschaltet, um den zweiten Transfertransistor 104 auszuschalten. Dies hebt die Potentialkopplung zwischen dem FD-Teil 107 und dem Knoten 112 auf.
  • Als Nächstes wird zur Zeit tb zwischen der Zeit t24 und der Zeit t25 ein Signal NH1, das auf dem Potential des FD-Teils 107 basiert, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal NH1 ist ein Signal basierend auf dem Potential in dem Rücksetzzustand des FD-Teils 107.
  • Es wird angemerkt, dass nachfolgend das Signal NH1 als ein Hochempfindlichkeitsrücksetzsignal NH1 bezeichnet wird.
  • Als Nächstes wird zur Zeit t25 das Ansteuerungssignal TRG eingeschaltet und wird der erste Transfertransistor 103 eingeschaltet. Mit dieser Operation wird die Ladung, die während der Belichtungsperiode in dem ersten fotoelektrischen Umwandlungselement 101 erzeugt und akkumuliert wird, über den ersten Transfertransistor 103 zu dem FD-Teil 107 transferiert.
  • Zur Zeit t25 wird das Auslesen des Pixelsignals begonnen und endet die Belichtungsperiode.
  • Als Nächstes wird zur Zeit t26 das Ansteuerungssignal TRG ausgeschaltet, um den ersten Transfertransistor 103 auszuschalten. Dies stoppt den Transfer der Ladung von dem ersten fotoelektrischen Umwandlungselement 101 zu dem FD-Teil 107.
  • Als Nächstes wird zur Zeit tc zwischen der Zeit t26 und der Zeit t27 ein Signal SH1, das auf dem Potential des FD-Teils 107 basiert, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal SH1 ist ein Signal basierend auf dem Potential des FD-Teils 107 in einem Zustand, in dem Ladungen, die in dem ersten fotoelektrischen Umwandlungselement 101 während der Belichtungsperiode erzeugt und akkumuliert werden, in dem FD-Teil 107 akkumuliert werden.
  • Nachfolgend wird das Signal SH1 auch als ein Hochempfindlichkeitsdatensignal SH1 bezeichnet.
  • Als Nächstes werden zur Zeit t27 die Ansteuerungssignale FDG und TRG eingeschaltet, um den zweiten Transfertransistor 104 und den ersten Transfertransistor 103 einzuschalten. Mit dieser Operation werden die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt, und die Ladung, die von der Zeit t25 zu der Zeit t26 in dem ersten fotoelektrischen Umwandlungselement 101 verbleibt, ohne transferiert zu werden, wird über den ersten Transfertransistor 103 zu dem gekoppelten Gebiet transferiert. Es wird angemerkt, dass zur Zeit des Auslesens des Hochempfindlichkeitsdatensignals SH1 die Kapazität zur Ladung-Spannung-Umwandlung klein mit Bezug auf die zu verarbeitende Ladungsmenge ist, und dementsprechend gibt es kein Problem damit, dass eine Ladung in dem ersten fotoelektrischen Umwandlungselement 101 verbleibt. Die Ladung, die in dem ersten fotoelektrischen Umwandlungselement 101 verbleibt, muss nur dazu in der Lage sein, zur Zeit des Auslesens des Hochempfindlichkeitsdatensignals SH2 transferiert zu werden, und würde keinen Schaden durch die Ladung in dem ersten fotoelektrischen Umwandlungselement 101 verursachen.
  • Als Nächstes wird zur Zeit t28 das Ansteuerungssignal TRG ausgeschaltet, um den ersten Transfertransistor 103 auszuschalten. Dies stoppt den Transfer von Ladungen von dem ersten fotoelektrischen Umwandlungselement 101 zu dem Gebiet, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind.
  • Als Nächstes wird zur Zeit td zwischen der Zeit t28 und der Zeit t29 ein Signal SH2 basierend auf dem Potential des Gebiets, das durch Koppeln der Potentiale des FD-Teils 107 und des Knotens 112 erhalten wird, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal SH2 ist ein Signal basierend auf dem Potential des gekoppelten Gebiets in einem Zustand, in dem die Ladung, die in dem ersten fotoelektrischen Umwandlungselement 101 während der Belichtungsperiode erzeugt und akkumuliert wird, in dem Gebiet akkumuliert wird, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind. Daher ist die Kapazität zur Ladung-Spannung-Umwandlung zur Zeit des Auslesens des Signals SH2 die kombinierte Kapazität des FD-Teils 107 und des Knotens 112 und wird größer als jene zur Zeit des Auslesens des Hochempfindlichkeitsdatensignals SH1 zur Zeit tc.
  • Nachfolgend wird das Signal SH2 auch als ein Hochempfindlichkeitsdatensignal SH2 bezeichnet.
  • Als Nächstes wird zur Zeit t29 das Ansteuerungssignal RST eingeschaltet und wird der Rücksetztransistor 108 eingeschaltet. Mit dieser Operation wird das Potential des Gebiets, in dem die Potentiale des FD-Teils 107 und des Knotens 112 gekoppelt sind, auf den Pegel der Leistungsversorgungsspannung VDD zurückgesetzt.
  • Als Nächstes wird zur Zeit t30 das Ansteuerungssignal SEL ausgeschaltet, um den Auswahltransistor 110 auszuschalten. Dies setzt das Einheitspixel 100 in einen nichtausgewählten Zustand.
  • Als Nächstes wird zur Zeit t31 das Ansteuerungssignal RST ausgeschaltet und wird der Rücksetztransistor 108 ausgeschaltet.
  • Als Nächstes werden zur Zeit t32 die Ansteuerungssignale SEL, TGS und FCG eingeschaltet und werden der Auswahltransistor 110, der vierte Transfertransistor 106 und der dritte Transfertransistor 105 eingeschaltet. Dies setzt das Einheitspixel 100 in einen ausgewählten Zustand. Des Weiteren werden die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt und wird die in dem zweiten fotoelektrischen Umwandlungselement 102 akkumulierte Ladung zu dem gekoppelten Gebiet transferiert. Mit dieser Operation werden die Ladungen, die in dem zweiten fotoelektrischen Umwandlungselement 102 und dem Knoten 113 während der Belichtungsperiode akkumuliert werden, in dem gekoppelten Gebiet akkumuliert.
  • Als Nächstes wird zur Zeit t33 das Ansteuerungssignal TGS ausgeschaltet und wird der vierte Transfertransistor 106 ausgeschaltet. Dies stoppt den Transfer der Ladung von dem zweiten fotoelektrischen Umwandlungselement 102.
  • Als Nächstes wird zur Zeit te zwischen der Zeit t33 und der Zeit t34 ein Signal SL basierend auf dem Potential des Gebiets, in dem die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt sind, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal SL ist ein Signal basierend auf dem Potential des gekoppelten Gebiets in einem Zustand, in dem die Ladungen, die in dem zweiten fotoelektrischen Umwandlungselement 102 während der Belichtungsperiode erzeugt werden und in dem zweiten fotoelektrischen Umwandlungselement 102 und dem Knoten 113 akkumuliert werden, in dem Gebiet akkumuliert, in dem die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt sind. Daher ist die Kapazität zur Ladung-Spannung-Umwandlung zur Zeit des Auslesens des Signals SL eine Kapazität, die durch Kombinieren des Knotens 113, des FD-Teils 107 und des Knotens 112 erhalten wird. Diese Kapazität ist größer als jene zur Zeit des Auslesens des Hochempfindlichkeitsdatensignals SH1 zur Zeit tc und zur Zeit des Auslesens des Hochempfindlichkeitsdatensignals SH2 zur Zeit td.
  • Es wird angemerkt, dass das Signal SL auch als ein Niederempfindlichkeitsdatensignal SL bezeichnet wird.
  • Als Nächstes wird zur Zeit t34 das Ansteuerungssignal RST eingeschaltet, um den Rücksetztransistor 108 einzuschalten. Infolgedessen wird das Gebiet, in dem die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt sind, zurückgesetzt.
  • Als Nächstes werden zur Zeit t35 die Ansteuerungssignale SEL und FCG ausgeschaltet, um den Auswahltransistor 110 bzw. den dritten Transfertransistor 105 auszuschalten. Dies setzt das Einheitspixel 100 in einen nichtausgewählten Zustand. Des Weiteren wird das Potential des Knotens 113 von den Potentialen des FD-Teils 107 und des Knotens 112 separiert.
  • Als Nächstes wird zur Zeit t36 das Ansteuerungssignal RST ausgeschaltet, um den Rücksetztransistor 108 auszuschalten.
  • Als Nächstes werden zur Zeit t37 die Ansteuerungssignale SEL und FCG eingeschaltet, um den Auswahltransistor 110 bzw. den dritten Transfertransistor 105 einzuschalten. Dies setzt das Einheitspixel 100 in einen ausgewählten Zustand. Des Weiteren ist das Potential des Knotens 113 mit den Potentialen des FD-Teils 107 und des Knotens 112 gekoppelt.
  • Als Nächstes wird zur Zeit tf zwischen der Zeit t37 und der Zeit t38 ein Signal NL basierend auf dem Potential des Gebiets, in dem die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt sind, über den Verstärkungstransistor 109 und den Auswahltransistor 110 an die Vertikalsignalleitung VSL ausgegeben. Das Signal NL ist ein Signal basierend auf dem Potential in dem Rücksetzzustand des Gebiets, in dem die Potentiale des Knotens 113, des FD-Teils 107 und des Knotens 112 gekoppelt sind.
  • Es wird angemerkt, dass das Signal NL auch als ein Niederempfindlichkeitsrücksetzsignal NL bezeichnet wird.
  • Als Nächstes werden zur Zeit t38 die Ansteuerungssignale SEL, FDG und FCG ausgeschaltet, um den Auswahltransistor 110, den zweiten Transfertransistor 104 bzw. den dritten Transfertransistor 105 auszuschalten. Dies setzt das Einheitspixel 100 in einen nichtausgewählten Zustand. Des Weiteren wird die Potentialkopplung zwischen dem Knoten 113, dem FD-Teil 107 und dem Knoten 112 aufgelöst.
  • Als Nächstes wird zur Zeit t39 das Horizontalsynchronisationssignal XHS eingegeben, und die Ausleseperiode des Pixelsignals des Einheitspixels 100 endet.
  • [2. Erste Ausführungsform]
  • Als Nächstes wird eine erste Ausführungsform der vorliegenden Offenbarung beschrieben. Die erste Ausführungsform betrifft den CMOS-Bildsensor 10 als das zuvor beschriebene Bildgebungselement und betrifft die Anordnung des Akkumulationsteils, der die Ladung in dem Einheitspixel 100 akkumuliert, und betrifft insbesondere die Anordnung des Knotens 113, der eine Floating-Diffusion-Schicht ist, die die in dem zweiten fotoelektrischen Umwandlungselement 102 erzeugte Ladung akkumuliert, in dem Pixel, das das zweite fotoelektrische Umwandlungselement 102 beinhaltet. Nachfolgend wird der Knoten 113 auch als ein Akkumulationsteil bezeichnet.
  • Des Weiteren weist im Vergleich zu dem kleinen Pixel, das das zweite fotoelektrische Umwandlungselement 102 beinhaltet, das große Pixel, das das erste fotoelektrische Umwandlungselement 101 beinhaltet, zum Beispiel eine größere Lichtempfangsoberfläche und dementsprechend eine höhere Empfindlichkeit für einfallendes Licht auf. Daher wird, sofern nichts anderes angegeben ist, innerhalb des Einheitspixels 100 ein großes Pixel als ein Hochempfindlichkeitspixel beschrieben und wird ein kleines Pixel als ein Niederempfindlichkeitspixel beschrieben.
  • In der FD-Akkumulationstyp-Pixelstruktur verursacht das direkte Eindringen von Licht oder Elektronen in den FD-Teil Nebensprechen und eine signifikante Verschlechterung einer parasitären Lichtempfindlichkeit (PLS). Insbesondere könnte, falls ein FD-Akkumulationstyp-Niederempfindlichkeitspixel in einer Pixelstruktur verwendet wird, in der Pixel mit unterschiedlichen Empfindlichkeiten zum Zweck des Unterstützens eines hohen Dynamikumfangs kombiniert sind, das Einfallen von Licht von dem Hochempfindlichkeitspixel direkt in den FD-Teil des Niederempfindlichkeitspixels zu einer signifikanten Verschlechterung von Charakteristiken führen.
  • Zum Beispiel wird in Patentliteratur 2 eine FD-Akkumulationstyp-Pixelstruktur durch Verbinden einer MOS-Kapazität mit einem Niederempfindlichkeitspixel gebildet. Da jedoch in Patentliteratur 2 keine Beschreibung bezüglich der Position in Bezug auf den FD-Teil gegeben ist, wird eine Vermeidung der Verschlechterung der Charakteristiken, wie zuvor beschrieben, als schwierig erachtet.
  • Durch Anordnen des Akkumulationsteils an einer geeigneten Position in dem Einheitspixel 100 ermöglicht es die erste Ausführungsform, eine Verschlechterung von Charakteristiken aufgrund des Einfalls von Licht, das auf das Hochempfindlichkeitspixel eingefallen ist, in das Niederempfindlichkeitspixel zu unterdrücken.
  • 12A, 12B und 12C sind Draufsichten eines Beispiels für ein Pixel, die schematisch Anordnungspositionen von Akkumulationsteilen veranschaulichen. 12A und 12B sind Diagramme, die Beispiele für eine geeignete Anordnung der Akkumulationsteile gemäß der ersten Ausführungsform veranschaulichen. Im Gegensatz dazu ist 12C eine Draufsicht, die schematisch ein Beispiel veranschaulicht, bei dem die Akkumulationsteile an ungeeigneten Positionen angeordnet sind. 12A bis 12C und anschließende ähnliche Draufsichten sind schematische Diagramme bei Betrachtung von der gegenüberliegenden Seite der Einfallsoberfläche des Pixels, zum Beispiel der Seite der Verdrahtungsschicht 271 in 9. In 12A bis 12C ist die vertikal Richtung in der Zeichnung als eine Spaltenrichtung der Pixelarrayeinheit 11 definiert und ist die horizontale Richtung als eine Zeilenrichtung der Pixelarrayeinheit 11 definiert.
  • Es wird angemerkt, dass diese Zeichnungen Konfigurationen außer dem ersten Farbfilter 121 und dem zweiten Farbfilter 122 jeder Farbe und dem Akkumulationsteil, die in 9 veranschaulicht sind, weglassen und nach Bedarf Konfigurationen beinhalten, die dem Zwischenpixellichtabschirmungsteil 181 entsprechen. Das erste Farbfilter 121 und das zweite Farbfilter 122 werden einfach als Farbfilter beschrieben.
  • In 12A bis 12C stellen ein Hochempfindlichkeitspixel 300a und ein Niederempfindlichkeitspixel 301a, die mit einem Farbfilter versehen sind, das eine identische Wellenlängenkomponente (zum Beispiel Grün) transmittiert, und aneinander angrenzend angeordnet sind, ein Einheitspixel dar. Ein Akkumulationsteil 302a entspricht zum Beispiel dem Knoten 113 in 3 und 4 und ist entsprechend dem Niederempfindlichkeitspixel 301a bereitgestellt. Gleichermaßen stellen ein Satz aus einem Hochempfindlichkeitspixel 300c und einem Niederempfindlichkeitspixel 301c und ein Satz aus einem Hochempfindlichkeitspixel 300d und einem Niederempfindlichkeitspixel 301d, wobei jeder Satz mit einem Grünfarbfilter versehen ist und aneinander angrenzend bereitgestellt ist, jeweils ein Einheitspixel dar. Des Weiteren sind Akkumulationsteile 302c und 302d jeweils entsprechend den Niederempfindlichkeitspixeln 301c und 301d der Einheitspixel bereitgestellt. Des Weiteren stellen ein Hochempfindlichkeitspixel 300b und ein Niederempfindlichkeitspixel 301b, die mit einem Farbfilter versehen sind, das eine identische Wellenlängenkomponente (zum Beispiel Rot) transmittiert, und aneinander angrenzend angeordnet sind, ein Einheitspixel dar. Ein Akkumulationsteil 302b ist entsprechend dem Niederempfindlichkeitspixel 301b bereitgestellt.
  • Das Einheitspixel, das das Hochempfindlichkeitspixel 300b und das Niederempfindlichkeitspixel 301b beinhaltet, ist in der Spaltenrichtung angrenzend an das Einheitspixel angeordnet, das das Hochempfindlichkeitspixel 300a und das Niederempfindlichkeitspixel 301a beinhaltet. Zu dieser Zeit befinden sich in jedem Einheitspixel eine Seite des Hochempfindlichkeitspixels 300a und eine Seite des Hochempfindlichkeitspixels 300b an einer Grenze 310 in Kontakt miteinander, während sich eine Seite des Niederempfindlichkeitspixels 301a und die andere Seite des Hochempfindlichkeitspixels 300b in Kontakt miteinander befinden.
  • Mit Bezug auf das Einheitspixel, das das Hochempfindlichkeitspixel 300a und das Niederempfindlichkeitspixel 301a beinhaltet, sind ein Einheitspixel, das das Hochempfindlichkeitspixel 300c und das Niederempfindlichkeitspixel 301c beinhaltet, und ein Einheitspixel, das das Hochempfindlichkeitspixel 300d und das Niederempfindlichkeitspixel 301d beinhaltet, in einer Richtung einer Linie, die die Zentren des Hochempfindlichkeitspixels 300a und des Niederempfindlichkeitspixels 301a verbindet, angrenzend angeordnet.
  • In 12A, die ein geeignetes erstes Anordnungsbeispiel für die Akkumulationsteile ist, ist der Akkumulationsteil 302a, der dem Niederempfindlichkeitspixel 301a entspricht, an einer Position angeordnet, die der Grenze 310 entspricht, wo sich das Hochempfindlichkeitspixel 300a und das Hochempfindlichkeitspixel 300b in der Spaltenrichtung in Kontakt miteinander befinden. Zum Beispiel ist der Akkumulationsteil 302a an einer Position über die Grenze 310 hinweg als eine Position angeordnet, die der Grenze 310 entspricht. Gleichermaßen sind die anderen Akkumulationsteile 302b, 302c und 302d an Grenzen zwischen den Hochempfindlichkeitspixeln 300b, 300c und 300d der Einheitspixel, die die entsprechenden Niederempfindlichkeitspixel 301b, 301c bzw. 301d beinhalten, und den Hochempfindlichkeitspixeln angeordnet, die in der Spaltenrichtung an die Hochempfindlichkeitspixel 300b, 300c und 300d angrenzen.
  • In der folgenden Beschreibung wird, wenn eine Unterscheidung der Hochempfindlichkeitspixel 300a bis 300d nicht erforderlich ist, jedes der Hochempfindlichkeitspixel 300a bis 300d geeignet als das Hochempfindlichkeitspixel 300 beschrieben. Falls eine Unterscheidung der Niederempfindlichkeitspixel 301a bis 301d nicht erforderlich ist, wird des Weiteren jedes der Niederempfindlichkeitspixel 301a bis 301d geeignet als das Niederempfindlichkeitspixel 301 beschrieben. Gleichermaßen wird, wenn eine Unterscheidung der Akkumulationsteile 302a bis 302d nicht erforderlich ist, jeder der Akkumulationsteile 302a bis 302d geeignet als der Akkumulationsteil 302 beschrieben.
  • In 12B, die ein geeignetes zweites Anordnungsbeispiel für den Akkumulationsteil ist, grenzt das Einheitspixel, das das Hochempfindlichkeitspixel 300c und das Niederempfindlichkeitspixel 301c beinhaltet, in der Zeilenrichtung an das Einheitspixel an, das das Hochempfindlichkeitspixel 300b und das Niederempfindlichkeitspixel 301b beinhaltet. Bei dem Beispiel aus 12B ist der Akkumulationsteil 302b, der dem Niederempfindlichkeitspixel 301b entspricht, an einer Position angeordnet, die der Grenze 311 entspricht, wo sich das Hochempfindlichkeitspixel 300b und das Hochempfindlichkeitspixel 300c in der Zeilenrichtung in Kontakt miteinander befinden. Gleichermaßen sind die anderen Akkumulationsteile 302b, 302c und 302d an Grenzen zwischen den Hochempfindlichkeitspixeln 300b, 300c und 300d der Einheitspixel, die die entsprechenden Niederempfindlichkeitspixel 301b, 301c bzw. 301d beinhalten, und den Hochempfindlichkeitspixeln angeordnet, die in der Zeilenrichtung an die Hochempfindlichkeitspixel 300b, 300c und 300d angrenzen.
  • Im Gegensatz dazu ist gemäß 12C, die ein ungeeignetes Anordnungsbeispiel für den Akkumulationsteil ist, der Akkumulationsteil 302a zum Beispiel an einer Position angeordnet, die einer Grenze 312 entspricht, wo sich das Hochempfindlichkeitspixel 300a und das Niederempfindlichkeitspixel 301a in Kontakt miteinander befinden. Gleichermaßen sind die anderen Akkumulationsteile 302b, 302c und 302d an den Grenzen angeordnet, wo sich die entsprechenden Niederempfindlichkeitspixel 301b, 301c und 301d und die entsprechenden Hochempfindlichkeitspixel 300b, 300c bzw. 300d in Kontakt miteinander befinden.
  • Hier ist die Richtung des Verbindens des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 eine Richtung, in der das Lecken (Nebensprechen) von einfallendem Licht von dem Hochempfindlichkeitspixel zu dem zweiten fotoelektrischen Umwandlungselement 102 des Niederempfindlichkeitspixels am größten ist. Des Weiteren ist, falls der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 in der Richtung des Verbindens des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 angeordnet ist, das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 am größten. Bei dem Beispiel aus 12c ist die Richtung, in der das Nebensprechen von dem Hochempfindlichkeitspixel zu dem zweiten fotoelektrischen Umwandlungselement 102 des Niederempfindlichkeitspixels am größten ist, mit der Richtung ausgerichtet, in der das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 am größten ist.
  • Im Gegensatz dazu ist bei den Beispielen aus 12A und 12B das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem zweiten fotoelektrischen Umwandlungselement 102 des Niederempfindlichkeitspixels 301 äquivalent zu jenem bei dem Beispiel aus 12C. Jedoch ist bei den Beispielen aus 12A und 12B die Anordnungsposition des Akkumulationsteils 302 des Niederempfindlichkeitspixels 301 nicht in der Richtung, in der das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 am schlechtesten ist. Daher sind die Anordnungen aus 12A und 12B im Vergleich zu der Anordnung aus 12C hinsichtlich des Nebensprechens von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 vorteilhaft.
  • Nachfolgend wird „Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem zweiten fotoelektrischen Umwandlungselement 102 des Niederempfindlichkeitspixels 301“ geeignet als „Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301“ bezeichnet.
  • 13 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall, in dem de Akkumulationsteil 302 an einer geeigneten Position angeordnet ist, gemäß der ersten Ausführungsform veranschaulicht. 13 entspricht 12A, die zuvor beschrieben ist. Das rechte Diagramm aus 13 veranschaulicht Positionen eines A-A'-Querschnitts und eines B-B'-Querschnitts in der Anordnung aus 12A.
  • Das linke Diagramm in 13 ist ein Diagramm, das den A-A'-Querschnitt veranschaulicht, der ein Querschnitt entlang einer Linie ist, die das Zentrum des Hochempfindlichkeitspixels und das Zentrum des Niederempfindlichkeitspixels in der Pixeleinheit in der Konfiguration des rechten Diagramms in 13 veranschaulicht. Des Weiteren ist das zentrale Diagramm in 13 ein Diagramm, das den B-B'-Querschnitt veranschaulicht, der ein Querschnitt entlang einer Linie ist, die die Zentren der Hochempfindlichkeitspixel, die in der Spaltenrichtung ausgerichtet sind, in der Konfiguration des rechten Diagramms in 13 veranschaulicht.
  • Wie in den Querschnittansichten entlang der Linie A-A' und der Linie B-B' in 13 veranschaulicht, ist die Verdrahtungsschicht 271 (siehe 9) auf ein Stützsubstrat (nicht veranschaulicht) gestapelt und ist eine Halbleiterschicht 330, die das p-Wanne-Gebiet 241 (siehe 9) beinhaltet, ferner auf die Verdrahtungsschicht 271 gestapelt. Ein Farbfilter 320 ist auf der Einfallsoberflächenseite der Halbleiterschicht 330 bereitgestellt und eine On-Chip-Linse 322 ist auf der Einfallsoberflächenseite der Farbfilterschicht 320 bereitgestellt.
  • Wie in der Querschnittsansicht entlang der Linie A-A' veranschaulicht, gibt es einen Grabenlichtabschirmungsteil 303, der dem zuvor beschriebenen Zwischenpixellichtabschirmungsteil 181 entspricht, als ein Teil, der in eine Schichtrichtung herabgegraben ist, bereitgestellt an der Grenze 312 zwischen dem Hochempfindlichkeitspixel 300a und den Niederempfindlichkeitspixeln 301c und 301d. Gleichermaßen ist, wie in dem Querschnitt entlang der Linie B-B' veranschaulicht, der Grabenlichtabschirmungsteil 303 an der Grenze 310 zwischen dem Hochempfindlichkeitspixel 300a und dem Hochempfindlichkeitspixel 300b als ein Teil bereitgestellt, der in der Schichtrichtung herabgegraben ist.
  • Hier würde das Anordnen des Akkumulationsteils 302a, der dem Niederempfindlichkeitspixel 301a in dem Gebiet des Niederempfindlichkeitspixels 301a entspricht, hinsichtlich Flächenbeschränkungen schwierig sein. Daher ist die Anordnungsposition des Akkumulationsteils 302a ein Punkt. Bei der ersten Ausführungsform ist der Akkumulationsteil 302a an einer Grenze zwischen Pixeln angeordnet. Da der Grabenlichtabschirmungsteil 303 an der Grenze bereitgestellt ist, ist es möglich, einen direkten Lichteinfall (durch einen Pfad S in der Zeichnung angegeben) und Blooming von angrenzenden Pixeln zu dem Akkumulationsteil 302a zu unterdrücken.
  • Es wird angemerkt, dass auch in 12B, die zuvor beschrieben ist, der Akkumulationsteil 302 in einem Teil angeordnet ist, der der Grenze zwischen den Hochempfindlichkeitspixeln entspricht. Daher ist es ähnlich dem Beispiel des zentralen Diagramms in 13 möglich, einen direkten Lichteinfall und Blooming von angrenzenden Pixeln zu dem Akkumulationsteil durch den Grabenlichtabschirmungsteil 303 zu unterdrücken, der an der Grenze bereitgestellt ist.
  • 14 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall veranschaulicht, in dem der Akkumulationsteil 302 an einer ungeeigneten Position angeordnet ist. 14 entspricht 12C, die zuvor beschrieben wurde. Das rechte Diagramm aus 14 veranschaulicht Positionen eines A-A'-Querschnitts und eines B-B'-Querschnitts in der Anordnung aus 12C.
  • Bei diesem Beispiel ist zum Beispiel der Akkumulationsteil 302a an der Grenze 312 zwischen dem Hochempfindlichkeitspixel 300a und dem Niederempfindlichkeitspixel 301a angeordnet. Da es schwierig ist, den Akkumulationsteil 302a in dem Gebiet des Niederempfindlichkeitspixels 301a anzuordnen, ist hier, wie zuvor beschrieben, der Akkumulationsteil 302a tatsächlich zum Beispiel näher an der Seite des Hochempfindlichkeitspixels 300a angeordnet. Daher ist der Akkumulationsteil 302a auf der Vorderseite des Grabenlichtabschirmungsteils 303, der an der Grenze 310 bereitgestellt ist, bei Betrachtung von der Seite des Hochempfindlichkeitspixels 300a angeordnet. Daher weist diese Anordnung eine Möglichkeit, dass Licht von dem Hochempfindlichkeitspixel 300a direkt auf den Akkumulationsteil 302a (in der Zeichnung durch einen Pfad T angegeben) einfällt, zusammen mit einer Möglichkeit des Auftretens von Blooming auf.
  • Es wird angemerkt, dass es in Abhängigkeit von dem Layout auch denkbar ist, dass der Akkumulationsteil 302a an einer Position angeordnet werden kann, die der Grenze 312 entspricht, die eine Grenze zwischen dem Hochempfindlichkeitspixel 300a und dem Niederempfindlichkeitspixel 301a ist, ähnlich dem zentralen Diagramm aus 13. In diesem Fall ist es mit dem Akkumulationsteil 302a, der in der Grenze 312 angeordnet ist, auch möglich, einen direkten Einfall von Licht von einem angrenzenden Pixel zu dem Akkumulationsteil 302a und das Auftreten von Blooming zu unterdrücken.
  • Es wird angemerkt, dass auch in diesem Fall, wie unter Bezugnahme auf 12A und 12B beschrieben, ein stärkerer Effekt erhalten werden kann, indem der Akkumulationsteil 302a nicht in der Richtung der Linie angeordnet wird, die das Hochempfindlichkeitspixel 300a und das Niederempfindlichkeitspixel 301a verbindet, sondern an der Grenze zwischen dem Hochempfindlichkeitspixel 300a und einem anderen Hochempfindlichkeitspixel, das an das Hochempfindlichkeitspixel 300a angrenzt. Wie zuvor beschrieben, liegt dieser Effekt in der Nichtausrichtung zwischen der Richtung, in der das Nebensprechen von dem Hochempfindlichkeitspixel 300a zu dem zweiten fotoelektrischen Umwandlungselement 102 des Niederempfindlichkeitspixels 301a am schlechtesten ist, und der Richtung, in der das Nebensprechen von dem Hochempfindlichkeitspixel 300a zu dem Akkumulationsteil 302a des Niederempfindlichkeitspixels 301a am schlechtesten ist, begründet.
  • (2-1. Erste Modifikation)
  • Als Nächstes wird eine erste Modifikation der ersten Ausführungsform beschrieben. Die erste Modifikation der ersten Ausführungsform ist ein Beispiel, bei dem der Akkumulationsteil 302 an einer Position angeordnet ist, die der Richtung des Sichtwinkels mit Bezug auf die Pixelarrayeinheit 11 entspricht, in der die Einheitspixel in einem Matrixarray angeordnet sind. Es wird angemerkt, dass, wenn die Pixelarrayeinheit 11 auf einer Bildgebungsvorrichtung oder dergleichen montiert ist, eine Hauptlinse auf der Einfallsoberflächenseite angeordnet ist, wobei eine optische Achse mit dem Zentrum der Pixelarrayeinheit 11 ausgerichtet ist.
  • 15A ist ein Diagramm, das ein Beispiel für einen Fall veranschaulicht, in dem ein Sichtwinkel der Pixelarrayeinheit 11 mit Bezug auf die Zeilenrichtig breit in der Spaltenrichtung ist. Das heißt, die in 15A veranschaulichte Pixelarrayeinheit 11 weist eine lange Seite in der Zeilenrichtung auf. In 15A ist in der Pixelarrayeinheit 11 die Seite in der Zeilenrichtung eine lange Seite und dementsprechend ist der Einfallswinkel θH an dem Ende einer Pixelarrayeinheit 11a größer als ein Einfallswinkel θV an dem Ende in der Spaltenrichtung. Daher wird Nebensprechen des einfallenden Lichts zu dem angrenzenden Pixel in der Zeilenrichtung im Vergleich zu der Spaltenrichtung nachteilhafter sein.
  • 15B ist ein Diagramm, das ein Beispiel für eine Anordnung des Akkumulationsteils 302 mit Bezug auf die Pixelarrayeinheit 11, die in 15A veranschaulicht ist, gemäß der ersten Modifikation der ersten Ausführungsform veranschaulicht. Obwohl 15B die gleiche Veranschaulichung wie 12A ist, die zuvor beschrieben ist, wird diese Figur hier wiederholt als Referenz verwendet. In diesem Fall ist, wie zuvor beschrieben, Nebensprechen des einfallenden Lichts zu dem angrenzenden Pixel in der Zeilenrichtung im Vergleich zu der Spaltenrichtung nachteilhafter und dementsprechend ist der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 an der Grenze des Hochempfindlichkeitspixels 300 angeordnet, das in der Spaltenrichtung angrenzend an das Niederempfindlichkeitspixel angeordnet ist. Bei dem Beispiel aus 15B sind die Akkumulationsteile 302b, 302a, ... der Niederempfindlichkeitspixel 301b, 301a, ... für die jeweiligen Grenzen 310 angeordnet, die sich in Kontakt mit den jeweiligen Hochempfindlichkeitspixeln 300b, 300a, ... befinden, die sequentiell in der Spaltenrichtung angrenzen.
  • Auf diese Weise ist, wenn der Sichtwinkel in der Zeilenrichtung mit Bezug auf die Pixelarrayeinheit 11 größer als der Sichtwinkel in der Spaltenrichtung ist, der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 an jeder Grenze 310 der Hochempfindlichkeitspixel 300 angeordnet, die sequentiell in der Spaltenrichtung angrenzen. Mit anderen Worten verläuft jede Grenze 310 in der Richtung der langen Seite der Pixelarrayeinheit 11 und ist der Akkumulationsteil 302 an der Grenze 310 in der Richtung der langen Seite der Pixelarrayeinheit 11 angeordnet. Mit dieser Anordnung kann der Einfallswinkel θV des einfallenden Lichts mit Bezug auf jeden Akkumulationsteil 302 im Vergleich zu einem Fall, in dem der Akkumulationsteil 302 an jeder Grenze 311 jedes Hochempfindlichkeitspixels 300 angeordnet ist, das sequentiell in der Zeilenrichtung angeordnet ist, auf einen relativ geringen Winkel mit Bezug auf den Einfallswinkel θH eingestellt werden. Daher ist es möglich, Nebensprechen mit Bezug auf den Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 zu unterdrücken.
  • 16A ist eine Ansicht, die ein Beispiel in einem Fall veranschaulicht, in dem der Sichtwinkel der Pixelarrayeinheit 11 mit Bezug auf die Spaltenrichtung breiter als der Sichtwinkel mit Bezug auf die Zeilenrichtung ist. Das heißt, die in 16A veranschaulichte Pixelarrayeinheit 11 weist eine lange Seite in der Spaltenrichtung auf. In 16A ist die Seite in der Spaltenrichtung eine lange Seite in der Pixelarrayeinheit 11 und ist der Einfallswinkel θ des einfallenden Lichts von der Hauptlinse an dem Ende der Pixelarrayeinheit 11b dadurch gekennzeichnet, dass der Einfallswinkel θV an dem Ende in der Spaltenrichtung größer als der Einfallswinkel θH an dem Ende in der Zeilenrichtung ist. Daher ist Nebensprechen des einfallenden Lichts zu dem angrenzenden Pixel in der Spaltenrichtung im Vergleich zu der Zeilenrichtung nachteilhafter.
  • 16B ist ein Diagramm, das ein Beispiel für eine Anordnung des Akkumulationsteils 302 in einem Fall, in dem der in 16A veranschaulichte Sichtwinkel mit Bezug auf die Pixelarrayeinheit 11 breit in der Spaltenrichtung ist, gemäß der ersten Modifikation der ersten Ausführungsform veranschaulicht. Obwohl 16B die gleiche Veranschaulichung wie 12B ist, die zuvor beschrieben ist, wird diese Figur hier wiederholt als Referenz verwendet. In diesem Fall ist, wie zuvor beschrieben, Nebensprechen des einfallenden Lichts zu dem angrenzenden Pixel in der Spaltenrichtung im Vergleich zu der Zeilenrichtung nachteilhafter und dementsprechend ist der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 an der Grenze des Hochempfindlichkeitspixels 300 angeordnet, das in der Zeilenrichtung angrenzend an das Niederempfindlichkeitspixel 301 angeordnet ist. Bei dem Beispiel aus 16B ist der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 für jede Grenze 311 angeordnet, mit der sich jedes der Hochempfindlichkeitspixel 300 in Kontakt befindet, die sequentiell in der Zeilenrichtung angrenzen. In diesem Fall verläuft die Grenze 311 auch in der Richtung der langen Seite der Pixelarrayeinheit 11 und ist der Akkumulationsteil 302 an der Grenze 311 in der Richtung der langen Seite der Pixelarrayeinheit 11 angeordnet.
  • Auch in diesem Fall ist, ähnlich dem zuvor beschriebenen Fall aus 15A und 15B, der Akkumulationsteil 302 der Niederempfindlichkeitspixel 301 an jeder Grenze 311 der Hochempfindlichkeitspixel 300 angeordnet, die sequentiell in der Zeilenrichtung angrenzen. Daher kann der Einfallswinkel θH des einfallenden Lichts mit Bezug auf jeden Akkumulationsteil 302 im Vergleich zu einem Fall, in dem der Akkumulationsteil 302 an jeder Grenze 310 jedes Hochempfindlichkeitspixels 300 angeordnet ist, das sequentiell in der Spaltenrichtung angrenzt, auf einen relativ geringen Winkel mit Bezug auf den Einfallswinkel θV eingestellt werden. Daher ist es möglich, Nebensprechen von dem Hochempfindlichkeitspixel 300 mit Bezug auf den Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 zu unterdrücken.
  • (2-2. Zweite Modifikation)
  • Als Nächstes wird eine zweite Modifikation der ersten Ausführungsform beschrieben. Die zweite Modifikation der ersten Ausführungsform ist ein Beispiel in Bezug auf die Anordnung des Grabenlichtabschirmungsteils 303. 17A ist eine Draufsicht, die schematisch ein erstes Anordnungsbeispiel des Grabenlichtabschirmungsteils 303 gemäß der zweiten Modifikation der ersten Ausführungsform veranschaulicht. 17B ist eine Draufsicht, die schematisch ein zweites Anordnungsbeispiel des Grabenlichtabschirmungsteils 303 gemäß der zweiten Modifikation der ersten Ausführungsform veranschaulicht. Wie zuvor beschrieben, sind 17A und 17B Draufsichten bei Betrachtung von der Seite der Verdrahtungsschicht 271 in 9.
  • Der Akkumulationsteil 302 jedes Niederempfindlichkeitspixels 301 ist an einer Grenze 310 zwischen einem Hochempfindlichkeitspixel 300 und einem anderen Hochempfindlichkeitspixel 300 angrenzend an das Hochempfindlichkeitspixel 300 angeordnet. Es ist wünschenswert, den Grabenlichtabschirmungsteil 303 an der Grenze 310 bereitzustellen, wo der Akkumulationsteil 302 angeordnet ist. Bei dem in 17A veranschaulichten ersten Beispiel ist der Grabenlichtabschirmungsteil 303 um jedes der Hochempfindlichkeitspixel 300 und jedes der Niederempfindlichkeitspixel 301 herum ohne eine Lücke bereitgestellt.
  • Die vorliegende Erfindung ist nicht darauf beschränkt und ist es, wie in 17B als ein zweites Beispiel veranschaulicht, durch Bereitstellen es Grabenlichtabschirmungsteils 303 nur für wenigstens die Seite (das heißt die Grenze 310) des Hochempfindlichkeitspixels 300, wo der Akkumulationsteil 302 angeordnet ist, auch möglich, Nebensprechen und dergleichen von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 zu unterdrücken.
  • Auf diese Weise ist bei der ersten Ausführungsform und ihren Modifikationen der Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 an der Grenze zwischen den Einheitspixeln angeordnet, was es ermöglicht, Lecken von einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 zu unterdrücken. Dies ermöglicht es, Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Akkumulationsteil 302 des Niederempfindlichkeitspixels 301 und das resultierende Blooming zu unterdrücken, was zu einer Verbesserung von Farbcharakteristiken innerhalb des Sichtwinkels führt.
  • [3. Zweite Ausführungsform]
  • Als Nächstes wird eine zweite Ausführungsform der vorliegenden Offenbarung beschrieben. Die zweite Ausführungsform betrifft einen Zwischenpixellichtabschirmungsteil 181 (siehe 7 bis 9), der bereitgestellt ist, um Lecken von Licht zu angrenzenden Pixeln in dem CMOS-Bildsensor 10 als das zuvor beschriebene Bildgebungselement zu verhindern.
  • Zum Beispiel offenbart Patentliteratur 1 eine Pixelstruktur mit einer Pixeleinheit, die Hochempfindlichkeitspixel und Niederempfindlichkeitspixel mit unterschiedlichen Flächen beinhaltet. In dieser Pixelstruktur besteht, da sich die Empfindlichkeit in dem Hochempfindlichkeitspixel und dem Niederempfindlichkeitspixel stark unterscheidet, eine Möglichkeit des Auftretens von Nebensprechen von dem Hochempfindlichkeitspixel zu dem Niederempfindlichkeitspixel. Als eine Gegenmaßnahme gegen dieses Nebensprechen offenbart Patentliteratur 1 ein Beispiel für das Erhöhen einer Zwischenpixellichtabschirmungsbreite auf einer Niederempfindlichkeitspixelseite. Jedoch würde die Empfindlichkeit des Niederempfindlichkeitspixels in diesem Fall erheblich reduziert werden und dementsprechend gibt es einen Bedarf, eine Gestaltung einschließlich des Empfindlichkeitsverhältnisses zu dem Hochempfindlichkeitspixel durchzuführen. Des Weiteren könnten eine Verschlechterung der Charakteristiken des Niederempfindlichkeitspixels für schräg einfallendes Licht und eine Abnahme der Empfindlichkeit in dem Niederempfindlichkeitspixel zu einem Problem einer Zunahme einer Nebensprechrate von dem Hochempfindlichkeitspixel führen.
  • Bei der zweiten Ausführungsform der vorliegenden Offenbarung wird die Breite des Zwischenpixellichtabschirmungsteils, der zwischen zwei angrenzenden Pixeln angeordnet ist, auf eine Breite gemäß dem Empfindlichkeitsunterschied zwischen den zwei Pixeln eingestellt.
  • 18A und 18B sind schematische Diagramme, die die Anordnung des Zwischenpixellichtabschirmungsteils gemäß der zweiten Ausführungsform veranschaulichen. 18A ist eine Draufsicht eines Pixels und 18B ist eine Ansicht, die einen A-A'-Querschnitt und einen B-B'-Querschnitt in 18A veranschaulicht. Es wird angemerkt, dass 18A ein schematisches Diagramm bei Betrachtung von der gegenüberliegenden Seite der Einfallsoberfläche des Pixels, zum Beispiel von der Seite der Verdrahtungsschicht 271 in 9, ist. In 18A sind ein Einheitspixel, das das Hochempfindlichkeitspixel 300a und das Niederempfindlichkeitspixel 301a beinhaltet, und ein Einheitspixel, das das Hochempfindlichkeitspixel 300b und das Niederempfindlichkeitspixel 301b beinhaltet, in der Zeilenrichtung aneinander angrenzend angeordnet.
  • In 18A ist ein Zwischenpixellichtabschirmungsfilm 321, der einen Zwischenpixellichtabschirmungsteil darstellt, für jedes der Hochempfindlichkeitspixel 300 und Niederempfindlichkeitspixel 301 bereitgestellt. Beispiele für ein anwendbares Material des Zwischenpixellichtabschirmungsfilms 321 beinhalten Wolfram, Titan, Titannitrid, SiO2 und Harz.
  • In dem Zwischenpixellichtabschirmungsfilm 321 sind Öffnungen 361 und 362 bereitgestellt, die den Hochempfindlichkeitspixeln 300 bzw. den Niederempfindlichkeitspixeln 301 entsprechen. Das Licht, das zu jedem der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 emittiert wird, fällt auf das erste fotoelektrische Umwandlungselement 101 und das zweite fotoelektrische Umwandlungselement 102, die in jedem der Hochempfindlichkeitspixel 300 bzw. der Niederempfindlichkeitspixel 301 enthalten sind, von den Öffnungen 361 und 362 ein.
  • Des Weiteren ist bei dem Beispiel aus 18A ein Grabenlichtabschirmungsteil 303 zwischen einzelnen Pixeln der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 bereitgestellt. Insbesondere ist ein Grabenlichtabschirmungsteil 303bg an der Grenze 311 zwischen den Hochempfindlichkeitspixeln 300 bereitgestellt, während ein Grabenlichtabschirmungsteil 303sml um jedes der Niederempfindlichkeitspixel 301 herum bereitgestellt ist. Wie in der Querschnittsansicht entlang der Linie A-A' aus 18B veranschaulicht, ist der Grabenlichtabschirmungsteil 303bg durch Einbetten eines speziellen Materials in einer Kerbe bereitgestellt, die von der Position der Grenze 311 zwischen den Hochempfindlichkeitspixeln 300 in der Schichtrichtung herabgegraben ist. Beispiele für anwendbare Materialien, die in den Grabenlichtabschirmungsteil 303 einzubetten sind, beinhalten SiO2, Wolfram, Aluminium, Titan, Titannitrid, eine Magnesium-Titan-Legierung, eine Magnesium-Nickel-Legierung und Tantaloxid.
  • Bei der zweiten Ausführungsform wird die Breite des Zwischenpixellichtabschirmungsfilm 321 an der Grenze, wo der Empfindlichkeitsunterschied zwischen zwei angrenzenden Pixeln groß ist, größer als die Breite des Zwischenpixellichtabschirmungsfilms 321 an der Grenze zwischen den anderen Pixeln gemacht. Das heißt, ein Zwischenpixelempfindlichkeitsunterschied ist zwischen den Hochempfindlichkeitspixeln 300 und zwischen den Niederempfindlichkeitspixeln 301 klein. Im Gegensatz dazu ist der Zwischenpixelempfindlichkeitsunterschied zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 im Vergleich zu dem Zwischenpixelempfindlichkeitsunterschied zwischen den Hochempfindlichkeitspixeln 300 und zwischen den Niederempfindlichkeitspixeln 301 größer. Daher wird die Breite des Zwischenpixellichtabschirmungsfilms 321 an der Grenze 312 zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 größer als die Breite des Zwischenpixellichtabschirmungsfilms 321 an der Grenze 311 (In der Pixelanordnung aus 18A befinden sich die Niederempfindlichkeitspixel 301 nicht in Kontakt miteinander.) zwischen den Hochempfindlichkeitspixel 300 gemacht.
  • Eine speziellere Beschreibung wird unter Bezugnahme auf 18A gegeben. Unter Bezugnahme auf 18A werden die Hochempfindlichkeitspixel 300a und 300b, die in der Zeilenrichtung angrenzen, und die Niederempfindlichkeitspixel 301a, die mit den beiden Hochempfindlichkeitspixeln 300a und 300b in Kontakt kommen, betrachtet.
  • In einem Teil des Zwischenpixellichtabschirmungsfilms 321, der zwischen dem Hochempfindlichkeitspixel 300a und dem Hochempfindlichkeitspixel 300b bereitgestellt ist, ist eine Breite von der Zwischenpixelgrenze 311 zu dem Hochempfindlichkeitspixel 300a (insbesondere der Öffnung 361 davon) an einer Position mit schmalster Breite als eine Breite W1 definiert. Bei dem Beispiel aus 18A ist, da die Öffnung 361 des Hochempfindlichkeitspixels 300a schräg mit Bezug auf die Grenze 311 angeordnet ist, die Position mit schmalster Breite ein Eckteil der Öffnung 361 auf der Seite der Grenze 311. Gleichermaßen ist eine Breite von der Zwischenpixelgrenze 311 zu dem Hochempfindlichkeitspixel 300b (insbesondere der Öffnung 361 davon) an der Position mit schmalster Breite als eine Breite W2 definiert.
  • Die Zwischenpixelgrenze kann auf eine Mittellinie des Grabenlichtabschirmungsteils 303 eingestellt werden, der für das Pixel bei dem zentralen Teil der Pixelarrayeinheit 11 in einem Zustand ohne Pupillenkorrektur bereitgestellt ist.
  • Des Weiteren ist in einem Teil des Zwischenpixellichtabschirmungsfilms 321, der zwischen dem Hochempfindlichkeitspixel 300b und dem Niederempfindlichkeitspixel 301a in Kontakt mit einer Seite des Hochempfindlichkeitspixels 300b bereitgestellt ist, eine Breite zu dem Hochempfindlichkeitspixel 300b (insbesondere der Öffnung 361 von diesem) von der Zwischenpixelgrenze 312 als ein Basispunkt an einer Position, wo die Breite die schmalste ist, als eine Breite W3 definiert. Bei dem Beispiel aus 18A sind die Seite der Öffnung 561 des Hochempfindlichkeitspixels 300b auf der Seite in Kontakt mit dem Niederempfindlichkeitspixel 301a und die Seite der Öffnung 561 des Niederempfindlichkeitspixels 301a auf der Seite in Kontakt mit dem Hochempfindlichkeitspixel 300b parallel zueinander angeordnet. Daher ist die Position, wo di Breite die schmalste ist, der Bereich der Seite der Öffnung 561 des Niederempfindlichkeitspixels 301a auf der Seite in Kontakt mit dem Hochempfindlichkeitspixel 300b. Gleichermaßen ist eine Breite zu dem Niederempfindlichkeitspixel 301a (insbesondere der Öffnung 361 von diesem) von der Zwischenpixelgrenze 312 als ein Basispunkt an einer Position, wo die Breite die schmalste in dem Teil ist, als eine Breite W4 definiert.
  • In diesem Fall ist der Zwischenpixellichtabschirmungsfilm 321 so gebildet, dass er die folgende Formel (1) in Bezug auf die Breiten W1 bis W4 erfüllt. W 3 + W 4 > W 1 + W 2
    Figure DE112020006147T5_0004
  • Des Weiteren ist bei der ersten Ausführungsform der Zwischenpixellichtabschirmungsfilm 321 so gebildet, dass er die Bedingungen der folgenden Formeln (2) und (3) mit Bezug auf die Breite W1 und die Breite W2, und die Breite W3 und die Breite W4, die zuvor beschrieben sind, erfüllt. Die Bedingung der Formel (2) ist bei der zweiten Ausführungsform nicht wesentlich. Des Weiteren ist es denkbar, dass die Breite W4 zum Beispiel eine Breite in einem Fall ist, in dem die zweite Ausführungsform nicht angewandt wird. W 1 = W 2
    Figure DE112020006147T5_0005
    W 3 > W 4
    Figure DE112020006147T5_0006
  • Die Formel (3) gibt an, dass der Zwischenpixellichtabschirmungsfilm 321 näher an dem Hochempfindlichkeitspixel 300 zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 bereitgestellt ist. Daher kann die Breite des Zwischenpixellichtabschirmungsfilms 321 zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 größer als die Breite des Zwischenpixellichtabschirmungsfilms 321 zwischen den Hochempfindlichkeitspixeln 300 gemacht werden, ohne die Fläche der Öffnung 362 des Niederempfindlichkeitspixels 301 zu beeinträchtigen.
  • Infogeldessen ist es in dem Niederempfindlichkeitspixel 301 möglich, Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken, während eine Abnahme der Empfindlichkeit und eine Abnahme einer Schrägeinfallsempfindlichkeit für das Niederempfindlichkeitspixel mit der bekannten Struktur unterdrückt werden und eine Abnahme der Empfindlichkeit des Hochempfindlichkeitspixels 300 unterdrückt wird.
  • (3-1. Erste Modifikation)
  • Als Nächstes wird eine erste Modifikation der zweiten Ausführungsform beschrieben. Bei der zuvor beschriebenen zweiten Ausführungsform wird der Grabenlichtabschirmungsteil 303 an der Grenze zwischen den Pixeln bereitgestellt. Im Gegensatz dazu ist die erste Modifikation der zweiten Ausführungsform ein Beispiel, bei dem der Grabenlichtabschirmungsteil 303 nicht an der Grenze zwischen den Pixeln bereitgestellt ist.
  • 19A und 19B sind schematische Diagramme, die die Anordnung des Zwischenpixellichtabschirmungsteils gemäß der ersten Modifikation der zweiten Ausführungsform veranschaulichen. 19A und 19B sind Ansichten, die 18A bzw. 18B entsprechen, die zuvor beschrieben sind. 19A ist eine Draufsicht eines Pixels und 19B ist eine Querschnittansicht, die einen A-A'-Querschnitt und einen B-B'-Querschnitt in 19A veranschaulicht.
  • Wie in 19A und 19B veranschaulicht, ist der Grabenlichtabschirmungsteil 303 nicht zwischen den Hochempfindlichkeitspixeln 300 oder zwischen den Hochempfindlichkeitspixeln 300 und den Niederempfindlichkeitspixeln 301 bereitgestellt. Andererseits sind die Breiten W1 und W2 des Zwischenpixellichtabschirmungsfilms 321, der zwischen den Hochempfindlichkeitspixeln 300 bereitgestellt ist, auf jeder Seite der Hochempfindlichkeitspixel 300a bzw. 300b von der Grenze 311 sowie die Breiten W3 und W4 des Zwischenpixellichtabschirmungsfilms 321, der zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 bereitgestellt ist, auf jeder Seite der Niederempfindlichkeitspixel 301 und der Hochempfindlichkeitspixel 300 von der Grenze 312 so eingestellt, dass sie die Bedingungen der zuvor beschriebenen Formeln (1) bis (3) erfüllen.
  • Selbst wenn der Grabenlichtabschirmungsteil 303 nicht an der Grenze zwischen den Pixeln bereitgestellt ist, wie bei dem ersten Modifikationsbeispiel der zweiten Ausführungsform, ist es durch Bilden des Zwischenpixellichtabschirmungsfilms 321 derart, dass die Bedingungen der zuvor beschriebenen Formeln (1) bis (3) erfüllt werden, immer noch möglich, Effekte äquivalent zu den Effekten der zuvor beschriebenen zweiten Ausführungsform zu erhalten.
  • Übrigens kann bei der ersten Modifikation der zweiten Ausführungsform die Grenze zwischen den Pixeln als eine Grenze eines periodischen Musters einer Fremdstoffkonzentration definiert werden, die in das Siliciumsubstrat injiziert wird.
  • (3-2. Zweite Modifikation)
  • Als Nächstes wird eine zweite Modifikation der zweiten Ausführungsform beschrieben. Bei der zweiten Ausführungsform und der ersten Modifikation davon, die zuvor beschrieben sind, sind die Pixel in Einheiten von Pixeln angeordnet, die die Hochempfindlichkeitspixel 300 und die Niederempfindlichkeitspixel 301 beinhalten. Jedoch ist die Pixelanordnung, die auf die zweite Ausführungsform anwendbar ist, nicht auf diese Einheit beschränkt. Die zweite Modifikation der zweiten Ausführungsform ist ein Beispiel, bei dem die zweite Ausführungsform auf ein RCCC-Array von Pixeln angewandt wird.
  • Das RCCC-Array weist eine Konfiguration auf, die zum Beispiel vier Pixel beinhaltet, die in 2 Pixel × 2 Pixel angeordnet sind, wobei ein rotes Farbfilter in einem Pixel angeordnet ist und farblose (klare) Farbfilter in den anderen drei Pixeln angeordnet sind. Als ein Beispiel wird eine Anwendung des RCCC-Arrays auf eine fahrzeuginterne Bildgebungsvorrichtung zum Beispiel eine Bildgebung bei geringerer Beleuchtungsstärke ermöglichen und eine Identifizierung zwischen einem Vorderlicht und einem Schlusslicht des Fahrzeugs erleichtern.
  • 20 ist ein schematisches Diagramm, das ein Beispiel für ein Pixelarray durch Verwenden eines RCCC-Arrays veranschaulicht, welches auf eine zweite Modifikation der zweite Ausführungsform anwendbar ist. Bei dem Beispiel aus 20 stellen Pixel 3000 bis 3003, die in einem Array aus 2 × 2 Pixeln angeordnet sind, einen Pixelsatz dar, und die Pixelsätze sind in einem Matrixarray in dem Pixelarray angeordnet. Von den Pixeln 3000, die in dem Pixelsatz enthalten sind, ist das Pixel 3000 mit einem Filter versehen, das selektiv Licht einer roten Wellenlängenkomponente transmittiert, während die Pixel 3001 bis 3003 mit farblosen Filtern, das heißt Filtern, die Licht des gesamten sichtbaren Lichtbereichs transmittieren, versehen sind.
  • Da Licht von Wellenlängenkomponenten außer der roten Wellenlängenkomponente durch das Farbfilter abgeschwächt wird, weist hier das Pixel 3000 eine geringe Empfindlichkeit im Vergleich zu den Pixeln 3001 bis 3003 auf. Daher entsprechen die Pixel 3001 bis 3003 den Hochempfindlichkeitspixeln 300, die zuvor beschrieben sind, und entspricht das Pixel 3000 dem Niederempfindlichkeitspixel 301. Des Weiteren ist ein Zwischenpixellichtabschirmungsfilm 3010 in dem Gebiet des Pixelsatzes bereitgestellt, insbesondere in einem Gebiet außer der Öffnung jedes der Pixel 3000 bis 3003. Im Fall einer solchen Konfiguration besteht eine Möglichkeit des Leckens von einfallendem Licht von den Pixeln 3001 und 3002, die an das Pixel 3000 angrenzen, zu dem Pixel 3000.
  • Durch Definieren einer Grenze 3020, die das Pixelsatzgebiet in der Zeilenrichtung gleichmäßig in zwei teilt, und einer Grenze 3021, die das Pixelsatzgebiet in der Spaltenrichtung gleichmäßig in zwei teilt, wird hier jedes der aufgeteilten Gebiete als ein Pixelgebiet erhalten. Bei dem Beispiel aus 20 ist jedes der Pixel 3000 und 3003 in dem Zentrum dieses Pixelgebiets angeordnet. Des Weiteren ist das Pixelgebiet 3001 in dem Zentrum des Pixelgebiets angeordnet, so dass die lange Seite in der Spaltenrichtung verläuft, während das Pixel 3002 in dem Zentrum des Pixelgebiets verläuft, so dass die lange Seite in der Zeilenrichtung verläuft.
  • Bei dieser Anordnung entspricht in dem Teil des Zwischenpixellichtabschirmungsfilms 3010, der zwischen dem Pixel 3000 und dem Pixel 3001 bereitgestellt ist, die Breite zwischen dem rechten Ende der Öffnung des Pixels 3000 und der Grenze 3020 der zuvor beschriebenen Breite W4, während die Breite zwischen dem linken Ende der Öffnung des Pixels 3001 und der Grenze 3020 der zuvor beschriebenen W3 entspricht. Gleichermaßen entspricht die Breite zwischen dem unteren Ende der Öffnung des Pixels 3000 und der Grenze 3021 der zuvor beschriebenen Breite W4, während die Breite zwischen dem oberen Ende des Pixels 3002 und der Grenze 3021 der zuvor beschriebenen Breite W3 entspricht.
  • Auch in diesem Fall ist es durch Einstellen der Breiten W3 und W4 derart, dass die Bedingung der zuvor beschriebenen Formel (3) erfüllt wird, möglich, eine Abnahme der Empfindlichkeit und eine Abnahme der Schrägeinfallsempfindlichkeit des Pixels 3000 zu unterdrücken, das ein Niederempfindlichkeitspixel ist, eine Abnahme der Empfindlichkeit der Pixel 3001 und 3002 zu unterdrücken, die Hochempfindlichkeitspixel sind, und Nebensprechen von den Pixeln 3001 und 3002 zu dem Pixel 3000 zu unterdrücken.
  • [4. Dritte Ausführungsform]
  • Eine dritte Ausführungsform der vorliegenden Offenbarung wird beschrieben. Die dritte Ausführungsform betrifft die Konfiguration des Grabenlichtabschirmungsteils 303 in dem CMOS-Bildsensor 10 als das zuvor beschriebene Bildgebungselement.
  • Hier liegt ein beispielhafter Fall einer Pixelstruktur unter Verwendung eines Einheitspixels vor, das mit einem Paar aus einem Hochempfindlichkeitspixel und einem Niederempfindlichkeitspixel gebildet wird, wobei ein Grabenlichtabschirmungsteil zum Unterdrücken von Nebensprechen ohne irgendeine Lücke um die Niederempfindlichkeitspixel herum und zwischen den Hochempfindlichkeitspixeln angeordnet ist. Die Konfiguration in diesem Fall erhöht die Breite des Verbindungsteils, der den Grabenlichtabschirmungsteil zwischen den Hochempfindlichkeitspixeln mit dem Grabenlichtabschirmungsteil um die Niederempfindlichkeitspixel herum verbindet, was eine lokale Zunahme der Tiefe des Grabenlichtabschirmungsteils bei dem Verbindungsteil aufgrund des Microloading-Effekts bewirkt.
  • Andererseits ist es bekannt, dass das Vertiefen des Grabenlichtabschirmungsteils die Dunkelzeitcharakteristiken aufgrund der Gründe des Überschneidens des Grabenlichtabschirmungsteils über einem darunterliegenden FD-Verarmungsschichtgebiet oder einer Akkumulation von Schaden aufgrund des tiefen Grabens verschlechtern würde, was dazu führt, dass die Tiefe des Grabenlichtabschirmungsteils durch die Tiefe beschränkt wird.
  • Wie zuvor beschrieben, würde bei einer Konfiguration des Anordnens der Grabenlichtabschirmungsteile ohne eine Lücke die Tiefe des Grabenlichtabschirmungsteils nicht an einem Teil zwischen dem Hochempfindlichkeitspixel und dem Niederempfindlichkeitspixel maximiert, wo das Nebensprechen am meisten unterdrück werden soll, sondern an dem Verbindungsteil zwischen den Zwischenpixellichtabschirmungsteilen, was zu einem Fehler der effektiven Lichtabschirmung führt. Obwohl Patentliteratur 3 zum Beispiel einen Elementisolationsteil beschreibt, in dem ein Isolationsfilm als ein Teil eingebettet ist, der einem Grabenlichtabschirmungsteil entspricht, beinhaltet die Beschreibung bezüglich des Layouts des Elementisolationsteils nur einen Punkt, dass der Teil in einer gitterförmigen Form angeordnet ist, so dass ein Pixel umgeben ist, ohne Beschreibung bezüglich einer Gegenmaßnahme gegen den Microloading-Effekt oder dergleichen.
  • 21 ist ein schematisches Diagramm, das ein Konfigurationsbeispiel des Grabenlichtabschirmungsteils 303 gemäß der dritten Ausführungsform veranschaulicht. 21 ist eine Draufsicht des Pixels. Es wird angemerkt, dass 21 ein schematisches Diagramm bei Betrachtung von der gegenüberliegenden Seite der Einfallsoberfläche des Pixels, zum Beispiel der Seite der Verdrahtungsschicht 271 in 9, ist.
  • In 21 ist die horizontale Richtung in der Zeichnung als die Zeilenrichtung definiert, ist die vertikale Richtung als die Spaltenrichtung definiert und sind Einheitspixel, nämlich ein Einheitspixel einschließlich eines Hochempfindlichkeitspixels 300a und eines Niederempfindlichkeitspixels 301a, ein Einheitspixel einschließlich eines Hochempfindlichkeitspixels 300b und eines Niederempfindlichkeitspixels 301b, ein Einheitspixel einschließlich eines Hochempfindlichkeitspixels 300d und eines Niederempfindlichkeitspixels 301d und ein Einheitspixel einschließlich eines Hochempfindlichkeitspixels 300b und eines Niederempfindlichkeitspixels 301b in der Zeilenrichtung aneinander angrenzend angeordnet. Des Weiteren ist das Einheitspixel, das das Hochempfindlichkeitspixel 300d und das Niederempfindlichkeitspixel 301d beinhaltet, in der Spaltenrichtung angrenzend an das Einheitspixel angeordnet, das das Hochempfindlichkeitspixel 300b und das Niederempfindlichkeitspixel 301b beinhaltet.
  • In 21 wird zur einfachen Erklärung die Beschreibung mit Fokus auf die Hochempfindlichkeitspixel 300a und 300b und das Niederempfindlichkeitspixel 301a gegeben. In der Umgebung des Niederempfindlichkeitspixels 301a ist ein Grabenlichtabschirmungsteil 303sml ohne Lücke angeordnet, mit anderen Worten kontinuierlich, angeordnet. Andererseits ist ein Grabenlichtabschirmungsteil 303bg bereitgestellt, der zwischen dem Hochempfindlichkeitspixel 300a und dem Hochempfindlichkeitspixel 300b angeordnet ist, das in der Zeilenrichtung an das Hochempfindlichkeitspixel 300a angrenzt. Zu dieser Zeit sind der Grabenlichtabschirmungsteil 300bg und der Grabenlichtabschirmungsteil 303sml voneinander entfernt mit einer Lücke Gp angeordnet, ohne miteinander verbunden zu sein.
  • Gemäß dieser Anordnung gibt es keinen Verbindungsteil zwischen dem Grabenlichtabschirmungsteil 303bg und dem Grabenlichtabschirmungsteil 303sml. Dies ermöglicht es, eine Situation zu vermeiden, in der die Linienbreite des Grabenlichtabschirmungsteils 303bg aufgrund des Microloading-Effekts lokal zunimmt und ein Teil, in dem die Tiefe lokal zunimmt, gebildet wird. Dies ermöglicht es, die Tiefe des Grabenlichtabschirmungsteils 303bg als Ganzes einheitlich zu machen, was zum Erzielen eines höheren Lichtabschirmungseffekts führt.
  • Es wird angemerkt, dass die Beabstandung der Lücke Gp nicht speziell beschränkt ist, solange sie eine Beabstandung ist, die zwischen dem Grabenlichtabschirmungsteil 303bg und dem Grabenlichtabschirmungsteil 303sml trennt.
  • In der folgenden Beschreibung werden, wenn nicht speziell zwischen dem Grabenlichtabschirmungsteil 303bg und dem Grabenlichtabschirmungsteil sml unterschieden werden muss, der Grabenlichtabschirmungsteil 303bg und der Grabenlichtabschirmungsteil sml gegebenenfalls gemeinsam als der Grabenlichtabschirmungsteil 303 beschrieben.
  • Eine speziellere Beschreibung wird unter Bezugnahme auf Querschnittsansichten aus 22 und 23 gegeben. Es wird angemerkt, dass, wie in 22 oben rechts veranschaulicht, 22 und 23 einen A-A'-Querschnitt, einen B-B'-Querschnitt und einen C-C'-Querschnitt in der Pixelanordnung äquivalent zu der in 21 veranschaulichten Anordnung veranschaulichen.
  • Hier ist der Querschnitt A-A' ein Querschnitt entlang einer Linie, die die zentralen Teile der Niederempfindlichkeitspixel 301a und 301d verbindet. Der Querschnitt B-B' ist ein Querschnitt entlang einer Linie, die die zentralen Teile der Hochempfindlichkeitspixel 300a und 300b in der Zeilenrichtung verbindet. Des Weiteren ist der Querschnitt C-C' ein Querschnitt entlang einer Linie, die die Hochempfindlichkeitspixel 300a und 300b verbindet, wobei sie die unmittelbare Nähe des Niederempfindlichkeitspixels 301d in der Zeilenrichtung durchläuft.
  • 22 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall veranschaulicht, in dem die dritte Ausführungsform nicht angewandt wird. In 22 ist der Grabenlichtabschirmungsteil 303bg, der in dem C-C'-Querschnitt veranschaulicht ist, mit dem Grabenlichtabschirmungsteil 303sml verbunden, der um das Niederempfindlichkeitspixel 301d herum angeordnet ist, und ist dementsprechend aufgrund des Microloading-Effekts tief gebildet. Die Tiefen anderer Grabenlichtabschirmungsteile 303bg und 303sml sind durch die Tiefe des Grabenlichtabschirmungsteils 303bg begrenzt und sind flacher als die Tiefe des Grabenlichtabschirmungsteils 303bg gebildet (siehe A-A'-Querschnitt und B-B'-Querschnitt). Daher besteht, wie zum Beispiel in dem Diagramm des A-A'-Querschnitts veranschaulicht, eine Möglichkeit, dass Licht, das schräg auf das Hochempfindlichkeitspixel 300b einfällt, in das angrenzende Niederempfindlichkeitspixel 301d von unterhalb des flachen Grabenlichtabschirmungsteils 303sml leckt (siehe einen Pfad U1). Gleichermaßen besteht, wie in dem Diagramm des B-B'-Querschnitts veranschaulicht, eine Möglichkeit, dass Licht, das schräg auf das Hochempfindlichkeitspixel 300a einfällt, von unterhalb des flachen Grabenlichtabschirmungsteils 303bg zu dem angrenzenden Hochempfindlichkeitspixel 300b leckt (siehe einen Pfad U2).
  • 23 ist eine Querschnittsansicht, die schematisch eine Struktur eines Beispiels für ein Pixel in einem Fall veranschaulicht, in dem die dritte Ausführungsform angewandt wird. In diesem Fall ist eine Lücke Gp zwischen dem Grabenlichtabschirmungsteil 303sml, der um das Niederempfindlichkeitspixel 301 herum angeordnet ist, und dem Grabenlichtabschirmungsteil 303bg vorhanden, der zwischen den Hochempfindlichkeitspixeln 300 angeordnet ist, wobei der Grabenlichtabschirmungsteil 303sml und der Grabenlichtabschirmungsteil 303bg voneinander getrennt werden. Daher kann, wie in dem A-A'-Querschnitt, dem B-B'-Querschnitt und dem C-C'-Querschnitt veranschaulicht, jeder des Grabenlichtabschirmungsteils 303bg und des Grabenlichtabschirmungsteils 303sml in einer im Wesentlichen einheitlichen Tiefe gebildet werden. Dies ermöglicht es, jeden der Grabenlichtabschirmungsteile 303bg und der Grabenlichtabschirmungsteile 303sml in einer gewünschten Tiefe, zum Beispiel einer Tiefe mit einem höheren Lichtabschirmungseffekt und geringerem Einfluss auf Dunkelzeitcharakteristiken zu bilden.
  • Bei dem Beispiel aus 23 wird, wie in dem Diagramm des A-A'-Querschnitts veranschaulicht, Lecken von einfallendem Licht von dem Hochempfindlichkeitspixel 300b zu dem Niederempfindlichkeitspixel 301d (siehe einen Pfad V1) unterdrückt. Des Weiteren wird, wie in dem Diagramm des B-B'-Querschnitts veranschaulicht, Lecken von einfallendem Licht zwischen den Hochempfindlichkeitspixeln 300a und 300b (siehe einen Pfad V2) unterdrückt. Des Weiteren wird, wie in dem Diagramm des C-C'-Querschnitts veranschaulicht, Lecken von einfallendem Licht zwischen den Hochempfindlichkeitspixeln 300a und 300b selbst an einer Position in der unmittelbaren Nähe des Grabenlichtabschirmungsteils 303sml um das Niederempfindlichkeitspixel 301 herum unterdrückt.
  • Es wird angemerkt, dass das Licht, das auf das Hochempfindlichkeitspixel 300 einfällt, zum Beispiel bei dem zentralen Teil durch die On-Chip-Linse 322 gesammelt wird, die in dem Hochempfindlichkeitspixel 300 bereitgestellt ist, und dementsprechend würde das Bereitstellen einer Lücke Gp zwischen dem Grabenlichtabschirmungsteil 303bg und dem Grabenlichtabschirmungsteil 303sml einen geringen Einfluss aufweisen.
  • Auf diese Weise ist es gemäß der dritten Ausführungsform möglich, einen effektiven Grabenlichtabschirmungsteil 303bg auch zwischen den Hochempfindlichkeitspixeln 300 zu bilden, während die Teile zwischen den Niederempfindlichkeitspixeln 301, die einen großen Einfluss auf Nebensprechen haben, ohne Lücke umgeben werden, indem der Grabenlichtabschirmungsteil 303sml mit einer gewünschten Tiefe verwendet wird. Dies ermöglicht es, Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken sowie Nebensprechen zwischen den Hochempfindlichkeitspixeln 300 zu unterdrücken.
  • (4-1. Erste Modifikation)
  • Als Nächstes wird eine erste Modifikation der dritten Ausführungsform beschrieben. 24 ist ein schematisches Diagramm, das ein Konfigurationsbeispiel eines Grabenlichtabschirmungsteils 303 gemäß einer ersten Modifikation der dritten Ausführungsform veranschaulicht. 24 ist eine Draufsicht bei Betrachtung von der gegenüberliegenden Seite der Einfallsoberfläche des Pixels, zum Beispiel der Seite der Verdrahtungsschicht 271 in 9. Da die Anordnung jedes Hochempfindlichkeitspixels 300 und jedes Niederempfindlichkeitspixels 301 gleich der in 21 veranschaulichten Anordnung ist, die zuvor beschrieben wurde, wird die Beschreibung davon hier weggelassen.
  • In 24 ist, ähnlich zu 21, die zuvor beschrieben wurde, der Grabenlichtabschirmungsteil 303bg, der zwischen den Hochempfindlichkeitspixeln 300 bereitgestellt ist, bei dem Raum Gp von dem Grabenlichtabschirmungsteil 303sml angeordnet, der um das Niederempfindlichkeitspixel 301 herum bereitgestellt ist.
  • Des Weiteren ist bei der ersten Modifikation der dritten Ausführungsform die Breite W5 des Grabenlichtabschirmungsteils 303sml, der um jedes Niederempfindlichkeitspixel 301 herum angeordnet ist, dicker als die Breite des Grabenlichtabschirmungsteils 303bg gebildet, der zwischen den Hochempfindlichkeitspixeln 300 angeordnet ist. Das heißt, bei der ersten Modifikation der dritten Ausführungsform wird die Breite W5 des Grabenlichtabschirmungsteils 303sml zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301, das eine Unterdrückung von Nebensprechen am meisten benötigt, im Voraus in der Stufe von Lithografie dick gebildet. Dies ermöglicht es, die Tiefe des Grabenlichtabschirmungsteils 303sml absichtlich so zu bilden, dass sie tief ist.
  • Als ein Beispiel würde, obwohl das Vertiefen des Grabenlichtabschirmungsteils 303bg zwischen den Hochempfindlichkeitspixeln 300 die Dunkelzeitcharakteristiken aufgrund der Beziehung zu der Position der Floating-Diffusion-Schicht (zum Beispiel des in 12A veranschaulichten Akkumulationsteils 302 oder dergleichen) verschlechtern würde, die oberhalb der Verdrahtungsschicht 271 angeordnet ist, das Vertiefen des Grabenlichtabschirmungsteils 303sml zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 die Dunkelzeitcharakteristiken in manchen Fällen nicht verschlechtern. In einem solchen Fall ist es möglich, die Tiefe des Grabenlichtabschirmungsteils 303sml, der zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 angeordnet ist, zu erhöhen, ohne durch die Tiefe des Grabenlichtabschirmungsteils 303bg beschränkt zu sein, der zwischen den Hochempfindlichkeitspixeln 300 angeordnet ist. Dies ermöglicht es, das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken.
  • (4-2. Zweite Modifikation)
  • Als Nächstes wird eine zweite Modifikation der dritten Ausführungsform beschrieben. Bei der zweiten Modifikation der dritten Ausführungsform wird zusätzlich zu dem Empfindlichkeitsunterschied aufgrund des Unterschieds der Fläche zwischen den Hochempfindlichkeitspixeln 300 und den Niederempfindlichkeitspixeln 301 die Breite des Grabenlichtabschirmungsteils 303, der zwischen den Pixeln angeordnet ist, gemäß dem Empfindlichkeitsunterschied aufgrund anderer Faktoren im Vergleich zu der ersten Modifikation der dritten Ausführungsform, die zuvor beschrieben wurde, geändert.
  • 25 ist ein schematisches Diagramm, das ein Konfigurationsbeispiel des Grabenlichtabschirmungsteils 303 gemäß der zweiten Modifikation der dritten Ausführungsform veranschaulicht. 25 ist eine Draufsicht bei Betrachtung von der gegenüberliegenden Seite der Einfallsoberfläche des Pixels, zum Beispiel der Seite der Verdrahtungsschicht 271 in 9.
  • Bei dem Beispiel aus 25 sind die Hochempfindlichkeitspixel 300R1 und 300R2 und Niederempfindlichkeitspixel 301R1 und 301R2 rote Pixel, die jeweils mit einem Farbfilter versehen sind, das Licht einer roten Wellenlängenkomponente transmittiert. Ein Einheitspixel ist durch einen Satz aus dem Hochempfindlichkeitspixel 300R1 und dem Niederempfindlichkeitspixel 301R1 und durch einen Satz aus dem Hochempfindlichkeitspixel 300R2 und dem Niederempfindlichkeitspixel 301R2 gebildet.
  • Des Weiteren sind die Hochempfindlichkeitspixel 300G1 und 300G2 und Niederempfindlichkeitspixel 301G1 und 301G3 grüne Pixel, die jeweils mit einem Farbfilter versehen sind, das Licht einer grünen Wellenlängenkomponente transmittiert. Ein Einheitspixel ist durch jeden eines Satzes aus dem Hochempfindlichkeitspixel 300G1 und dem Niederempfindlichkeitspixel 301G1 und durch einen Satz aus dem Hochempfindlichkeitspixel 300G3 und dem Niederempfindlichkeitspixel 301G3 gebildet. Des Weiteren ist jedes von Hochempfindlichkeitspixeln 300B1 und 300B2 und einem Niederempfindlichkeitspixels 301B1 ein blaues Pixel, das mit einem Farbfilter versehen ist, das Licht einer blauen Wellenlängenkomponente transmittiert. Ein Satz aus dem Hochempfindlichkeitspixel 300B1 und dem Niederempfindlichkeitspixel 301B1 stellt ein Einheitspixel dar.
  • In 25 sind ein Einheitspixel, das ein Hochempfindlichkeitspixel 300B2 und ein Niederempfindlichkeitspixel (nicht veranschaulicht) beinhaltet, das dem Hochempfindlichkeitspixel 300B2 entspricht, ein Einheitspixel, das das Hochempfindlichkeitspixel 300G1 und das Niederempfindlichkeitspixel 301G1 beinhaltet, und ein Einheitspixel, das das Hochempfindlichkeitspixel 300B1 und das Niederempfindlichkeitspixel 301B1 beinhaltet, sequentiell in der Spaltenrichtung aneinander angrenzend angeordnet. Des Weiteren sind ein Einheitspixel, das das Hochempfindlichkeitspixel 300R1 und das Niederempfindlichkeitspixel 301R1 beinhaltet, ein Einheitspixel, das das Hochempfindlichkeitspixel 300G1 und das Niederempfindlichkeitspixel 301G1 beinhaltet, und ein Einheitspixel, das das Hochempfindlichkeitspixel 300R2 und das Niederempfindlichkeitspixel 301R2 beinhaltet, sequentiell in der Zeilenrichtung aneinander angrenzend angeordnet.
  • Hier tritt in jedem der Hochempfindlichkeitspixel 300 und jedem der Niederempfindlichkeitspixel 301 der Empfindlichkeitsunterschied nicht nur aufgrund eines Unterschieds der Größe auf, sondern auch zum Beispiel aufgrund des Unterschieds von Farbfiltern. Zum Beispiel weist im Vergleich zu Pixeln mit der gleichen Fläche und Struktur, insbesondere im Vergleich zwischen dem Pixel, das mit einem Farbfilter versehen ist, das Licht einer grünen Wellenlängenkomponente transmittiert (nachfolgend als ein G-Pixel bezeichnet), und dem Pixel, das mit einem Farbfilter versehen ist, das Licht einer blauen Wellenlänge transmittiert (nachfolgend als ein B-Pixel bezeichnet), das G-Pixel typischerweise eine höhere Empfindlichkeit auf. Des Weiteren weist im Vergleich zwischen dem G-Pixel und einem Pixel, das mit einem Farbfilter versehen ist, das Licht einer roten Wellenlängenkomponente transmittiert (nachfolgend als ein R-Pixel bezeichnet), das G-Pixel typischerweise eine höhere Empfindlichkeit auf. Die Reihenfolge der Empfindlichkeit des R-Pixels, des G-Pixels und des B-Pixels ist zum Beispiel „G-Pixel > R-Pixel > B-Pixel“ .
  • Als ein Beispiel wird die Breite des Grabenlichtabschirmungsteils 303sml, der zum Beispiel an der Pixelgrenze zwischen dem Hochempfindlichkeitspixel 300, das ein Hochempfindlichkeit-G-Pixel ist, und dem Niederempfindlichkeitspixel 301, das ein Niederempfindlichkeit-R-Pixel ist, wobei das Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 am bedeutendsten wird, im Voraus in der Stufe von Lithografie dick gebildet. Mit dieser Konfiguration ist es, ähnlich dem Fall der ersten Modifikation der dritten Ausführungsform, die zuvor beschrieben ist, auch möglich, den Grabenlichtabschirmungsteil 303 selektiv so zu bilden, dass er bei dem Teil tief ist, wo das Nebensprechen am meisten unterdrückt werden soll, und durch Bilden der anderen Teile flach ist es auch möglich, die Dunkelzeitcharakteristiken zu verbessern.
  • Als ein Beispiel wird in 25 zum Beispiel in einem Fall, in dem Farbfilter, die Licht derselben Wellenlängenkomponente transmittieren, in dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 bereitgestellt sind, die aneinander angrenzen, die Breite des Grabenlichtabschirmungsteils 303sml, der an der Grenze zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 angeordnet ist, als eine Referenz betrachtet. Bei dem Beispiel aus 25 werden die Breite W11 des Grabenlichtabschirmungsteils 303sml2 an der Grenze, wo das Hochempfindlichkeitspixel 300R1 und das Niederempfindlichkeitspixel 301R1, die R-Pixel sind, aneinander angrenzen, und die Breite des Grabenlichtabschirmungsteils 303sml1 an der Grenze, wo das Hochempfindlichkeitspixel 300G1 und das Niederempfindlichkeitspixel 301G1, die G-Pixel sind, aneinander angrenzen, als die Referenzbreiten definiert.
  • Als ein erstes Beispiel wird ein Fall beschrieben, in dem ein Farbfilter unter Verwendung einer Niederempfindlichkeitsfarbe in dem Niederempfindlichkeitspixel 301 bereitgestellt ist und ein Farbfilter unter Verwendung einer Hochempfindlichkeitsfarbe in dem Hochempfindlichkeitspixel 300 bereitgestellt ist. In diesem Fall wird der Empfindlichkeitsunterschied aufgrund des Farbfilters zu dem Empfindlichkeitsunterschied aufgrund des Unterschiedes der Fläche zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 addiert und dies erhöht den Empfindlichkeitsunterschied zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301.
  • Bei dem Beispiel aus 25 wird eine Breite W13 des Grabenlichtabschirmungsteils 303sml3, der um das Niederempfindlichkeitspixel 301B1 herum angeordnet ist, das ein B-Pixel ist, insbesondere die Breite W13 eines Teils, der an der Grenze angrenzend an das Hochempfindlichkeitspixel 300G1 angeordnet ist, das ein G-Pixel ist, so gebildet, dass sie größer als die Referenzbreite ist. Gleichermaßen wird eine Breite W10 des Grabenlichtabschirmungsteils 303sml2, der um das Niederempfindlichkeitspixel 301R1 herum angeordnet ist, das ein R-Pixel ist, insbesondere die Breite W10 eines Teils, der an der Grenze angrenzend an die Hochempfindlichkeitspixel 300G1 und 300G2 angeordnet ist, die G-Pixel sind, so gebildet, dass sie größer als die Referenzbreite ist.
  • Als ein zweites Beispiel wird ein Fall beschrieben, in dem ein Farbfilter unter Verwendung einer Hochempfindlichkeitsfarbe in dem Niederempfindlichkeitspixel 301 bereitgestellt ist und ein Farbfilter unter Verwendung einer Niederempfindlichkeitsfarbe in dem Hochempfindlichkeitspixel 300 bereitgestellt ist. Da der Empfindlichkeitsunterschied aufgrund des Unterschieds der Fläche zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 zu einem gewissen Ausmaß durch den Empfindlichkeitsunterschied aufgrund des Farbfilters aufgehoben wird, verringert dies in diesem Fall den Empfindlichkeitsunterschied zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301.
  • Bei dem Beispiel aus 25 wird eine Breite W12 des Grabenlichtabschirmungsteils 303sml4, der um das Niederempfindlichkeitspixel 301G3 herum angeordnet ist, das ein G-Pixel ist, insbesondere die Breite W12 eines Teils, der an der Grenze angrenzend an das Hochempfindlichkeitspixel R1 angeordnet ist, das ein R-Pixel ist, so gebildet, dass sie äquivalent zu der Referenzbreite W11 ist. Gleichermaßen wird eine Breite des Grabenlichtabschirmungsteils 303sml, der um das Niederempfindlichkeitspixel 301G1 herum angeordnet ist, das ein G-Pixel ist, insbesondere die Breite eines Teils, der an der Grenze angrenzend an das Hochempfindlichkeitspixel B2 angeordnet ist, das ein B-Pixel ist, so gebildet, dass sie äquivalent zu der Referenzbreite W11 ist.
  • Es wird angemerkt, dass, falls ein Farbfilter unter Verwendung einer Hochempfindlichkeitsfarbe in einem der zwei angrenzenden Hochempfindlichkeitspixel 300 bereitgestellt wird und ein Farbfilter mit einer hohen Empfindlichkeit in dem anderen bereitgestellt wird, die Breite des Grabenlichtabschirmungsteils 303bg, der zwischen den Hochempfindlichkeitspixeln 300 angeordnet ist, nicht geändert wird.
  • [5. Vierte Ausführungsform]
  • Als Nächstes wird eine vierte Ausführungsform der vorliegenden Offenbarung beschrieben. Die vierte Ausführungsform betrifft eine Konfiguration, die zum Verhindern von Lecken von Licht in angrenzende Pixel in dem CMOS-Bildsensor 10 als das zuvor beschriebene Bildgebungselement bereitgestellt wird.
  • (5-0. Bezüglich bekannter Technology)
  • Zuerst wird eine bekannte Technologie bezüglich der vierten Ausführungsform beschrieben. Patentliteratur 4 offenbart eine Technik zum Verbessern eines Effekts des Unterdrückens einer Farbvermischung (Effekt des Unterdrückens von Nebensprechen) zwischen angrenzenden Pixeln durch Verbessern einer Lichtabschirmungsstruktur zwischen den Pixeln. Ein Beispiel für eine Zwischenpixellichtabschirmungsstruktur gemäß Patentliteratur 4 als eine existierende Technologie wird unter Bezugnahme auf 26 beschrieben.
  • 26 ist eine Querschnittsansicht, die einen Querschnitt eines Beispiels für ein Festkörperbildgebungselement gemäß einer bekannten Technik in einer Einfallsrichtung von einfallendem Licht H veranschaulicht. Wie in 3 veranschaulicht, beinhaltet das Festkörperbildgebungselement innerhalb eines Halbleitersubstrats 2000 eine Fotodiode 2004 und einen Pixelisolationsteil 2020, die ein Pixel P darstellen. Hier sind die Komponenten auf dem Halbleitersubstrat 2000 bereitgestellt, das aus gedünntem monokristallinem Silicium gebildet ist. Auf der hinteren Oberfläche (oberen Oberfläche in 26) des Halbleitersubstrats 2000 sind Elemente, wie etwa ein Farbfilter CF und eine Mikrolinse ML, bereitgestellt. Die Pixel P sind zum Beispiel in einem gitterartigen Array angeordnet und stellen ein Pixelarray dar.
  • Andererseits ist die vordere Oberfläche (untere Oberfläche in 26) des Halbleitersubstrats 2000 mit einer Verdrahtung/Schaltkreis-Schicht 2010 versehen, auf der ein Pixelschaltkreis und eine Verdrahtung (nicht veranschaulicht) bereitgestellt sind. In der Verdrahtung/Schaltkreis-Schicht 2010 ist ein Stützsubstrat (nicht veranschaulicht) auf der Oberfläche gegenüber der Seite des Halbleitersubstrats 2000 bereitgestellt.
  • Das einfallende Licht H, das von der Seite der hinteren Oberfläche (oberen Oberfläche in 26) des Halbleitersubstrats 2000 einfällt, wird durch die Fotodiode 2004 empfangen. Wie in 26 veranschaulicht, sind das Farbfilter (optisches Filter) CF und die Mikrolinse ML oberhalb der Fotodiode 2004 bereitgestellt und das einfallende Licht H, das sequentiell durch diese Einheiten einfällt, wird durch eine Lichtempfangsoberfläche JS empfangen und durchläuft eine fotoelektrische Umwandlung.
  • In der Fotodiode 2004 ist ein n-Typ-Halbleitergebiet 2000n, das als ein Ladungsakkumulationsgebiet gebildet ist, das Ladungen akkumuliert, innerhalb von p-Typ-Halbleitergebieten 2000pa und 2000pc des Halbleitersubstrats 2000 bereitgestellt.
  • In einer Festkörperbildgebungsvorrichtung 1 ist die Mikrolinse ML auf der oberen Oberfläche des Farbfilters CF auf der Seite der hinteren Oberfläche (oberen Oberfläche in 26) des Halbleitersubstrats 2000 bereitgestellt. Die Mikrolinse ML ist mehrfach angeordnet, so dass sie jedem Pixel P entspricht. Die Mikrolinse ML ist eine konvexe Linse, die aus einem organischen Material, wie etwa Harz, gebildet ist und in einer konvexen Form auf der Seite der hinteren Oberfläche des Halbleitersubstrats 2000 hervorsteht, und ist zum Sammeln des einfallenden Lichts H zu der Fotodiode 2004 jedes Pixels P konfiguriert.
  • Das Halbleitersubstrat 2000 beinhaltet intern den Pixelisolationsteil 2020, der die mehreren Pixel P elektrisch voneinander isoliert, und die Fotodiode 2004 ist in einem Gebiet des Pixels P bereitgestellt, das durch den Pixelisolationsteil 2020 unterteilt ist.
  • Der Pixelisolationsteil 2020 wird beschrieben. In der Festkörperbildgebungsvorrichtung ist der Pixelisolationsteil 2020 so gebildet, dass er die mehreren Pixel P innerhalb des Halbleitersubstrats 2000 unterteilt. Außerdem isoliert der Pixelisolationsteil 2020 die mehreren Pixel P elektrisch voneinander. Das heißt, die Fotodioden 2004 der Pixel P sind elektrisch voneinander separiert.
  • In dem Pixelisolationsteil 2020, der sich zwischen den mehreren Pixeln P befindet, sind die p-Typ-Halbleitergebiete 2000pa und 2000pc zwischen den n-Typ-Halbleitergebieten 2000n bereitgestellt, die das Ladungsakkumulationsgebiet der Fotodiode 2004 darstellen. In dem Halbleitersubstrat 2000 ist ein Graben TR in einem Teil bereitgestellt, der sich auf der Seite der hinteren Oberfläche (oberen Oberfläche), auf der das einfallende Licht H eintritt, und auf einer Seite der Fotodiode 2004 befindet.
  • Insbesondere ist der Graben TR so gebildet, dass er einen ersten Graben TR1 und einen zweiten Graben TR2 beinhaltet. Hier ist der erste Graben TR1 in einem tiefen Teil des Halbleitersubstrats 2000 bereitgestellt.
  • Der zweite Graben TR2 ist in einem Teil, der flacher als der erste Graben TR1 ist, in dem Halbleitersubstrat 2000 gebildet. Das heißt, die Gräben TR sind so gebildet, dass der zweite Graben TR2 eine Seitenoberfläche aufweist, die sich von der hinteren Oberfläche (oberen Oberfläche) des Halbleitersubstrats 2000 vertikal abwärts erstreckt, und der erste Graben TR1 eine Seitenoberfläche aufweist, die sich von dem zentralen Teil der unteren Oberfläche des zweiten Grabens TR2 vertikal abwärts erstreckt. Außerdem ist der zweite Graben TR2 so gebildet, dass er breiter (dicker) als der erste Graben TR1 ist.
  • Des Weiteren sind bei diesem Beispiel die Gräben TR so gebildet, dass sie in einer Richtung entlang der hinteren Oberfläche (oberen Oberfläche des Halbleitersubstrats 2000 zwischen den mehreren Pixeln P symmetrisch sind.
  • Der Pixelisolationsteil 2020 beinhaltet eine Pinning-Schicht 2003, einen Isolationsfilm 2002 und eine Lichtabschirmungsschicht 2001 und diese Teile sind innerhalb des Grabens TR bereitgestellt. Der Isolationsfilm 2002 ist so gebildet, dass er die Innenoberfläche des zweiten Grabens TR2, der oberhalb des ersten Grabens TR1 gebildet ist, in einem flachen Teil des Halbleitersubstrats 2000 bedeckt. Zusätzlich zu dem Pixelisolationsteil 2020 ist der Isolationsfilm 2002 so gebildet, dass er die Lichtempfangsoberfläche JS über die Pinning-Schicht 2003 auf der hinteren Oberfläche (oberen Oberfläche) des Halbleitersubstrats 2000 bedeckt.
  • Die Lichtabschirmungsschicht 2001 ist so gebildet, dass sie das Innere des zweiten Grabens TR2 über die Pinning-Schicht 2003 und den Isolationsfilm 2002 in einem flachen Teil des Halbleitersubstrats 2000 füllt. Die Lichtabschirmungsschicht 2001 ist aus einem Metallmaterial mit einer starken Lichtabschirmungseigenschaft, wie etwa Wolfram (W) oder Aluminium (Al), gebildet.
  • Auf diese Weise ist die in Patentliteratur 4 vorgeschlagene Struktur eine Zwischenpixellichtabschirmungsstruktur (nachfolgend als eine B-Rückseitentiefgrabenisolation (B-RDTI: B-Rear Deep Trench Isolation) bezeichnet) mit zwei Arten von Gräben TR (dem ersten Graben TR1 und dem zweiten Graben TR2) mit unterschiedlichen Breiten zwischen den Pixeln P, wobei die Breite des zweiten Grabens TR2 auf der hinteren Oberflächenseite (der oberen Oberfläche in 26) breiter als die Breite des ersten Grabens TR1 auf der tiefen Seite des Halbleitersubstrats 2000 im Vergleich zu den Gräben TR ist. Das Einbetten der Lichtabschirmungsschicht 2001 innerhalb des zweiten Grabens TR2 verbessert den Farbvermischungsunterdrückungseffekt. Es wird angemerkt, dass in Patentliteratur 4 das angewandte Pixellayout auf ein gitterartiges Layout beschränkt ist, in dem einzelne Pixel in einem Matrixarray angeordnet sind.
  • Bei der Technik aus Patentliteratur 4 ist es, obwohl der Farbvermischungsunterdrückungseffekt durch die Lichtabschirmungsschicht 2001 verbessert wird, erforderlich, die Breite des zweiten Grabens TR2 mit Bezug auf den ersten Graben TR1 zu verbreitern, um die Lichtabschirmungsschicht 2001 einzubetten. Daher würde eine Abnahme der Öffnungsfläche (Fläche der Lichtempfangsoberfläche) des Pixels P und eine Abnahme des Volumens der Fotodiode 2004 die Empfindlichkeit des Pixels P und die Sättigung der Fotodiode 2004 verringern.
  • (5-1. Bezüglich der vierten Ausführungsform)
  • (5-1-1. Überblick der vierten Ausführungsform)
  • In Anbetracht davon wendet die vierte Ausführungsform der vorliegenden Offenbarung die zuvor beschriebene bekannte Technologie auf die Strukturen des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 gemäß der vorliegenden Offenbarung an und ordnet den ersten Graben TR1 und den zweiten Graben TR2, in dem die Lichtabschirmungsschicht 2001 eingebettet ist, derart an, dass ihre Positionsbeziehung asymmetrisch mit Bezug auf die Grenze zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 ist. Dies ermöglicht es, einen Farbvermischungsunterdrückungseffekt zu verbessern, der ein Problem ist, falls die Hochempfindlichkeitspixel 300 und die Niederempfindlichkeitspixel 301 angeordnet sind, während eine Verschlechterung wichtiger Charakteristiken, wie etwa Pixelempfindlichkeit und Sättigungscharakteristiken der Fotodiode, das heißt des ersten fotoelektrischen Umwandlungselements 101 (siehe 3 und 4), unterdrückt wird.
  • Des Weiteren ist bei der vierten Ausführungsform der vorliegenden Offenbarung der zweite Graben TR2 so angeordnet, dass er näher an der Seite des Niederempfindlichkeitspixels 301 ist. Dies ermöglicht es, eine Abnahme der Empfindlichkeit des Pixels in dem Hochempfindlichkeitspixel 300 und eine Abnahme der Sättigungscharakteristik des ersten fotoelektrischen Umwandlungselements 101 aufgrund einer Zunahme der Breite des zweiten Grabens TR2 durch Einbetten der Lichtabschirmungsschicht zu unterdrücken.
  • Das heißt, durch Anordnen des zweiten Grabens TR2, in dem der Lichtabschirmungsfilm eingebettet ist, derart, dass er näher an der Seite des Niederempfindlichkeitspixels 301 ist, ist es möglich, eine Verschlechterung der Empfindlichkeit des Hochempfindlichkeitspixels 300 und der Sättigungscharakteristik des ersten fotoelektrischen Umwandlungselements 101 zu unterdrücken. Andererseits ist das Niederempfindlichkeitspixel 301 so gestaltet, dass es eine geringe Empfindlichkeit aufweist, und die Sättigungscharakteristik der Fotodiode (des zweiten fotoelektrischen Umwandlungselements 102) wird durch die In-Pixel-Kapazität, das heißt den Ladungsakkumulationsteil 111 (siehe 3 und 4), bestimmt. Daher wird das Niederempfindlichkeitspixel 301 weniger durch die Öffnungsfläche (Fläche der Lichtempfangsoberfläche) beeinträchtigt, die durch Anordnen des zweiten Grabens TR2 näher an dem Niederempfindlichkeitspixel 301 bewirkt wird und durch die Abnahme des Volumens des zweiten fotoelektrischen Umwandlungselements 102 bewirkt wird.
  • Daher ist es durch Anwenden der Konfiguration gemäß der vierten Ausführungsform möglich, den Einfluss auf das Empfindlichkeitsverhältnis des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 zu unterdrücken, was bei der Konfiguration unter Verwendung des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 wichtig ist, was zu einer Erlangung eines stärken Farbvermischungsunterdrückungseffekts führt.
  • Des Weiteren ist ein anderer Effekt, der durch die Konfiguration gemäß der vierten Ausführungsform erhalten wird, dass es möglich ist, ein asymmetrisches Layout mit Bezug auf die Grenze zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 in einem optisch schwarzen Gebiet (zum Beispiel dem Zwischenpixellichtabschirmungsteil 181) zu verwenden, ohne eine Verschlechterung von Schrägeinfallscharakteristiken aufgrund eines schrägen Einfalls von einfallendem Licht auf das fotoelektrische Umwandlungselement zu betrachten. Dies ermöglicht es, den Freiheitsgrad beim Gestalten bezüglich einer Anpassung von Charakteristiken, wie etwa zum Beispiel des Empfindlichkeitsverhältnisses des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301, zu verbessern.
  • Insbesondere muss gemäß der bekannten Technologie das Layout des optisch schwarzen Gebiets unter ausreichender Berücksichtigung des Kompromisses zwischen der Schrägeingangscharakteristik und den Empfindlichkeitsverhältnischarakteristiken gestaltet werden. Eine Anwendung der Konfiguration gemäß der vierten Ausführungsform ermöglicht es, eine Berücksichtigung dieses Kompromisses wegzulassen.
  • (5-1-2. Spezielle Beschreibung der vierten Ausführungsform)
  • Als Nächstes wird die vierte Ausführungsform spezieller beschrieben. 27 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß einer vierten Ausführungsform veranschaulicht. 27 veranschaulicht schematisch einen Querschnitt in einer Ausrichtungsrichtung der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 und lässt Veranschaulichungen von Teilen weg, die nicht tief mit der Beschreibung der vierten Ausführungsform in Zusammenhang stehen.
  • Ähnlich zu 26 definiert 27 die obere Seite der Halbleiterschicht 330 als die Seite der hinteren Oberfläche und die untere Seite als die Seite der vorderen Oberfläche. Die Verdrahtungsschicht 271 ist auf der Seite der vorderen Oberfläche der Halbleiterschicht 330 bereitgestellt. Auf der Seite der hinteren Oberfläche der Halbleiterschicht 330 sind ein optisches Filter (Farbfilter CF bei diesem Beispiel) und eine On-Chip-Linse 322 über einen Zwischenschichtisolationsfilm 323 bereitgestellt.
  • Grabenlichtabschirmungsteile 303a, 303b und 303c werden bereitgestellt, indem sie in der Schichtrichtung von dem Zwischenschichtisolationsfilm 323 zu der Seite der vorderen Oberfläche der Halbleiterschicht 330 mit Bezug auf die Grenze jedes Farbfilters CF, das heißt jede Grenze des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301, herabgegraben werden. In 27 entspricht in der Halbleiterschicht 330 ein Gebiet, das durch den Grabenlichtabschirmungsteil 303a und den Grabenlichtabschirmungsteil 303b unterteilt ist, dem ersten fotoelektrischen Umwandlungselement 101 und entspricht ein Gebiet, das durch den Grabenlichtabschirmungsteil 303b und den Grabenlichtabschirmungsteil 303c unterteilt ist, dem zweiten fotoelektrischen Umwandlungselement 102.
  • Ein Zwischenpixellichtabschirmungsteil 351, der dem zuvor beschriebenen Zwischenpixellichtabschirmungsteil 181 entspricht, ist als ein optisch schwarzes Gebiet auf der Unterseite (dem oberem Ende in 27) von jedem der Grabenlichtabschirmungsteile 303a, 303b und 303c bereitgestellt und die Lichtabschirmungswand 350 wird dadurch bereitgestellt, dass sie in der Schichtrichtung von dem Zwischenpixellichtabschirmungsteil 351 herabgegraben wird. Die Lichtabschirmungswand 350 entspricht der Lichtabschirmungsschicht 2001 in 26 und ist zum Beispiel aus Wolfram (W) als ein Material gebildet. Das Material ist nicht darauf beschränkt und die Lichtabschirmungswand 350 kann aus einem anderen Material mit einer starken Lichtabschirmungseigenschaft, wie etwa Aluminium (Al), gebildet sein.
  • Hier wird in jedem der Grabenlichtabschirmungsteile 303a, 303b und 330c ein Teil, der die Lichtabschirmungswand 350 nicht beinhaltet, als ein erster Grabenlichtabschirmungsteil 303TR1 bezeichnet, und wird ein Teil, der die Lichtabschirmungswand 350 beinhaltet, als ein zweiter Grabenlichtabschirmungsteil 303TR2 bezeichnet. In jedem der Grabenlichtabschirmungsteile 303a, 303b und 303c ist die Breite (Dicke) des zweiten Grabenlichtabschirmungsteils 303TR2 größer (dicker) als die Breite (Dicke) des ersten Grabenlichtabschirmungsteils 303TR1.
  • Des Weiteren ist jede Lichtabschirmungswand 350 nahe der Seite des Niederempfindlichkeitspixels 301 in jedem zweiten Grabenlichtabschirmungsteil 303TR2 bereitgestellt. Bei dem Beispiel aus 27 befindet sich in dem Grabenlichtabschirmungsteil 303a das Hochempfindlichkeitspixel 300 auf der linken Seite in der Figur, während sich das Niederempfindlichkeitspixel 301 (nicht veranschaulicht) auf der rechten Seite befindet. In dem zweiten Grabenlichtabschirmungsteil 303TR2 des Grabenlichtabschirmungsteils 303a ist die Lichtabschirmungswand 350 so bereitgestellt, dass sie näher an der rechten Seite mit Bezug auf die Grenze 310 zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 ist.
  • Gleichermaßen weist der Grabenlichtabschirmungsteil 303b das Hochempfindlichkeitspixel 300 auf der rechten Seite und das Niederempfindlichkeitspixel 301 auf der linken Seite in der Figur auf. In dem zweiten Grabenlichtabschirmungsteil 303TR2 des Grabenlichtabschirmungsteils 303b ist die Lichtabschirmungswand 350 näher an der linken Seite mit Bezug auf die Grenze 310 zwischen dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 bereitgestellt.
  • 28 ist ein schematisches Diagramm, das eine Beziehung zwischen der Lichtabschirmungswand 350 gemäß der vierten Ausführungsform und dem ersten Grabenlichtabschirmungsteil 303TR1 und dem zweiten Grabenlichtabschirmungsteil 303TR2 veranschaulicht. In 28 befindet sich das Hochempfindlichkeitspixel 300 auf der rechten Seite, während sich das Niederempfindlichkeitspixel 301 auf der linken Seite befindet. Außerdem ist die Breite (Dicke) des ersten Grabenlichtabschirmungsteils 303TR1 auf eine Breite W20 eingestellt und ist die Breite (Dicke) des zweiten Grabenlichtabschirmungsteils 303TR2 auf eine Breite W21 eingestellt.
  • Die Lichtabschirmungswand 350 und der erste Grabenlichtabschirmungsteil 303TR1 und der zweite Grabenlichtabschirmungsteil 303TR2 müssen die folgenden Beziehungen erfüllen.
  • (1) Die Beziehung zwischen der Breite w20 und der Breite w21 muss [w20 < w21] erfüllen.
  • (2) Ein Teil der Differenz (w21 - w20) der Breite von dem ersten Grabenlichtabschirmungsteil 303TR1 in dem zweiten Grabenlichtabschirmungsteil 303TR2 steht zu dem Niederempfindlichkeitspixel 301 hin mit Bezug auf den ersten Grabenlichtabschirmungsteil 303TR1 hervor und steht nicht zu dem Hochempfindlichkeitspixel 300 hin hervor.
  • Dies unterdrückt das Auftreten einer Verschlechterung der Empfindlichkeit in dem Hochempfindlichkeitspixel 300 und einer Verschlechterung der Sättigungscharakteristiken des ersten fotoelektrischen Umwandlungselements 101, die bei dem zuvor beschriebenen Beispiel aus 26 auftreten.
  • (3) Des Weiteren ist die Lichtabschirmungswand 350 derart bereitgestellt, dass sich ihr Ende auf der Seite des Hochempfindlichkeitspixels 300 wenigstens in Kontakt mit einer Erweiterungslinie 370 des Außenrandes des ersten Grabenlichtabschirmungsteils 303TR1 auf der Seite des Niederempfindlichkeitspixels 301 befindet. Die Lichtabschirmungswand 350 kann über der Erweiterungslinie 370 überlappen.
  • (4) Des Weiteren muss die Lichtabschirmungswand 350 so bereitgestellt werden, dass sie die Breite (Dicke) des ersten Grabenlichtabschirmungsteils 303TR1 nicht überschreitet.
  • Es wird angemerkt, dass die Länge (Tiefe) der Lichtabschirmungswand 350 gemäß verschiedenen Bedingungen, einschließlich der Größen des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301, bestimmt wird. Als ein Beispiel ist es unter Bezugnahme auf 27 in einem Fall, in dem die Größe des Hochempfindlichkeitspixels 300 derart ist, dass zum Beispiel die Länge und die Höhe (Tiefe) zwischen dem Grabenlichtabschirmungsteil 303a und dem Grabenlichtabschirmungsteil 303b jeweils 3 [µm] betragen, denkbar, die Länge (Tiefe) der Lichtabschirmungswand 350 auf einige 100 [nm], zum Beispiel etwa 300 [nm] bis 400 [nm], einzustellen.
  • 29 ist ein schematisches Diagramm, das die Anordnung der Lichtabschirmungswand 350 gemäß der vierten Ausführungsform veranschaulicht. 29 ist eine Draufsicht der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301, die auf eine vorbestimmte Weise bei Betrachtung von der Lichtempfangsoberflächenseite angeordnet sind. Bei dem Beispiel aus 29 ist der Zwischenpixellichtabschirmungsteil 351 als ein optisch schwarzes Gebiet auf dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 bereitgestellt. Mit andere Worten ist der Zwischenpixellichtabschirmungsteil 351 kontinuierlich bereitgestellt, wobei er allen Seiten des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 entspricht.
  • Es wird angemerkt, dass die „Seiten“ der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 hier Seiten von Pixeln in einem Fall angeben, in dem Pixel bis zur Grenze 310 als Pixel definiert sind.
  • Bei der vierten Ausführungsform ist die Lichtabschirmungswand 350 auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt. Für das Hochempfindlichkeitspixel 300 ist die Lichtabschirmungswand 350 so bereitgestellt, dass sie auf einer Seite isoliert ist, wo die Hochempfindlichkeitspixel 300 aneinander angrenzen. Mit anderen Worten ist auf der Seite, wo die Hochempfindlichkeitspixel 300 aneinander angrenzen, die Lichtabschirmungswand 350 mit einer Lücke an beiden Enden der Seite versehen. Auf diese Weise ist es durch Versehen der Lichtabschirmungswand 350 mit einer Lücke an beiden Enden der Seite möglich, die Überschneidung zwischen der Lichtabschirmungswand 350, die auf der angrenzenden Seite bereitgestellt ist, und der Lichtabschirmungswand 350, die auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt ist, zu verhindern, wodurch es ermöglicht wird, die lokale Zunahme der Tiefe und Breite der Lichtabschirmungswand 350 aufgrund des Microloading-Effekts zu unterdrücken.
  • 30 ist ein schematisches Diagramm, das einen Lichtabschirmungseffekt, der durch die Pixelstruktur gemäß der vierten Ausführungsform erzielt wird, veranschaulicht. In 30 veranschaulicht Abschnitt (a) ein Beispiel für eine Pixelstruktur gemäß einer bekannten Technologie ohne die Lichtabschirmungswand 350 gemäß der vierten Ausführungsform, während Abschnitt (b) ein Beispiel für eine Pixelstruktur mit der Lichtabschirmungswand 350 gemäß der vierten Ausführungsform veranschaulicht.
  • Es wird angemerkt, dass Abschnitte (a) und (b) in 30, ähnlich zu 27, die zuvor beschrieben wurde, jeweils schematisch Querschnitte in der Ausrichtungsrichtung der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 veranschaulichen und Veranschaulichungen von Teilen weglassen, die nicht tief mit der Beschreibung der vierten Ausführungsform in Zusammenhang stehen.
  • In dem Abschnitt (a) aus 30 weist jeder der Grabenlichtabschirmungsteile 303a', 303b' und 303c' den Zwischenpixellichtabschirmungsteil 351 auf, aber beinhaltet nicht die Lichtabschirmungswand 350. Hier wird zum Beispiel ein Fall untersucht, in dem Licht in der schrägen Richtung (Schrägeinfalllicht) durch das Farbfilter CF auf das Hochempfindlichkeitspixel 300 einfällt, wie durch einen Pfeil A angegeben. In diesem Fall fällt das schräg einfallende Licht durch den Grabenlichtabschirmungsteil 303a' auf das angrenzende Niederempfindlichkeitspixel 301 ein. Daher könnte es in dem Niederempfindlichkeitspixel 301 ein Auftreten einer Farbvermischung aufgrund von schräg einfallendem Licht, das durch Farbfilter CF einfällt, das in dem Hochempfindlichkeitspixel 300 bereitgestellt ist, mit dem Licht geben, das durch das Farbfilter CF einfällt, das in dem Niederempfindlichkeitspixel 301 bereitgestellt ist.
  • Im Gegensatz dazu wird in Abschnitt (b) aus 30 durch die Lichtabschirmungswand 350, die zum Beispiel aus Wolfram oder dergleichen gebildet ist, gleichermaßen unterdrückt, dass das schräg einfallende Licht, das durch das Farbfilter CF auf das Hochempfindlichkeitspixel 300 in der schrägen Richtung einfällt, wie durch einen Pfeil B angegeben ist, auf das Niederempfindlichkeitspixel 301 einfällt. Außerdem wird das Einfallen von schräg einfallendem Licht auf das Hochempfindlichkeitspixel 300 eines anderen Hochempfindlichkeitspixels 300, das an das Hochempfindlichkeitspixel 300 angrenzt, ebenfalls durch die Lichtabschirmungswand 350 unterdrückt.
  • Entsprechend kann die Pixelstruktur gemäß der vierten Ausführungsform eine Farbvermischung aufgrund von schräg einfallendem Licht unterdrücken. Zur gleichen Zeit gibt es in der Pixelstruktur gemäß der vierten Ausführungsform keine Abnahme der Fläche (Öffnungsfläche) der Lichtempfangsoberfläche in dem Hochempfindlichkeitspixel 300 und keine Abnahme des Volumens des ersten fotoelektrischen Umwandlungselements 101, was es ermöglicht, eine Verschlechterung der Empfindlichkeit und Verschlechterung von Sättigungscharakteristiken, wenn eine Kombination aus dem Hochempfindlichkeitspixel 300 und dem Niederempfindlichkeitspixel 301 als ein Einheitspixel verwendet wird, zu unterdrücken, was zu dem Erlangen eines Bildes mit höherer Qualität führt.
  • (5-2. Erste Modifikation)
  • Als Nächstes wird eine erste Modifikation der vierten Ausführungsform beschrieben. Die erste Modifikation der vierten Ausführungsform ist zum Beispiel ein Beispiel, bei dem im Vergleich zu der Pixelstruktur gemäß der zuvor beschriebenen vierten Ausführungsform die Lichtabschirmungswand 350 nur auf dem gesamten Umfang der Niederempfindlichkeitspixel 301 bereitgestellt ist und die Lichtabschirmungswand 350 nicht auf der Seite bereitgestellt ist, wo die Hochempfindlichkeitspixel 300 aneinander angrenzen.
  • 31 ist ein schematisches Diagramm, das eine Anordnung der Lichtabschirmungswand 350 gemäß der ersten Modifikation der vierten Ausführungsform veranschaulicht. Wie in 31 veranschaulicht, ist bei der ersten Modifikation der vierten Ausführungsform die Lichtabschirmungswand 350 auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt, das heißt auf allen Seiten des Niederempfindlichkeitspixels 301. Selbst in diesem Fall ist, ähnlich der zuvor beschriebenen vierten Ausführungsform, die Lichtabschirmungswand 350 auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt, um näher an dem Niederempfindlichkeitspixels 301 zu sein.
  • Andererseits ist in dem Hochempfindlichkeitspixel 300 die Lichtabschirmungswand 350 nicht auf der Seite bereitgestellt, wo die Hochempfindlichkeitspixel 300 aneinander angrenzen. Da die Lichtabschirmungswand 350 auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt ist, ist die Lichtabschirmungswand 350 auf der Seite bereitzustellen, wo das Hochempfindlichkeitspixel 300 und das Niederempfindlichkeitspixel 301 aneinander angrenzen. Des Weiteren ist die Lichtabschirmungswand 350, die für die Seite bereitgestellt ist, so angeordnet, dass sie näher an dem Niederempfindlichkeitspixel 301 ist.
  • Es wird angemerkt, dass der Zwischenpixellichtabschirmungsteil 351, ähnlich der zuvor beschriebenen vierten Ausführungsform, als ein optisch schwarzes Gebiet auf dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 bereitgestellt ist. Des Weiteren ist, wie unter Bezugnahme auf 28 beschrieben, der Grabenlichtabschirmungsteil 303 so bereitgestellt, dass er nicht zu dem Hochempfindlichkeitspixel 300 hin hervorsteht.
  • Selbst mit einer solchen Struktur ist es möglich, eine zuvor beschriebene Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken. Da es keine Abnahme der Fläche (Öffnungsfläche) der Lichtempfangsoberfläche und keine Abnahme des Volumens des ersten fotoelektrischen Umwandlungselements 101 in dem Hochempfindlichkeitspixel 300 gibt, ist es des Weiteren möglich, ein Bild mit höherer Qualität zu erhalten.
  • (5-3. Zweite Modifikation)
  • Als Nächstes wird eine zweite Modifikation der vierten Ausführungsform beschrieben. Die erste Modifikation der vierten Ausführungsform ist ein Beispiel, bei dem zum Beispiel im Vergleich zu der Pixelstruktur gemäß der zuvor beschriebenen vierten Ausführungsform die Lichtabschirmungswand 350 um das Hochempfindlichkeitspixel 300 und das Niederempfindlichkeitspixel 301 herum verbunden ist.
  • 32 ist ein schematisches Diagramm, das eine Anordnung der Lichtabschirmungswand 350 gemäß der zweiten Modifikation der vierten Ausführungsform veranschaulicht. Wie in 32 veranschaulicht, ist bei der zweiten Modifikation der vierten Ausführungsform die Lichtabschirmungswand 350 auf dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 bereitgestellt und sind die Lichtabschirmungswand 350, die auf dem gesamten Umfang des Hochempfindlichkeitspixels 300 bereitgestellt ist, und die Lichtabschirmungswand 350, die auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt ist, miteinander verbunden. Selbst in diesem Fall ist die Lichtabschirmungswand 350, die auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt ist, so angeordnet, dass sie näher an dem Niederempfindlichkeitspixels 301 ist.
  • Es wird angemerkt, dass der Zwischenpixellichtabschirmungsteil 351, ähnlich der zuvor beschriebenen vierten Ausführungsform, als ein optisch schwarzes Gebiet auf dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 bereitgestellt ist. Des Weiteren ist, wie unter Bezugnahme auf 28 beschrieben, der Grabenlichtabschirmungsteil 303 so bereitgestellt, dass er nicht zu dem Hochempfindlichkeitspixel 300 hin hervorsteht.
  • Selbst mit einer solchen Struktur ist es möglich, eine zuvor beschriebene Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken. Außerdem wird das Einfallen von schräg einfallendem Licht auf das Hochempfindlichkeitspixel 300 eines anderen Hochempfindlichkeitspixels 300, das an das Hochempfindlichkeitspixel 300 angrenzt, ebenfalls durch die Lichtabschirmungswand 350 unterdrückt. Da es keine Abnahme der Fläche (Öffnungsfläche) der Lichtempfangsoberfläche und keine Abnahme des Volumens des ersten fotoelektrischen Umwandlungselements 101 in dem Hochempfindlichkeitspixel 300 gibt, ist es des Weiteren möglich, ein Bild mit höherer Qualität zu erhalten.
  • (5-4. Dritte Modifikation)
  • Als Nächstes wird eine dritte Modifikation der vierten Ausführungsform beschrieben. Die dritte Modifikation der vierten Ausführungsform ist zum Beispiel ein Beispiel, bei dem im Vergleich zu der Pixelstruktur gemäß der zuvor beschriebenen vierten Ausführungsform der Zwischenpixellichtabschirmungsteil 351 asymmetrisch mit Bezug auf die Grenze 310 jedes des Hochempfindlichkeitspixels 300 und des Niederempfindlichkeitspixels 301 bereitgestellt ist.
  • 33 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß der dritten Modifikation der vierten Ausführungsform veranschaulicht. Ähnlich zu der obigen 27 veranschaulicht 33 schematisch einen Querschnitt in einer Ausrichtungsrichtung der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 und lässt Veranschaulichungen von Teilen weg, die nicht tief mit der Beschreibung der dritten Modifikation der vierten Ausführungsform in Zusammenhang stehen.
  • Bei dem Beispiel aus 33 ist die Lichtabschirmungswand 350, ähnlich zu der zuvor beschriebenen vierten Ausführungsform oder dergleichen, näher an dem Niederempfindlichkeitspixel 301 in jedem der zweiten Grabenlichtabschirmungsteile 303TR2 bereitgestellt. Andererseits ist der Zwischenpixellichtabschirmungsteil 351 asymmetrisch mit Bezug auf die Grenze 310 jedes Pixels bereitgestellt. Insbesondere ist bei dem Beispiel aus 33 zum Beispiel der Zwischenpixellichtabschirmungsteil 351, der der Position des Grabenlichtabschirmungsteils 303b entspricht, auf der rechten Seite mit Bezug auf die Grenze 310 bereitgestellt, und ist bei diesem Beispiel so bereitgestellt, dass die Position zu der Seite des Hochempfindlichkeitspixels 300 verschoben ist. Des Weiteren ist der Zwischenpixellichtabschirmungsteil 351, der der Position des Grabenlichtabschirmungsteils 303c entspricht, auf der linken Seite mit Bezug auf die Grenze 310 bereitgestellt, ist bei diesem Beispiel so bereitgestellt, dass die Position zu der Seite des Hochempfindlichkeitspixels 300 verschoben ist.
  • 34 ist ein schematisches Diagramm, das die Anordnung des Zwischenpixellichtabschirmungsteils 351 gemäß der dritten Modifikation der vierten Ausführungsform veranschaulicht. Bei dem Beispiel aus 34 ist, ähnlich der zweiten Modifikation der vierten Ausführungsform, die zuvor beschrieben ist, die Lichtabschirmungswand 350 so bereitgestellt, dass sie mit dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 verbunden ist. Andererseits ist der Zwischenpixellichtabschirmungsteil 351 als ein optisch schwarzes Gebiet so bereitgestellt, dass er zu dem Inneren des Pixels in dem Hochempfindlichkeitspixel 300 hervorsteht. In dem Niederempfindlichkeitspixel 301 ist im Gegensatz dazu der Zwischenpixellichtabschirmungsteil 351 so bereitgestellt, dass er zu der Außenseite des Pixels verschoben ist.
  • Obwohl 33 und 34 beispielhafte Fälle sind, in denen der Zwischenpixellichtabschirmungsteil 351 so bereitgestellt ist, dass er zu dem Hochempfindlichkeitspixel 300 an der Grenze 310 hin verschoben ist, und der Zwischenpixellichtabschirmungsteil 351 zu dem Inneren des Hochempfindlichkeitspixels 300 hervorsteht, ist die Anordnung nicht auf dieses Beispiel beschränkt. Zum Beispiel kann der Zwischenpixellichtabschirmungsteil 351 so bereitgestellt werden, dass er zu der Seite des Niederempfindlichkeitspixels 301 an der Grenze 310 verschoben ist, und kann der Zwischenpixellichtabschirmungsteil 351 zu dem Inneren des Niederempfindlichkeitspixels 301 hervorstehen.
  • Das heißt, gemäß der dritten Modifikation der vierten Ausführungsform unterdrückt die Lichtabschirmungswand 350 den Einfall von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 und unterdrück den Einfall von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu einen anderen Hochempfindlichkeitspixel 300, das an das Hochempfindlichkeitspixel 300 angrenzt. Daher kann das Layout des Zwischenpixellichtabschirmungsteils 351 durch Fokussieren auf Charakteristiken, wie etwa ein Empfindlichkeitsverhältnis von Pixeln, ohne Berücksichtigung einer Farbvermischung zwischen Pixeln bestimmt werden. Beispiele für das Empfindlichkeitsverhältnis in diesem Fall beinhalten ein Empfindlichkeitsverhältnis zwischen dem Hochempfindlichkeitspixel 300 und dem angrenzenden Niederempfindlichkeitspixel 301 und ein Empfindlichkeitsverhältnis zwischen einem Hochempfindlichkeitspixel 300 und einem anderen Hochempfindlichkeitspixel 300, das an das Hochempfindlichkeitspixel 300 angrenzt und mit dem Farbfilter CF einer Farbe versehen ist, die von jener für das Hochempfindlichkeitspixel 300 verschieden ist.
  • Selbst mit einer solchen Struktur ist es möglich, eine zuvor beschriebene Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken. Da es auch möglich ist, den Einfall von schräg einfallendem Licht auf das Hochempfindlichkeitspixel 300 in einem anderen Hochempfindlichkeitspixel 300, das an das Hochempfindlichkeitspixel 300 angrenzt, durch die Lichtabschirmungswand 350 zu verhindern, führt dies des Weiteren zum Erlangen eines Bildes mit hoher Qualität. Da der Einfall von schräg einfallendem Licht auf das angrenzende Pixel durch die Lichtabschirmungswand 350 unterdrückt wird, ist es möglich, den Freiheitsgrad beim Gestalten des Layouts und dergleichen des Zwischenpixellichtabschirmungsteils 351 zu verbessern.
  • (5-5. Vierte Modifikation)
  • Als Nächstes wird eine vierte Modifikation der vierten Ausführungsform beschrieben. Die vierte Modifikation der vierten Ausführungsform ist ein Beispiel, das einen Wellenleiter als das optisch schwarze Gebiet anstelle des Zwischenpixellichtabschirmungsteils 351 bei der zuvor beschriebenen vierten Ausführungsform verwendet.
  • 35 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß der vierten Modifikation der vierten Ausführungsform veranschaulicht. Ähnlich zu der obigen 27 veranschaulicht 35 schematisch einen Querschnitt in einer Ausrichtungsrichtung der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 und lässt Veranschaulichungen von Teilen weg, die nicht tief mit der Beschreibung der dritten Modifikation der vierten Ausführungsform in Zusammenhang stehen.
  • Bei dem Beispiel aus 35 ist ein Wellenleiter 360 zwischen dem Farbfilter CF und einem anderen Farbfilter angrenzend an das Farbfilter CF anstelle des Zwischenpixellichtabschirmungsteils 351 bereitgestellt. Der Wellenleiter 360 ist aus einem Material mit einem Brechungsindex gebildet, der niedriger als jener des Farbfilters CF ist (das heißt, ein Niedriger-Brechungsindex-Material). Da der Wellenleiter 360 Licht, das von dem angrenzenden Farbfilter CF unter einem vorbestimmten Einfallswinkel oder mehr einfällt, mittels Totalreflexion reflektiert, kann der Wellenleiter 360 als ein optisch schwarzes Gebiet verwendet werden und kann eine Funktion äquivalent zu jener der Lichtabschirmungswand 350 erzielen.
  • Beispiele für das anwendbare Niedriger-Brechungsindex-Material zum Bilden des Wellenleiters 360 beinhalten Luft (Luftspalt), SiN, Tetraethoxysilan(TEOS) oder ein Harz (polysiloxanbasiertes Harz oder siliciumdioxidbasiertes Harz).
  • In diesem Fall kann eine Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301, was zuvor beschrieben ist, durch die Lichtabschirmungswand 350 und den Wellenleiter 360 unterdrückt werden. Des Weiteren wird das Einfallen von schräg einfallendem Licht auf ein Hochempfindlichkeitspixel 300 eines anderen Hochempfindlichkeitspixels 300, das an das Hochempfindlichkeitspixel 300 angrenzt, ebenfalls durch die Lichtabschirmungswand 350 und den Wellenleiter 360 unterdrückt. Dies ermöglicht es, ein Bild mit höherer Qualität zu erhalten.
  • Da der Wellenleiter 360 zwischen den Farbfiltern CF bereitgestellt ist, ist es des Weiteren möglich, die Öffnungsteile (Lichtempfangsoberflächen) der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 im Vergleich zu dem Fall des Verwendens des Zwischenpixellichtabschirmungsteils 351, der aus Wolfram oder dergleichen gebildet ist, wie zuvor beschrieben, effektiv zu nutzen.
  • (5-6. Fünfte Modifikation)
  • Als Nächstes wird eine fünfte Modifikation der vierten Ausführungsform beschrieben. Die fünfte Modifikation der vierten Ausführungsform ist ein Beispiel, das den Zwischenpixellichtabschirmungsteil 351, der aus Wolfram oder dergleichen gebildet ist, in Kombination mit dem Wellenleiter 360, der bei der vierten Modifikation der vierten Ausführungsform beschrieben ist, als eine Struktur eines optisch schwarzen Gebiets verwendet, das eine Lichtabschirmung zwischen Pixeln durchführt.
  • 36 ist ein schematisches Diagramm, das die Anordnung des Zwischenpixellichtabschirmungsteils 351 und des Wellenleiters 360 gemäß der fünften Modifikation der vierten Ausführungsform veranschaulicht. Es wird angemerkt, dass bei dem Beispiel aus 36, ähnlich der zweiten Modifikation der vierten Ausführungsform, die zuvor beschrieben ist, die Lichtabschirmungswand 350 als kontinuierlich in dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 veranschaulicht ist.
  • Bei dem Beispiel aus 36 ist ein Wellenleiter 360 als ein optisch schwarze Gebiet für den gesamten Umfang des Niederempfindlichkeitspixels 301, das heißt jede Grenze 310 zwischen dem Niederempfindlichkeitspixel 301 und dem Hochempfindlichkeitspixel 300, das an das Niederempfindlichkeitspixel 301 angrenzt, bereitgestellt. Des Weiteren ist der Zwischenpixellichtabschirmungsteil 351 als ein optisch schwarzes Gebiet an jeder Grenze 310 zwischen einem Hochempfindlichkeitspixel 300 und einem anderen Hochempfindlichkeitspixel 300 angeordnet, das an das Hochempfindlichkeitspixel 300 angrenzt.
  • Die Anordnung des Zwischenpixellichtabschirmungsteils 351 und des Wellenleiters 360, die in 36 veranschaulicht ist, ist ein Beispiel und ist nicht auf dieses Beispiel beschränkt. Zum Beispiel ist es auch möglich, die Anordnung des Zwischenpixellichtabschirmungsteils 351 und des Wellenleiters 360 umzukehren, so dass der Zwischenpixellichtabschirmungsteil 351 auf dem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt wird und der Wellenleiter 360 zwischen den Hochempfindlichkeitspixeln 300 bereitgestellt wird, oder ist es auch möglich, andere Kombinationen zu verwenden.
  • Selbst bei einer solchen Struktur wird eine Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301, was zuvor beschrieben ist, durch den Wellenleiter 360 zusammen mit der Lichtabschirmungswand 350 unterdrückt, und kann ein Bild mit höherer Qualität erhalten werden.
  • (5-7. Sechste Modifikation)
  • Als Nächstes wird eine sechste Modifikation der vierten Ausführungsform beschrieben. 37 ist ein schematisches Diagramm, das schematisch einen Querschnitt eines Einheitspixels gemäß der sechsten Modifikation der vierten Ausführungsform veranschaulicht. Ähnlich zu der obigen 27 veranschaulicht 37 schematisch einen Querschnitt in einer Ausrichtungsrichtung der Hochempfindlichkeitspixel 300 und der Niederempfindlichkeitspixel 301 und lässt Veranschaulichungen von Teilen weg, die nicht tief mit der Beschreibung der sechsten Modifikation der vierten Ausführungsform in Zusammenhang stehen.
  • Bei der zuvor beschriebenen vierten Ausführungsform ist das Farbfilter CF direkt auf dem Zwischenschichtisolationsfilm 323 bereitgestellt. Im Gegensatz dazu ist bei der sechsten Modifikation der vierten Ausführungsform, wie in 37 veranschaulicht, ein Planarisierungsfilm 324 auf dem Zwischenschichtisolationsfilm 323 bereitgestellt und ist das Farbfilter CF auf dem Planarisierungsfilm 324 bereitgestellt. Bei dem Beispiel aus 37 ist der Planarisierungsfilm 324 so bereitgestellt, dass er den Zwischenschichtisolationsfilm 323 und den Zwischenpixellichtabschirmungsteil 351 bedeckt.
  • Selbst mit einer solchen Struktur ist es möglich, eine zuvor beschriebene Farbvermischung aufgrund von schräg einfallendem Licht von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 zu unterdrücken. Da es auch möglich ist, den Einfall von schräg einfallendem Licht auf das Hochempfindlichkeitspixel 300 in einem anderen Hochempfindlichkeitspixel 300, das an das Hochempfindlichkeitspixel 300 angrenzt, durch die Lichtabschirmungswand 350 zu verhindern, führt dies des Weiteren zum Erlangen eines Bildes mit hoher Qualität.
  • (5-8. Andere Modifikationen)
  • Als Nächstes werden andere Modifikationen der vierten Ausführungsform beschrieben. In der vorhergehenden Beschreibung wurden als eine erste Kategorie die folgenden zwei Strukturen für die obere Schichtstruktur, zum Beispiel die Struktur des Farbfilters CF, beschrieben.
    1. (A) Struktur, bei der das Farbfilter CF direkt auf dem Zwischenschichtisolationsfilm 323 bereitgestellt ist (vierte Ausführungsform)
    2. (B) Struktur, bei der das Farbfilter CF auf dem Planarisierungsfilm 324 auf dem Zwischenschichtisolationsfilm 323 bereitgestellt ist (sechste Modifikation der vierten Ausführungsform)
  • Des Weiteren wurden als eine zweite Kategorie die folgenden drei Muster für das Layoutmuster der Lichtabschirmungswand 350 beschrieben.
    1. (a) Muster, bei dem die Lichtabschirmungswand 350 zwischen den Hochempfindlichkeitspixeln 300 isoliert ist (vierte Ausführungsform)
    2. (b) Muster, bei dem die Lichtabschirmungswand 350 nur auf einem gesamten Umfang des Niederempfindlichkeitspixels 301 bereitgestellt ist (erste Modifikation der vierten Ausführungsform)
    3. (c) Muster, bei dem die Lichtabschirmungswand 350 kontinuierlich auf dem gesamten Umfang sowohl des Hochempfindlichkeitspixels 300 als auch des Niederempfindlichkeitspixels 301 bereitgestellt ist (zweite Modifikation der vierten Ausführungsform)
  • Außerdem wurden als eine dritte Kategorie die folgenden drei Strukturen als die Struktur des optisch schwarzen Gebiets beschrieben.
    1. (A) Optisch schwarzes Gebiet unter Verwendung, wie normal, des Zwischenpixellichtabschirmungsteils 351, der aus Wolfram oder dergleichen gebildet ist (vierte Ausführungsform)
    2. (B) Optisch schwarzes Gebiet unter Verwendung des Wellenleiters 360 (vierte Modifikation der vierten Ausführungsform)
    3. (C) Optisch schwarzes Gebiet, das den Zwischenpixellichtabschirmungsteil 351 und den Wellenleiter 360 kombiniert (fünfte Modifikation der vierten Ausführungsform)
  • Des Weiteren wurden als eine vierte Kategorie die folgenden zwei Muster als das Layoutmuster des optisch schwarzen Gebiets beschrieben.
    • (α) Symmetrisches Muster mit Bezug auf die Grenze 310 zwischen Pixeln (vierte Ausführungsform)
    • (β) Asymmetrisches Muster mit Bezug auf die Grenze 310 zwischen Pixeln (dritte Modifikation der vierten Ausführungsform)
  • Es ist möglich, ein jedes von jeder Kategorie willkürlich auszuwählen und zu kombinieren, das heißt eine von den zwei Strukturen der ersten Kategorie, eines von den drei Mustern der zweiten Kategorie, eines von den drei Mustern der dritten Kategorie und eines von den zwei Mustern der vierten Kategorie. Das heißt, die Gesamtanzahl an Mustern der Modifikationen durch die Kombination ist (zwei Strukturen der ersten Kategorie) × (drei Muster der zweiten Kategorie) × (drei Muster der dritten Kategorie) × (zwei Muster der vierten Kategorie) = 36 Muster.
  • Bei beliebigen dieser 36 Muster ist es möglich, einen Effekt des Unterdrückens von wenigstens Farbvermischung aufgrund von schräg einfallendem Licht von den Hochempfindlichkeitspixeln 300 zu den Niederempfindlichkeitspixeln 301 ohne Verschlechtern der Empfindlichkeit und Sättigungscharakteristiken der Hochempfindlichkeitspixel 300 zu erhalten.
  • [6. Fünfte Ausführungsform]
  • (6-1. Anwendungsbeispiel der Technologie der vorliegenden Offenbarung)
  • Als Nächstes werden als eine fünfte Ausführungsform Anwendungsbeispiele des Bildgebungselements (CMOS-Bildsensors 10) gemäß der ersten Ausführungsform, der zweiten Ausführungsform, der dritten Ausführungsform und der vierten Ausführungsform und Modifikationen der einzelnen Ausführungsformen gemäß der vorliegenden Offenbarung beschrieben. 38 ist ein Diagramm, das ein Verwendungsbeispiel veranschaulicht, das ein Beispiel für das Verwenden des Bildgebungselements gemäß der ersten Ausführungsform, der zweiten Ausführungsform, der dritten Ausführungsform, der vierten Ausführungsform und Modifikationen der einzelnen Ausführungsformen, die zuvor beschrieben sind, ist.
  • Das Bildgebungselement gemäß der ersten Ausführungsform, der zweiten Ausführungsform, der dritten Ausführungsform, der vierten Ausführungsform und den Modifikationen der einzelnen Ausführungsformen, die zuvor beschrieben sind, kann zum Beispiel in verschiedenen Fällen des Erfassens von Licht, wie etwa von sichtbarem Licht, Infrarotlicht, Ultraviolettlicht und Röntgenstrahlen, wie folgt verwendet werden.
    • - Eine Vorrichtung, die Bilder erfasst, die zum Betrachten zur Unterhaltung verwendet werden, wie etwa Digitalkameras und Mobilvorrichtungen mit einer Kamerafunktion.
    • - Eine Vorrichtung für Transport, wie etwa ein fahrzeuginterner Sensor, der eine Vorderseite, Rückseite, Umgebung, einen Innenbereich oder dergleichen eines Fahrzeugs bildlich erfasst, um sicheres Fahren, einschließlich automatischen Stoppens oder dergleichen, sicherzustellen und um Zustände eines Fahrers zu erkennen, eine Überwachungskamera zum Überwachen von sich bewegenden Fahrzeugen und Straßen und einen Entfernungsbestimmungssensor zum Durchführen einer Messung eines Abstands zwischen Fahrzeugen oder dergleichen.
    • - Eine Vorrichtung für Haushaltsgeräte, einschließlich eines Fernsehers, eines Kühlschranks, einer Klimaanlage oder dergleichen, um Gesten eines Benutzers bildlich zu erfassen und eine Operation der Vorrichtung gemäß der Geste durchzuführen.
    • - Eine Vorrichtung, die zur medizinischen Behandlung und Gesundheitspflege verwendet wird, wie etwa ein Endoskop und Vorrichtungen, die eine Angiografie durchführen, indem sie Infrarotlicht empfangen.
    • - Eine Vorrichtung, die für Sicherheit verwendet wird, wie etwa Überwachungskameras zur Kriminalitätsbekämpfung und Kameras zur Personenauthentifizierung.
    • - Eine Vorrichtung, die für Schönheit verwendet wird, wie etwa eine Hautmessvorrichtung, die die Haut bildlich erfasst, und ein Mikroskop, das die Kopfhaut bildlich erfasst.
    • - Eine Vorrichtung, die für Sport verwendet wird, wie etwa Action-Kameras oder Wearable-Kameras für Sportanwendungen.
    • - Eine Vorrichtung, die für Landwirtschaft verwendet wird, wie etwa Kameras zum Überwachen der Zustände von Feldern und Nutzpflanzen.
  • (6-2. Anwendungsbeispiel für ein endoskopisches Chirurgiesystem)
  • Die Technologie gemäß der vorliegenden Offenbarung (die vorliegende Technologie) ist auf verschiedene Produkte anwendbar. Zum Beispiel können die Techniken gemäß der vorliegenden Offenbarung auf endoskopische Chirurgiesysteme angewandt werden.
  • 39 ist ein Diagramm, das ein Beispiel für eine schematische Konfiguration eines endoskopischen Chirurgiesystems veranschaulicht, auf das die Technologie (die vorliegenden Technologie) gemäß der vorliegenden Offenbarung anwendbar ist.
  • 39 veranschaulich eine Szene, in der ein Chirurg (Arzt) 11131 eine Operation an einem Patienten 11132 auf einem Patientenbett 11133 unter Verwendung einen endoskopischen Chirurgiesystems 11000 durchführt. Wie veranschaulicht, beinhaltet das endoskopische Chirurgiesystem 11000 ein Endoskop 11100, andere chirurgische Werkzeuge 11110, wie etwa einen Insufflationsschlauch 11111 und ein Energiebehandlungswerkzeug 11112, eine Stützarmvorrichtung 11120, die das Endoskop 11100 stützt, und einen Wagen 11200, der mit verschiedenen Vorrichtungen zur endoskopischen Chirurgie ausgestattet ist.
  • Das Endoskop 11100 beinhaltet Folgendes: einen Objektivtubus 11101, in dem einem Gebiet einer vorbestimmten Länge von einem distalen Ende in den Körperhohlraum des Patienten 11132 einzuführen ist; und einen Kamerakopf 11102, der mit einem proximalen Ende des Objektivtubus 11101 verbunden ist. Das Beispiel in der Figur veranschaulicht das Endoskop 11100 als ein starres Endoskop mit dem Objektivtubus 11101 eines starren Typs. Jedoch kann das Endoskop 11100 ein flexibles Endoskop mit einem flexiblen Objektivtubus sein.
  • Das distale Ende des Objektivtubus 11101 weist eine Öffnung auf, in die eine Objektivlinse eingesetzt ist. Das Endoskop 11100 ist mit einer Lichtquellenvorrichtung 11203 verbunden. Das durch die Lichtquellenvorrichtung 11203 erzeugte Licht wird durch einen Lichtleiter, der sich innerhalb des Objektivtubus 11101 erstreckt, zu dem distalen Ende des Objektivtubus geleitet und das geleitete Licht wird durch die Objektivlinse zu einem Beobachtungsziel in dem Körperhohlraum des Patienten 11132 emittiert. Das Endoskop 11100 kann ein Vorwärtsbetrachtungsendoskop, ein Vorwärtsschrägbetrachtungsendoskop oder ein Seitenbetrachtungsendoskop sein.
  • Ein optisches System und ein Bildgebungselement sind innerhalb des Kamerakopfes 11102 bereitgestellt. Reflektiertes Licht (Beobachtungslicht) von dem Beobachtungsziel wird durch das optische System auf das Bildgebungselement fokussiert. Das Beobachtungslicht wird durch das Bildgebungselement fotoelektrisch umgewandelt, so dass ein elektrisches Signal, das dem Beobachtungslicht entspricht, das heißt ein Bildsignal, das dem Beobachtungsbild entspricht, erzeugt wird. Das Bildsignal wird als RAW-Daten an eine Kamerasteuereinheit (CCU) 11201 übertragen.
  • Die CCU 11201 ist mit einer Zentralverarbeitungseinheit (CPU), einer Grafikverarbeitungseinheit (GPU) oder dergleichen gebildet und steuert integral Operationen des Endoskops 11100 und einer Anzeigeeinrichtung 11202. Des Weiteren empfängt die CCU 11201 ein Bildsignal von dem Kamerakopf 11102 und führt verschiedene Arten einer Bildverarbeitung an dem Bildsignal zum Anzeigen eines Bildes basierend auf dem Bildsignal, wie etwa eine Entwicklungsverarbeitung (Demosaicing), durch.
  • Unter der Steuerung der CCU 11201 zeigt die Anzeigevorrichtung 11202 ein Bild basierend auf dem Bildsignal an, das eine Bildverarbeitung durch die CCU 11201 durchlief.
  • Die Lichtquellenvorrichtung 11203 beinhaltet eine Lichtquelle, wie etwa zum Beispiel eine Leuchtdiode (LED), und liefert das Bestrahlungslicht zur Bildgebung der Operationsstelle oder dergleichen an das Endoskop 11100.
  • Eine Eingabevorrichtung 11204 ist eine Eingabeschnittstelle zu dem endoskopischen Chirurgiesystem 11000. Der Benutzer kann verschiedene Arten von Informationen eingeben und Anweisungen über die Eingabevorrichtung 11204 in das endoskopische Chirurgiesystem 11000 eingeben. Zum Beispiel gibt der Benutzer eine Anweisung und dergleichen zum Ändern der Bildgebungsbedingungen (Art von Bestrahlungslicht, Vergrößerung, Brennweite und dergleichen) durch das Endoskop 11100 ein.
  • Eine Behandlungswerkzeugsteuervorrichtung 11205 steuert die Ansteuerung des Energiebehandlungswerkzeugs 11112 zur Ablation oder Dissektion von Gewebe, zum Versiegeln von Blutgefäßen oder dergleichen. Um den Körperhohlraum des Patienten 11132 zum Sicherstellen eines Sichtfeldes für das Endoskop 11100 und zum Sicherstellen eines Arbeitsraums für den Chirurgen aufzublähen, pumpt ein Insufflator 11206 Gas durch den Insufflationsschlauch 11111 in den Körperhohlraum. Ein Aufzeichnungsgerät 11207 ist eine Vorrichtung, die zum Aufzeichnen verschiedener Arten von Informationen, die mit der Chirurgie assoziiert sind, in der Lage ist. Ein Drucker 11208 ist eine Vorrichtung, die zum Drucken verschiedener Arten von Informationen, die mit Chirurgie assoziiert sind, in verschiedenen Formen, wie etwa Text, Bilder und Graphen, in der Lage ist.
  • Die Lichtquellenvorrichtung 11203, die das Endoskop 11100 mit Bestrahlungslicht versorgt, wenn eine Operationsstelle bildlich erfasst wird, kann zum Beispiel durch eine LED, eine Laserlichtquelle oder eine Weißlichtquelle einschließlich einer Kombination daraus gebildet werden. Falls die Weißlichtquelle mit der Kombination aus den RGB-Lichtquellen gebildet ist, ist es möglich, die Ausgabeintensität und das Ausgabetiming einzelner Farben (einzelner Wellenlängen) mit hoher Genauigkeit zu steuern. Entsprechend ist es möglich, eine Weißabgleichanpassung des erfassten Bildes bei der Lichtquellenvorrichtung 11203 durchzuführen. Des Weiteren ist es in diesem Fall durch Emittieren des Laserlichts von jeder der RGB-Laserlichtquellen zu einem Beobachtungsziel auf Zeitunterteilungsbasis und durch Steuern der Ansteuerung des Bildgebungselements des Kamerakopfes 11102 in Synchronisation mit dem Lichtemissionstiming auch möglich, das Bild, das jeder von RGB-Farben entspricht, auf Zeitunterteilungsbasis zu erfassen. Gemäß diesem Verfahren kann ein Farbbild erhalten werden, ohne ein Farbfilter auf dem Bildgebungselement bereitzustellen.
  • Des Weiteren kann die Ansteuerung der Lichtquellenvorrichtung 11203 so gesteuert werden, dass die Intensität des Ausgabelichts zu vorbestimmten Zeitintervallen geändert wird. Mit der Steuerung der Ansteuerung des Bildgebungselements des Kamerakopfes 11102 in Synchronisation mit dem Timing der Änderung der Intensität des Lichts derart, dass Bilder auf Zeitunterteilungsbasis erhalten und die Bilder kombiniert werden, ist es möglich, ein Bild mit hohem Dynamikumfang ohne sogenannte Blackout-Schatten oder Spitzlichter (Überbelichtung) zu erzeugen.
  • Ferner kann die Lichtquellenvorrichtung 11203 so konfiguriert werden, dass sie zum Bereitstellen von Licht in einem vorbestimmten Wellenlängenband in der Lage ist, das einer Speziallichtbeobachtung entspricht. Die Speziallichtbeobachtung wird verwendet, um eine Schmalbandlichtbeobachtung (Schmalbandbilderfassung) durchzuführen. Die Schmalbandlichtbeobachtung verwendet die Wellenlängenabhängigkeit der Lichtabsorption in dem Körpergewebe und emittiert Licht in einem schmaleren Band im Vergleich zu dem Bestrahlungslicht (das heißt Weißlicht) bei einer Normalbeobachtung, wodurch ein vorbestimmtes Gewebe, wie etwa ein Blutgefäß der Schleimhautoberflächenschicht, mit hohem Kontrast bildlich erfasst wird. Alternativ dazu kann die Speziallichtbeobachtung eine Fluoreszenzbeobachtung zum Erhalten eines Bildes durch Fluoreszenz beinhalten, die durch Emission von Anregungslicht erzeugt wird. Eine Fluoreszenzbeobachtung kann durchgeführt werden, um eine Fluoreszenz zu beobachten, die von einem Körpergewebe emittiert wird, auf welches Anregungslicht angewandt wird (Autofluoreszenzbeobachtung), kann mit örtlicher Verabreichung eines Reagenzes, wie etwa Indocyaningrün (ICG), in das Körpergewebe durchgeführt werden und zusammen damit wird Anregungslicht, das der Fluoreszenzwellenlänge des Reagenzes entspricht, zu dem Körpergewebe emittiert, um ein Fluoreszenzbild zu erhalten, oder dergleichen. Die Lichtquellenvorrichtung 11203 kann so konfiguriert werden, dass sie zum Bereitstellen von Schmalbandlicht und/oder Anregungslicht in der Lage ist, das einer solchen Speziallichtbeobachtung entspricht.
  • 40 ist ein Blockdiagramm, das ein Beispiel für die funktionale Konfiguration des Kamerakopfes 11102 und der CCU 11201, die in 39 veranschaulicht sind, veranschaulicht.
  • Der Kamerakopf 11102 beinhaltet eine Linseneinheit 11401, eine Bildgebungseinheit 11402, eine Antriebseinheit 11403, eine Kommunikationseinheit 11404 und eine Kamerakopfsteuereinheit 11405. Die CCU 11201 beinhaltet eine Kommunikationseinheit 11411, eine Bildverarbeitungseinheit 11412 und eine Steuereinheit 11413. Der Kamerakopf 11102 und die CCU 11201 sind durch ein Übertragungskabel 11400 kommunikativ miteinander verbunden.
  • Die Linseneinheit 11401 ist ein optisches System, das an einem Verbindungsteil zu dem Objektivtubus 11101 bereitgestellt ist. Das Beobachtungslicht, das von dem distalen Ende des Objektivtubus 11101 erfasst wird, wird zu dem Kamerakopf 11102 geleitet, so dass es auf die Linseneinheit 11401 einfällt. Die Linseneinheit 11401 ist durch eine Kombination mehrerer Linsen, einschließlich einer Zoomlinse und einer Fokuslinse, gebildet.
  • Die Bildgebungseinheit 11402 ist mit einem Bildgebungselement gebildet. Die Anzahl an Bildgebungselementen, die die Bildgebungseinheit 11402 bilden, kann eine (Einzelplattentyp) oder mehrere (Mehrfachplattentyp) sein. Wenn die Bildgebungseinheit 11402 zum Beispiel ein Mehrplattentyp ist, kann jedes der Bildgebungselemente ein Bildsignal erzeugen, das einer Farbe von RGB entspricht, und ein Farbbild kann durch Kombinieren dieser einzelnen Farbbildsignale erhalten werden. Alternativ dazu kann die Bildgebungseinheit 11402 ein Paar Bildgebungselemente zum Erlangen von Bildsignalen einzeln für das rechte Auge und das linke Auge beinhalten, die einer dreidimensionalen (3D-) Anzeige entsprechen. Die 3D-Anzeige ermöglicht, dass der Chirurg 11131 die Tiefe des lebenden Gewebes an der Operationsstelle genauer erfasst. Wenn die Bildgebungseinheit 11402 ein Mehrfachplattentyp ist, können mehrere der Linseneinheiten 11401 bereitgestellt werden, die den Bildgebungselementen entsprechen.
  • Des Weiteren muss die Bildgebungseinheit 11402 nicht zwingend an dem Kamerakopf 11102 bereitgestellt sein. Zum Beispiel kann die Bildgebungseinheit 11402 innerhalb des Objektivtubus 11101 unmittelbar hinter der Objektivlinse bereitgestellt sein.
  • Die Antriebseinheit 11403 beinhaltet einen Aktor und bewegt die Zoomlinse und die Fokuslinse der Linseneinheit 11401 um eine vorbestimmte Entfernung entlang der optischen Achse unter der Steuerung der Kamerakopfsteuereinheit 11405. Mit dieser Operation können die Vergrößerung und der Brennpunkt des Bildes, das durch die Bildgebungseinheit 11402 erfasst wird, angemessen angepasst werden.
  • Die Kommunikationseinheit 11404 beinhaltet eine Kommunikationsvorrichtung zum Übertragen und Empfangen verschiedener Arten von Informationen an die und von der CCU 11201. Die Kommunikationseinheit 11404 überträgt das von der Bildgebungseinheit 11402 erhaltene Bildsignal über das Übertragungskabel 11400 als RAW-Daten an die CCU 11201.
  • Des Weiteren empfängt die Kommunikationseinheit 11404 ein Steuersignal zum Steuern des Antriebs des Kamerakopfes 11102 von der CCU 11201 und liefert das Steuersignal an die Kamerakopfsteuereinheit 11405. Das Steuersignal beinhaltet Informationen, die mit Bildgebungsbedingungen assoziiert sind, wie etwa Informationen, die eine Bildwiederholrate eines erfassten Bildes designieren, Informationen, die einen Belichtungswert zur Zeit der Bildgebung designieren, und/oder Informationen, die die Vergrößerung und den Brennpunkt des erfassten Bildes designieren.
  • Es wird angemerkt, dass die Bildgebungsbedingungen, wie etwa die Bildwiederholrate, der Belichtungswert, die Vergrößerung und der Brennpunkt, durch den Benutzer geeignet designiert werden können oder automatisch durch die Steuereinheit 11413 der CCU 11201 basierend auf dem erlangten Bildsignal eingestellt werden können. Im letzteren Fall sind eine Autobelichtung(AE)-Funktion, eine Autofokus(AF)-Funktion und eine Autoweißabgleich(AWB)-Funktion in dem Endoskop 11100 zu installieren.
  • Die Kamerakopfsteuereinheit 11405 steuert den Antrieb des Kamerakopfes 11102 basierend auf dem Steuersignal von der CCU 11201, das über die Kommunikationseinheit 11404 empfangen wird.
  • Die Kommunikationseinheit 11411 beinhaltet eine Kommunikationsvorrichtung zum Übertragen und Empfangen verschiedener Arten von Informationen an den und von dem Kamerakopf 11102. Die Kommunikationseinheit 11411 empfängt ein Bildsignal, das von dem Kamerakopf 11102 übertragen wird, über das Übertragungskabel 11400.
  • Des Weiteren überträgt die Kommunikationseinheit 11411 ein Steuersignal zum Steuern des Antriebs des Kamerakopfes 11102 an den Kamerakopf 11102. Das Bildsignal und das Steuersignal können durch elektrische Kommunikation, optische Kommunikation oder dergleichen übertragen werden.
  • Die Bildverarbeitungseinheit 11412 führt verschiedene Arten einer Bildverarbeitung an dem Bildsignal durch, das die von dem Kamerakopf 11102 übertragenen RAW-Daten ist.
  • Die Steuereinheit 11413 führt verschiedene Steuerungen bezüglich der Bildgebung der Operationsstelle oder dergleichen durch das Endoskop 11100 und bezüglich der Anzeige des erfassten Bildes, das durch Bildgebung der Operationsstelle oder dergleichen erhalten wird, durch. Zum Beispiel erzeugt die Steuereinheit 11413 ein Steuersignal zum Steuern des Antriebs des Kamerakopfes 11102.
  • Des Weiteren steuert die Steuereinheit 11413 die Anzeigevorrichtung 11202 zum Anzeigen des erfassten Bildes einschließlich eines Bildes einer Operationsstelle oder dergleichen basierend auf dem Bildsignal, das eine Bildverarbeitung durch die Bildverarbeitungseinheit 11412 durchlief. Zu dieser Zeit kann die Steuereinheit 11413 verschiedene Objekte in dem erfassten Bild durch Verwenden verschiedener Bilderkennungstechniken erkennen. Zum Beispiel detektiert die Steuereinheit 11413 die Form, Farbe oder dergleichen einer Kante eines Objekts, das in dem erfassten Bild enthalten ist, wodurch es ermöglicht wird, ein chirurgisches Werkzeug, wie etwa eine Zange, eine spezielle Stelle eines lebenden Körpers, eine Blutung, einen Nebel zur Zeit des Verwendens des Energiebehandlungswerkzeugs 11112 oder dergleichen zu erkennen. Wenn das erfasste Bild auf der Anzeigevorrichtung 11202 angezeigt wird, kann die Steuereinheit 11413 verschieden Arten von chirurgischen Operationshilfsinformationen auf dem Bild der Operationsstelle durch Verwenden des Erkennungsergebnisses überlagern und anzeigen. Durch das Anzeigen der chirurgischen Operationshilfsinformationen auf eine überlagerte Weise, so dass sie dem Chirurgen 11131 präsentiert werden, ist es möglich, die Last für den Chirurgen 11131 zu reduzieren und zu ermöglichen, dass der Chirurg 11131 die Operation mit höherer Zuverlässigkeit fortführt.
  • Das Übertragungskabel 11400, das den Kamerakopf 11102 und die CCU 11201 verbindet, ist ein elektrisches Signalkabel, das elektrische Signalkommunikation unterstützt, eine optische Faser, die optischer Kommunikation unterstützt, oder ein Kompositkabel daraus.
  • Trotz einem veranschaulichten Beispiel, bei dem eine drahtgebundene Kommunikation unter Verwendung des Übertragungskabels 11400 durchgeführt wird, kann hier die Kommunikation zwischen dem Kamerakopf 11102 und der CCU 11201 drahtlos durchgeführt werden.
  • Ein Beispiel für das endoskopische Chirurgiesystem, auf das die Technologie gemäß der vorliegenden Offenbarung angewandt werden kann, wurde zuvor beschrieben. Die Technik gemäß der vorliegenden Offenbarung kann auf zum Beispiel das Endoskop 11100 und die Bildgebungseinheit 11402 des Kamerakopfes 11102 unter den zuvor beschriebenen Konfigurationen angewandt werden. Insbesondere kann das zuvor beschriebene Bildgebungselement auf die Bildgebungseinheit 10112 angewandt werden. Das Bildgebungselement gemäß der vorliegenden Offenbarung kann Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 unterdrücken, wodurch es ermöglicht wird, ein Bild mit höherer Qualität zu erfassen. Dies ermöglicht zum Beispiel, dass der Chirurg 11131 mit der Chirurgie zuverlässiger fortfährt.
  • Obwohl das endoskopische Chirurgiesystem hier als ein Beispiel beschrieben wurde, kann die Technik gemäß der vorliegenden Offenbarung auf zum Beispiel ein mikroskopisches Chirurgiesystem oder dergleichen angewandt werden.
  • (6-3. Anwendungsbeispiel für sich bewegende Objekte)
  • Die Technologie gemäß der vorliegenden Offenbarung kann ferner auf Vorrichtungen angewandt werden, die an verschiedenen sich bewegenden Objekten montiert sind, wie etwa Automobilen, Elektrofahrzeugen, Hybridelektrofahrzeugen, Motorrädern, Fahrrädern, Personal-Mobility-Vorrichtungen, Flugzeugen, Drohnen, Schiffen und Robotern.
  • 41 ist ein Blockdiagramm, das ein schematisches Konfigurationsbeispiel eines Fahrzeugsteuersystems veranschaulicht, das ein Beispiel für ein Bewegender-Körper-Steuersystem ist, auf das die Technologie gemäß der vorliegenden Offenbarung anwendbar ist.
  • Ein Fahrzeugsteuersystem 12000 beinhaltet mehrere elektronische Steuereinheiten, die über ein Kommunikationsnetz 12001 verbunden sind. Bei dem in 41 veranschaulichten Beispiel beinhaltet das Fahrzeugsteuersystem 12000 eine Antriebssystemsteuereinheit 12010, eine Karosseriesystemsteuereinheit 12020, eine Fahrzeugaußenbereichsinformationsdetektionseinheit 12030, eine Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 und eine integrierte Steuereinheit 12050. Des Weiteren sind als eine funktionale Konfiguration der integrierten Steuereinheit 12050 ein Mikrocomputer 12051, eine Audio-Bild-Ausgabeeinheit 12052 und eine Fahrzeuginternes-Netz-Schnittstelle (SST) 12053 veranschaulicht.
  • Die Antriebssystemsteuereinheit 12010 steuert die Operation der Vorrichtung bezüglich des Antriebssystems des Fahrzeugs gemäß verschiedenen Programmen. Zum Beispiel fungiert die Antriebssystemsteuereinheit 12010 als eine Steuervorrichtung für eine Antriebskrafterzeugungsvorrichtung, die eine Antriebskraft eines Fahrzeugs erzeugt, wie etwa einen Verbrennungsmotor oder einen Antriebsmotor, einen Antriebskraftübertragungsmechanismus, der eine Antriebskraft auf die Räder überträgt, einen Lenkmechanismus, der einen Lenkwinkel des Fahrzeugs anpasst, eine Bremsvorrichtung, die eine Bremskraft des Fahrzeugs erzeugt, oder dergleichen.
  • Die Karosseriesystemsteuereinheit 12020 steuert die Operation verschiedener Vorrichtungen, die an der Fahrzeugkarosserie montiert sind, gemäß verschiedenen Programmen. Zum Beispiel fungiert die Karosseriesystemsteuereinheit 12020 als eine Steuervorrichtung eines schlüssellosen Zugangssystems, eines intelligenten Schlüsselsystems, einer elektrischen Fensterhebervorrichtung oder verschiedener Leuchten, wie etwa eines Frontscheinwerfers, eines Rückfahrlichts, eines Bremslichts, eines Fahrtrichtungsanzeigers oder eines Nebelscheinwerfers. In diesem Fall kann die Karosseriesystemsteuereinheit 12020 eine Eingabe von Funkwellen, die von einer portablen Vorrichtung übertragen werden, die den Schlüssel ersetzt, oder Signale von verschiedenen Schaltern empfangen. Die Karosseriesystemsteuereinheit 12020 empfängt die Eingabe dieser Funkwellen oder Signale und steuert die Türverriegelungsvorrichtung, die elektrische Fensterhebervorrichtung, die Leuchte oder dergleichen des Fahrzeugs.
  • Die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 detektiert Informationen außerhalb des Fahrzeugs, das mit dem Fahrzeugsteuersystem 12000 ausgestattet ist. Zum Beispiel ist eine Bildgebungseinheit 12031 mit der Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 verbunden. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 bewirkt, dass die Bildgebungseinheit 12031 ein Bild des Außenbereichs des Fahrzeugs erfasst, und empfängt das erfasste Bild. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 kann einen Objektdetektionsprozess oder einen Entfernungsdetektionsprozess von Menschen, Fahrzeugen, Hindernissen, Schildern oder Symbolen auf der Straßenoberfläche basierend auf dem empfangenen Bild durchführen. Die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 führt zum Beispiel eine Bildverarbeitung an dem empfangenen Bild durch und führt einen Objektdetektionsprozess und einen Entfernungsdetektionsprozess basierend auf dem Ergebnis der Bildverarbeitung durch.
  • Die Bildgebungseinheit 12031 ist ein optischer Sensor, der Licht empfängt und ein elektrisches Signal ausgibt, das der Menge an empfangenem Licht entspricht. Die Bildgebungseinheit 12031 kann das elektrische Signal als ein Bild und auch als Entfernungsmessungsinformationen ausgeben. Des Weiteren kann das durch die Bildgebungseinheit 12031 empfangene Licht sichtbares Licht oder nichtsichtbares Licht, wie etwa Infrarotstrahlen, sein.
  • Die Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 detektiert die Fahrzeuginnenbereichsinformationen. Die Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 ist zum Beispiel mit einem Fahrerzustandsdetektor 12041 verbunden, der den Zustand des Fahrers detektiert. Der Fahrerzustandsdetektor 12041 kann zum Beispiel eine Kamera beinhalten, die den Fahrer bildlich erfasst. Die Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 kann den Müdigkeitsgrad oder Konzentrationsgrad des Fahrers berechnen oder kann basierend auf den Detektionsinformationen, die von dem Fahrerzustandsdetektor 12041 eingegeben werden, bestimmen, ob der Fahrer eindöst.
  • Der Mikrocomputer 12051 kann einen Steuersollwert der Antriebskrafterzeugungsvorrichtung, des Lenkmechanismus oder der Bremsvorrichtung basierend auf Fahrzeugaußenbereichs-/-innenbereichsinformationen berechnen, die durch die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 oder die Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 erhalten werden, und kann einen Steuerbefehl an die Antriebssystemsteuereinheit 12010 ausgeben. Zum Beispiel kann der Mikrocomputer 12051 eine kooperative Steuerung zum Zweck des Erzielens einer Funktion eines Fahrerassistenzsystems (ADAS) durchführen, einschließlich Kollisionsvermeidung oder Aufprallabschwächung von Fahrzeugen, Folgefahrt basierend auf einer Zwischenfahrzeugentfernung, Geschwindigkeitsregelung, Fahrzeugkollisionswarnung, Fahrzeugspurverlassenswarnung oder dergleichen.
  • Des Weiteren ist es zulässig, dass der Mikrocomputer 12051 die Antriebskrafterzeugungsvorrichtung, den Lenkmechanismus, die Bremsvorrichtung oder dergleichen basierend auf den Informationen bezüglich der Umgebung des Fahrzeugs steuert, die durch die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 oder die Fahrzeuginnenbereichsinformationsdetektionseinheit 12040 erhalten werden, wodurch eine kooperative Steuerung zum Zweck des autonomen Fahrens oder dergleichen durchgeführt wird, wobei das Fahrzeug eine autonome Fahrt ohne Abhängigkeit von der Bedienung des Fahrers durchführt.
  • Des Weiteren kann der Mikrocomputer 12051 einen Steuerbefehl an die Karosseriesystemsteuerungseinheit 12020 basierend auf den Fahrzeugaußenbereichsinformationen ausgeben, die durch die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 erfasst werden. Zum Beispiel kann der Mikrocomputer 12051 den Frontscheinwerfer gemäß der Position des vorherfahrenden Fahrzeugs oder des entgegenkommenden Fahrzeugs steuern, das durch die Fahrzeugaußenbereichsinformationsdetektionseinheit 12030 erfasst wird, und kann dadurch eine kooperative Steuerung durchführen, die auf einen Blendschutz abzielt, wie etwa Umschalten von dem Fernlicht zu dem Abblendlicht.
  • Die Audio-Bild-Ausgabeeinheit 12052 überträgt ein Ausgabesignal in Form von Audio und/oder Bild an eine Ausgabevorrichtung, die zum visuellen oder akustischen Mitteilen von Informationen an den Insassen des Fahrzeugs oder den Außenbereich des Fahrzeugs in der Lage ist. Bei dem Beispiel aus 29 sind ein Audiolautsprecher 12061, eine Anzeigeeinheit 12062 und ein Armaturenbrett 12063 als beispielhafte Ausgabevorrichtungen veranschaulicht. Die Anzeigeeinheit 12062 kann zum Beispiel eine Onboard-Anzeige und/oder eine Head-Up-Anzeige beinhalten.
  • 42 ist ein Diagramm, das ein Beispiel für eine Installationsposition der Bildgebungseinheit 12031 veranschaulicht. In 30 weist ein Fahrzeug 12100 Bildgebungseinheiten 12101, 12102, 12103, 12104 und 12105 als Bildgebungseinheiten 12031 auf.
  • Zum Beispiel sind die Bildgebungseinheiten 12101, 12102, 12103, 12104 und 12105 an Positionen an einem Fahrzeug 12100, einschließlich einer Nase, eines Seitenspiegels, einer hinteren Stoßstange, einer Hecktüre, eines oberen Teils der Windschutzscheibe in einem Fahrzeuginnenraum oder dergleichen installiert. Die an der Frontnase bereitgestellte Bildgebungseinheit 12101 und die an dem oberen Teil der Windschutzscheibe in dem Fahrzeuginnenraum bereitgestellte Bildgebungseinheit 12105 erfassen hauptsächlich ein Bild vor dem Fahrzeug 12100. Die in den Seitenspiegeln bereitgestellten Bildgebungseinheiten 12102 und 12103 erfassen hauptsächlich Bilder der Seite des Fahrzeugs 12100. Die an der hinteren Stoßstange oder der Hecktüre bereitgestellte Bildgebungseinheit 12104 erfasst hauptsächlich ein Bild hinter dem Fahrzeug 12100. Die Bilder nach vorne, die durch die Bildgebungseinheiten 12101 und 12105 erfasst werden, werden hauptsächlich zum Detektieren eines vorausfahrenden Fahrzeugs oder eines Fußgängers, eines Hindernisses, einer Ampel, eines Verkehrsschildes, einer Fahrspur oder dergleichen verwendet.
  • Es wird angemerkt, dass 30 ein Beispiel für den Bildgebungsbereich der Bildgebungseinheiten 12101 bis 12104 veranschaulicht. Ein Bildgebungsbereich 12111 gibt einen Bildgebungsbereich der Bildgebungseinheit 12101 an, die an der Frontnase bereitgestellt ist, die Bildgebungsbereiche 12112 und 12113 geben Bildgebungsbereiche der Bildgebungseinheiten 12102 und 12103 an, die jeweils an den Seitenspiegeln bereitgestellt sind, und ein Bildgebungsbereich 12114 gibt einen Bildgebungsbereich der Bildgebungseinheit 12104 an, die an der hinteren Stoßstange oder der Hecktüre bereitgestellt ist. Zum Beispiel ist es durch Überlagern von Elementen von Bilddaten, die durch die Bildgebungseinheiten 12101 bis 12104 erfasst werden, möglich, ein Vogelperspektivenbild des Fahrzeugs 12100 wie bei Betrachtung von oberhalb zu erhalten.
  • Wenigstens eine der Bildgebungseinheiten 12101 bis 12104 kann eine Funktion zum Erlangen von Entfernungsinformationen haben. Zum Beispiel kann wenigstens eine der Bildgebungseinheiten 12101 bis 12104 eine Stereokamera, die mehrere Bildgebungselemente beinhaltet, oder ein Bildgebungselement mit Pixeln zur Phasendifferenzdetektion sein.
  • Zum Beispiel kann der Mikrocomputer 12051 eine Entfernung zu jedem von dreidimensionalen Objekten in den Bildgebungsbereichen 12111 bis 12114 und eine zeitliche Änderung (relative Geschwindigkeit mit Bezug auf das Fahrzeug 12100) der Entfernung basierend auf den Entfernungsinformationen berechnen, die von den Bildgebungseinheiten 12101 bis 12104 erhalten werden, und kann dadurch ein dreidimensionales Objekt, das sich mit einer vorbestimmten Geschwindigkeit (zum Beispiel 0 km/h oder mehr) in im Wesentlichen der gleichen Richtung wie das Fahrzeug 12100 bewegt und das das nächstgelegene dreidimensionale Objekt in dem Bewegungspfad 12100 ist, als das vorausfahrende Fahrzeug extrahieren. Des Weiteren kann der Mikrocomputer 12051 eine Zwischenfahrzeugentfernung, die zu dem vorausfahrenden Fahrzeug sicherzustellen ist, im Voraus einstellen und kann eine automatische Bremssteuerung (einschließlich Folgestoppsteuerung), eine automatische Beschleunigungssteuerung (einschließlich Folgestartsteuerung) oder dergleichen durchführen. Auf diese Weise ist es möglich, eine kooperative Steuerung zum Zweck des autonomen Fahrens oder dergleichen durchzuführen, wobei das Fahrzeug ohne Abhängigkeit von der Bedienung des Fahrers autonom fährt.
  • Zum Beispiel kann der Mikrocomputer 12051 basierend auf den Entfernungsinformationen, die von den Bildgebungseinheiten 12101 bis 12104 erhalten werden, Dreidimensionales-Objekt-Daten in Bezug auf das dreidimensionale Objekt mit einer Klassifizierung in dreidimensionale Objekte, wie etwa ein zweirädriges Fahrzeug, ein reguläres Fahrzeug, ein großes Fahrzeug, ein Fußgänger und andere dreidimensionale Objekte, wie etwa ein Strommast, extrahieren und kann die Daten zur automatischen Vermeidung von Hindernissen verwenden. Zum Beispiel unterscheidet der Mikrocomputer 12051 Hindernisse um das Fahrzeug 12100 herum in Hindernisse, die eine gute Sichtbarkeit für den Fahrer des Fahrzeugs 12100 aufweisen, und Hindernisse, die eine schlechte Sichtbarkeit für den Fahrer aufweisen. Anschließend bestimmt der Mikrocomputer 12051 ein Kollisionsrisiko, das das Risiko einer Kollision mit jedem von Hindernissen angibt. Wenn das Kollisionsrisiko ein eingestellter Wert oder mehr ist und eine Möglichkeit einer Kollision besteht, kann der Mikrocomputer 12051 einen Alarm an den Fahrer über den Audiolautsprecher 12061 und die Anzeigeeinheit 12062 ausgeben und kann eine erzwungene Verlangsamung oder Ausweichlenkung über die Antriebssystemsteuereinheit 12010 durchführen, wodurch eine Fahrerassistenz zur Kollisionsvermeidung erzielt wird.
  • Wenigstens eine der Bildgebungseinheiten 12101 bis 12104 kann eine Infrarotkamera sein, die Infrarotstrahlen detektiert. Zum Beispiel kann der Mikrocomputer 12051 einen Fußgänger erkennen, indem er bestimmt, ob ein Fußgänger in den erfassten Bildern der Bildgebungseinheiten 12101 bis 12104 vorhanden ist. Eine solche Fußgängererkennung wird zum Beispiel durch eine Prozedur zum Extrahieren von Merkmalspunkten in einem erfassten Bild der Bildgebungseinheiten 12101 bis 12104 als eine Infrarotkamera und durch eine Prozedur zum Durchführen einer Musterabgleichverarbeitung an einer Reihe von Merkmalspunkten durchgeführt, die den Umriss des Objekts angeben, um zu unterscheiden, ob es sich um einen Fußgänger handelt. Wenn der Mikrocomputer 12051 bestimmt, dass ein Fußgänger in den erfassten Bildern der Bildgebungseinheiten 12101 bis 12104 vorhanden ist, und einen Fußgänger erkennt, steuert die Audio-Bild-Ausgabeeinheit 12052 die Anzeigeeinheit 12062 dazu, eine Überlagerungsanzeige einer rechteckigen Umrisslinie zur Hervorhebung an dem erkannten Fußgänger durchzuführen. Des Weiteren kann die Audio-Bild-Ausgabeeinheit 12052 bewirken, dass die Anzeigeeinheit 12062 ein Symbol, das einen Fußgänger angibt, oder dergleichen an einer gewünschten Position anzeigt.
  • Zuvor wurde ein Beispiel für das Fahrzeugsteuersystem, auf das die Technologie gemäß der vorliegenden Offenbarung anwendbar ist, beschrieben. Die Technologie gemäß der vorliegenden Offenbarung ist zum Beispiel auf die Bildgebungseinheit 12031 unter den zuvor beschriebenen Konfigurationen anwendbar.
  • Insbesondere kann das zuvor beschriebene Bildgebungselement auf die Bildgebungseinheit 12031 angewandt werden. Das Bildgebungselement gemäß der vorliegenden Offenbarung kann Nebensprechen von dem Hochempfindlichkeitspixel 300 zu dem Niederempfindlichkeitspixel 301 unterdrücken, wodurch es ermöglicht wird, ein Bild mit höherer Qualität zu erfassen. Dies ermöglicht es, eine genauere Fußgängerkennung und Fahrzeugsteuerung zu realisieren.
  • Die in der vorliegenden Schrift beschriebenen Effekte sind lediglich Beispiele und dementsprechend kann es andere Effekte geben, die nicht auf die exemplarisch gezeigten Effekte beschränkt sind.
  • Es wird angemerkt, dass die vorliegende Technologie auch die folgenden Konfigurationen aufweisen kann.
    1. (1) Ein Bildgebungselement, das Folgendes umfasst:
      • ein Einheitspixel, das Folgendes beinhaltet:
        • ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement, und
        • ein zweites Pixel, das ein zweites fotoelektrisches Umwandlungselement aufweist und angrenzend an das erste Pixel angeordnet ist; und
        • einen Akkumulationsteil, der eine durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt,
        • wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und dem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt.
    2. (2) Das Bildgebungselement nach (1) oben, wobei der Akkumulationsteil an einer Grenze angeordnet ist, wo das erste Pixel und das andere erste Pixel aneinander angrenzend bereitgestellt sind.
    3. (3) Das Bildgebungselement nach (1) oder (2) oben, das ferner einen Grabenlichtabschirmungsteil umfasst, der an der Grenze bereitgestellt ist, wobei der Grabenlichtabschirmungsteil wenigstens an der Grenze, wo der Akkumulationsteil angeordnet ist, bereitgestellt ist.
    4. (4) Das Bildgebungselement nach einem von (1) bis (3) oben, wobei der Akkumulationsteil an der Grenze in einer Richtung einer langen Seite eines Pixelarrays angeordnet ist, in dem die Einheitspixel in einem Matrixarray angeordnet sind.
    5. (5) Das Bildgebungselement nach einem von (1) bis (4) oben, wobei das erste Pixel ein Pixel mit einer höheren Empfindlichkeit im Vergleich zu dem zweiten Pixel ist.
    6. (6) Das Bildgebungselement nach (5) oben, wobei eine Fläche einer Lichtempfangsoberfläche des ersten Pixels größer als eine Fläche einer Lichtempfangsoberfläche des zweiten Pixels ist, und die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Größe einer Fläche einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels definiert ist.
    7. (7) Ein Bildgebungselementansteuerungsverfahren, wobei das Verfahren ein Verfahren zum Ansteuern eines Bildgebungselements ist, wobei das Bildgebungselement Folgendes beinhaltet:
      • ein Einheitspixel, das ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement beinhaltet und ein zweites Pixel mit einem zweiten fotoelektrischen Umwandlungselement beinhaltet, wobei das zweite Pixel angrenzend an das erste Pixel angeordnet ist; und
      • einen Akkumulationsteil, der die durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und dem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt,
      • wobei das Verfahren ein Verfahren zum Ansteuern des Bildgebungselements zum Durchführen von Prozessen ist, die Folgendes umfassen:
        • Akkumulieren einer ersten Ladung, die durch das erste fotoelektrische Umwandlungselement erzeugt wird, in dem Akkumulationsteil;
        • Ausgeben eines Signals basierend auf der ersten Ladung, die in dem Akkumulationsteil akkumuliert wird, an eine Signalleitung;
        • Initialisieren des Akkumulationsteils, nachdem das Signal basierend auf der ersten Ladung an die Signalleitung ausgegeben wurde;
        • Akkumulieren einer zweiten Ladung, die durch das zweite fotoelektrische Umwandlungselement erzeugt wird, in dem initialisierten Akkumulationsteil; und
        • Ausgeben eines Signals basierend auf der zweiten Ladung, die in dem Akkumulationsteil akkumuliert wird, an die Signalleitung.
    8. (8) Eine elektronische Vorrichtung, die Folgendes umfasst:
      • ein Bildgebungselement, das ein Einheitspixel beinhaltet, das ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement beinhaltet und ein zweites Pixel mit einem zweiten fotoelektrischen Umwandlungselement beinhaltet, wobei das zweite Pixel angrenzend an das erste Pixel angeordnet ist, und
      • einen Akkumulationsteil, der die durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und dem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt;
      • eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal basierend auf der Ladung, die in dem Akkumulationsteil des Bildgebungselements akkumuliert wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und
      • eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
    9. (9) Ein Bildgebungselement, das Folgendes umfasst:
      • ein Pixelarray, das mehrere Pixel beinhaltet; und
      • einen Lichtabschirmungsteil, der zwischen jedem der mehreren Pixel bereitgestellt ist, die in dem Pixelarray enthalten sind,
      • wobei der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen zwei Pixeln, die aneinander angrenzend angeordnet sind, unter den mehreren Pixeln aufweist, so dass die Breite gemäß einem Unterschied der Empfindlichkeit zwischen den zwei Pixeln definiert ist.
    10. (10) Das Bildgebungselement nach (9) oben, wobei die mehreren Pixel derart angeordnet sind, dass ein Einheitspixel in einem Matrixarray angeordnet ist, wobei das Einheitspixel ein erstes Pixel und ein zweites Pixel beinhaltet, wobei das zweite Pixel im Vergleich zu dem ersten Pixel eine niedrigere Empfindlichkeit aufweist und angrenzend an das erste Pixel angeordnet ist, und der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen dem ersten Pixel und dem zweiten Pixel aufweist, so dass die Breite breiter als eine Breite zwischen den ersten Pixeln und breiter als eine Breite zwischen den zweiten Pixeln ist.
    11. (11) Das Bildgebungselement nach (9) oder (10) oben, wobei der Lichtabschirmungsteil eine Breite eines Teils zwischen zwei angrenzenden Pixeln aufweist, wobei die Breite derart definiert ist, dass eine Breite eines schmalsten Teils auf einer Seite eines Pixels mit einer höheren Empfindlichkeit unter den zwei Pixeln breiter als eine Breite eines schmalsten Teils auf einer Seite eines Pixels mit einer niedrigeren Empfindlichkeit unter den zwei Pixeln ist, mit einer Grenze zwischen den zwei Pixeln als ein Basispunkt.
    12. (12) Das Bildgebungselement nach einem von (9) bis (11) oben, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Fläche einer Lichtempfangsoberfläche jedes der mehreren Pixel definiert ist.
    13. (13) Eine elektronische Vorrichtung, die Folgendes umfasst:
      • ein Bildgebungselement, das mehrere Pixel beinhaltet, die aneinander angrenzend angeordnet sind, und einen Lichtabschirmungsteil beinhaltet, der zwischen jedem der mehreren Pixel angeordnet ist,
      • wobei der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen zwei aneinander angrenzenden Pixeln unter den mehreren Pixeln aufweist, so dass die Breite gemäß einem Unterschied der Empfindlichkeit zwischen den zwei Pixeln definiert ist;
      • eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und
      • eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
    14. (14) Ein Bildgebungselement, das Folgendes umfasst:
      • ein Pixelarray, das mehrere Pixel beinhaltet; und
      • einen Grabenlichtabschirmungsteil, der um jedes der mehreren Pixel herum bereitgestellt ist, die in dem Pixelarray enthalten sind,
      • wobei der Grabenlichtabschirmungsteil ohne eine Lücke um ein erstes Pixel unter den mehreren Pixeln herum bereitgestellt ist und der Grabenlichtabschirmungsteil um ein zweites Pixel angrenzend an das erste Pixel herum bereitgestellt ist, so dass der Grabenlichtabschirmungsteil, der um das zweite Pixel herum bereitgestellt ist, von dem Grabenlichtabschirmungsteil beabstandet ist, der um das erste Pixel herum bereitgestellt ist.
    15. (15) Das Bildgebungselement nach (14) oben, wobei ein Grabenlichtabschirmungsteil in einer Grenze zwischen dem ersten Pixel und dem zweiten Pixel gebildet ist, wobei der zu bildende Grabenlichtabschirmungsteil dicker als der Grabenlichtabschirmungsteil ist, der an einer Grenze zwischen den ersten Pixeln bereitgestellt ist.
    16. (16) Das Bildgebungselement nach (14) oder (15) oben, wobei das zweite Pixel eine höhere Empfindlichkeit als das erste Pixel aufweist.
    17. (17) Das Bildgebungselement nach (16) oben, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Fläche einer Lichtempfangsoberfläche jedes der mehreren Pixel definiert ist.
    18. (18) Das Bildgebungselement nach (16) oder (17) oben, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Wellenlängenkomponente von Licht definiert ist, das durch ein Farbfilter transmittiert wird, das für jedes der mehreren Pixel bereitgestellt ist.
    19. (19) Das Bildgebungselement nach (16) oder (17) oben, wobei der Grabenlichtabschirmungsteil, der zwischen angrenzenden Pixeln unter den mehreren Pixeln bereitgestellt ist, Folgendes aufweist:
      • eine Breite, die gemäß einem Unterschied der Empfindlichkeit zwischen den angrenzenden Pixeln definiert ist.
    20. (20) Eine elektronische Vorrichtung, die Folgendes umfasst:
      • ein Bildgebungselement, das mehrere Pixel beinhaltet, die aneinander angrenzend angeordnet sind, und einen Grabenlichtabschirmungsteil beinhaltet, der um jedes der mehreren Pixel herum angeordnet ist,
      • wobei der Grabenlichtabschirmungsteil ohne eine Lücke um ein erstes Pixel unter den mehreren Pixeln herum bereitgestellt ist, wobei der Grabenlichtabschirmungsteil um ein zweites Pixel angrenzend an das erste Pixel herum bereitgestellt ist, so dass der Grabenlichtabschirmungsteil, der um das zweite Pixel herum bereitgestellt ist, von dem Grabenlichtabschirmungsteil beabstandet ist, der um das erste Pixel herum bereitgestellt ist;
      • eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und
      • eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
    21. (21) Ein Bildgebungselement, das Folgendes umfasst:
      • ein erstes Pixel;
      • ein zweites Pixel, das angrenzend an das erste Pixel angeordnet ist;
      • einen Grabenlichtabschirmungsteil, der um sowohl das erste Pixel als auch das zweite Pixel herum bereitgestellt ist; und
      • eine Lichtabschirmungswand, die in einer Tiefenrichtung eines Grabens bei wenigstens einer ersten Grenze zwischen dem ersten Pixel und dem zweiten Pixel des Grabenlichtabschirmungsteils bereitgestellt ist,
      • wobei die Lichtabschirmungswand so gebildet ist, dass sie in der ersten Grenze an einer Position näher an einer Richtung des zweiten Pixels eingebettet ist.
    22. (22) Das Bildgebungselement nach (21) oben, wobei das erste Pixel ein Pixel mit einer höheren Empfindlichkeit im Vergleich zu dem zweiten Pixel ist.
    23. (23) Das Bildgebungselement nach (22) oben, wobei eine Fläche einer Lichtempfangsoberfläche des ersten Pixels größer als eine Fläche einer Lichtempfangsoberfläche des zweiten Pixels ist, und die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Größe einer Fläche einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels definiert ist.
    24. (24) Das Bildgebungselement nach einem von (21) bis (23) oben, wobei der Grabenlichtabschirmungsteil derart gebildet ist, dass eine Dicke eines ersten Teils, in dem die Lichtabschirmungswand eingebettet ist, dicker als eine Dicke eines zweiten Teils ist, in dem die Lichtabschirmungswand nicht eingebettet ist, und dass der erste Teil im Vergleich zu dem zweiten Teil weniger auf der ersten Pixelseite hervorsteht.
    25. (25) Das Bildgebungselement nach (22) oben, wobei die Lichtabschirmungswand Überschneidungen über einer Position des zweiten Teils beinhaltet, wobei die Position an einer Erweiterung eines zweiten Pixelseitenaußenrandes des zweiten Teils ist.
    26. (26) Das Bildgebungselement nach einem von (21) bis (25) oben, wobei die Lichtabschirmungswand nicht zu der ersten Pixelseite an der ersten Grenze hervorsteht und nicht von dem Grabenlichtabschirmungsteil hervorsteht.
    27. (27) Das Bildgebungselement nach einem von (21) bis (26) oben, wobei die Lichtabschirmungswand auf einem gesamten Umfang des zweiten Pixels bereitgestellt ist.
    28. (28) Das Bildgebungselement nach (27) oben, wobei die Lichtabschirmungswand ferner an einer zweiten Grenze zwischen dem ersten Pixel und dem anderen ersten Pixel bereitgestellt ist, das an das erste Pixel angrenzt, wobei die Lichtabschirmungswand mit einem Raum von der anderen Lichtabschirmungswand bereitgestellt ist.
    29. (29) Das Bildgebungselement nach (27) oben, wobei die Lichtabschirmungswand ferner auf einem gesamten Umfang des ersten Pixels bereitgestellt ist.
    30. (30) Das Bildgebungselement nach einem von (21) bis (29) oben, das ferner einen Zwischenpixellichtabschirmungsteil umfasst, der um eine Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist.
    31. (31) Das Bildgebungselement nach (30) oben, wobei der Zwischenpixellichtabschirmungsteil symmetrisch mit Bezug auf eine Pixelgrenze bezüglich wenigstens eines des ersten Pixels und des zweiten Pixels bereitgestellt ist.
    32. (32) Das Bildgebungselement nach (30) oben, wobei der Zwischenpixellichtabschirmungsteil asymmetrisch mit Bezug auf eine Pixelgrenze bezüglich wenigstens eines des ersten Pixels und des zweiten Pixels bereitgestellt ist.
    33. (33) Das Bildgebungselement nach einem von (21) bis (29) oben, das ferner einen Wellenleiter umfasst, der zwischen einem optischen Filter, das auf einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist, und dem anderen optischen Filter bereitgestellt ist.
    34. (34) Das Bildgebungselement nach (33) oben, das ferner einen Zwischenpixellichtabschirmungsteil umfasst, der wenigstens in einem Teil eines Umfangs einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist, wobei der Zwischenpixellichtabschirmungsteil und der Wellenleiter in Kombination in wenigstens einem Teil eines Umfangs sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt sind.
    35. (35) Das Bildgebungselement nach (34) oben, wobei der Wellenleiter um das zweite Pixel herum bereitgestellt ist, und der Zwischenpixellichtabschirmungsteil an einer Grenze bereitgestellt ist, wo die ersten Pixel aneinander angrenzen.
    36. (36) Eine elektronische Vorrichtung, die Folgendes umfasst:
      • ein Bildgebungselement;
      • wobei das Bildgebungselement Folgendes beinhaltet:
        • ein erstes Pixel,
        • ein zweites Pixel, das angrenzend an das erste Pixel angeordnet ist,
        • einen Grabenlichtabschirmungsteil, der um sowohl das erste Pixel als auch das zweite Pixel herum bereitgestellt ist, und
        • eine Lichtabschirmungswand, die in wenigstens einer ersten Grenze zwischen dem ersten Pixel und dem zweiten Pixel des Grabenlichtabschirmungsteils in einer Tiefenrichtung eines Grabens eingebettet ist,
        • wobei die Lichtabschirmungswand so gebildet ist, dass sie in der ersten Grenze an einer Position näher an einer Richtung des zweiten Pixels eingebettet ist;
        • eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und
        • eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
  • Bezugszeichenliste
  • 10
    CMOS-Bildsensor
    11
    Pixelarrayeinheit
    181, 181-1, 181-2, 181-3, 181-4, 181-5, 181-6, 181-7, 351
    Zwischenpixellichtabschirmungsteil
    300, 300a, 300b, 300c, 300d, 300R1, 300R2, 300G1, 300G2, 300B1, 300B2
    Hochempfindlichkeitspixel
    301, 301a, 301b, 301c, 301d, 301R1, 301G1, 301G3, 301B1
    Niederempfindlichkeitspixel
    302, 302a, 302b, 302c, 302d
    Akkumulationsteil
    303, 303a, 303b, 303c, 303bg, 303sml, 303sml1, 303sml2,303sml3, 303sml4
    Grabenlichtabschirmungsteil
    303TR1
    erster Grabenlichtabschirmungsteil
    303TR2
    zweiter Grabenlichtabschirmungsteil
    310, 311, 312, 3020, 3021
    Grenze
    321
    Zwischenpixellichtabschirmungsfilm
    350
    Lichtabschirmungswand
    360
    Wellenleiter
    361, 362
    Öffnung
    3000, 3001, 3002, 3003
    Pixel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017163010 A [0002]
    • JP 2017175345 A [0002]
    • JP 2017191950 A [0002]
    • JP 2012178457 A [0002]

Claims (36)

  1. Bildgebungselement, das Folgendes umfasst: ein Einheitspixel, das Folgendes beinhaltet: ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement, und ein zweites Pixel, das ein zweites fotoelektrisches Umwandlungselement aufweist und angrenzend an das erste Pixel angeordnet ist; und einen Akkumulationsteil, der eine durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und einem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt.
  2. Bildgebungselement nach Anspruch 1, wobei der Akkumulationsteil an einer Grenze angeordnet ist, wo das erste Pixel und das andere erste Pixel aneinander angrenzend bereitgestellt sind.
  3. Bildgebungselement nach Anspruch 1, das ferner einen Grabenlichtabschirmungsteil umfasst, der an der Grenze bereitgestellt ist, wobei der Grabenlichtabschirmungsteil wenigstens an der Grenze, wo der Akkumulationsteil angeordnet ist, bereitgestellt ist.
  4. Bildgebungselement nach Anspruch 1, wobei der Akkumulationsteil an der Grenze in einer Richtung einer langen Seite eines Pixelarrays angeordnet ist, in dem die Einheitspixel in einem Matrixarray angeordnet sind.
  5. Bildgebungselement nach Anspruch 1, wobei das erste Pixel ein Pixel mit einer höheren Empfindlichkeit im Vergleich zu dem zweiten Pixel ist.
  6. Bildgebungselement nach Anspruch 5, wobei eine Fläche einer Lichtempfangsoberfläche des ersten Pixels größer als eine Fläche einer Lichtempfangsoberfläche des zweiten Pixels ist, und die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Größe einer Fläche einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels definiert ist.
  7. Bildgebungselementansteuerungsverfahren, wobei das Verfahren ein Verfahren zum Ansteuern eines Bildgebungselements ist, wobei das Bildgebungselement Folgendes beinhaltet: ein Einheitspixel, das ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement beinhaltet und ein zweites Pixel mit einem zweiten fotoelektrischen Umwandlungselement beinhaltet, wobei das zweite Pixel angrenzend an das erste Pixel angeordnet ist; und einen Akkumulationsteil, der die durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und einem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt, wobei das Verfahren ein Verfahren zum Ansteuern des Bildgebungselements zum Durchführen von Prozessen ist, die Folgendes umfassen: Akkumulieren einer ersten Ladung, die durch das erste fotoelektrische Umwandlungselement erzeugt wird, in dem Akkumulationsteil; Ausgeben eines Signals basierend auf der ersten Ladung, die in dem Akkumulationsteil akkumuliert wird, an eine Signalleitung; Initialisieren des Akkumulationsteils, nachdem das Signal basierend auf der ersten Ladung an die Signalleitung ausgegeben wurde; Akkumulieren einer zweiten Ladung, die durch das zweite fotoelektrische Umwandlungselement erzeugt wird, in dem initialisierten Akkumulationsteil; und Ausgeben eines Signals basierend auf der zweiten Ladung, die in dem Akkumulationsteil akkumuliert wird, an die Signalleitung.
  8. Elektronische Vorrichtung, die Folgendes umfasst: ein Bildgebungselement, das ein Einheitspixel beinhaltet, das ein erstes Pixel mit einem ersten fotoelektrischen Umwandlungselement beinhaltet und ein zweites Pixel mit einem zweiten fotoelektrischen Umwandlungselement beinhaltet, wobei das zweite Pixel angrenzend an das erste Pixel angeordnet ist, und einen Akkumulationsteil, der die durch das zweite fotoelektrische Umwandlungselement erzeugte Ladung akkumuliert und die akkumulierte Ladung in eine Spannung umwandelt, wobei der Akkumulationsteil an einer Grenze zwischen dem Einheitspixel und einem anderen Einheitspixel angeordnet ist, das an das Einheitspixel angrenzt; eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal basierend auf der Ladung, die in dem Akkumulationsteil des Bildgebungselements akkumuliert wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
  9. Bildgebungselement, das Folgendes umfasst: ein Pixelarray, das mehrere Pixel beinhaltet; und einen Lichtabschirmungsteil, der zwischen jedem der mehreren Pixel bereitgestellt ist, die in dem Pixelarray enthalten sind, wobei der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen zwei Pixeln, die aneinander angrenzend angeordnet sind, unter den mehreren Pixeln aufweist, so dass die Breite gemäß einem Unterschied der Empfindlichkeit zwischen den zwei Pixeln definiert ist.
  10. Bildgebungselement nach Anspruch 9, wobei die mehreren Pixel derart angeordnet sind, dass ein Einheitspixel in einem Matrixarray angeordnet ist, wobei das Einheitspixel ein erstes Pixel und ein zweites Pixel beinhaltet, wobei das zweite Pixel im Vergleich zu dem ersten Pixel eine niedrigere Empfindlichkeit aufweist und angrenzend an das erste Pixel angeordnet ist, und der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen dem ersten Pixel und dem zweiten Pixel aufweist, so dass die Breite breiter als eine Breite zwischen den ersten Pixeln und breiter als eine Breite zwischen den zweiten Pixeln ist.
  11. Bildgebungselement nach Anspruch 9, wobei der Lichtabschirmungsteil eine Breite eines Teils zwischen zwei angrenzenden Pixeln aufweist, wobei die Breite derart definiert ist, dass eine Breite eines schmalsten Teils auf einer Seite eines Pixels mit einer höheren Empfindlichkeit unter den zwei Pixeln eine Breite ist, die breiter als eine Breite eines schmalsten Teils auf einer Seite eines Pixels mit einer niedrigeren Empfindlichkeit unter den zwei Pixeln ist, mit einer Grenze zwischen den zwei Pixeln als ein Basispunkt.
  12. Bildgebungselement nach Anspruch 9, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Fläche einer Lichtempfangsoberfläche jedes der mehreren Pixel definiert ist.
  13. Elektronische Vorrichtung, die Folgendes umfasst: ein Bildgebungselement, das mehrere Pixel beinhaltet, die aneinander angrenzend angeordnet sind, und einen Lichtabschirmungsteil beinhaltet, der zwischen jedem der mehreren Pixel angeordnet ist, wobei der Lichtabschirmungsteil so gebildet ist, dass er eine Breite eines schmalsten Teils zwischen zwei aneinander angrenzenden Pixeln unter den mehreren Pixeln aufweist, so dass die Breite gemäß einem Unterschied der Empfindlichkeit zwischen den zwei Pixeln definiert ist; eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
  14. Bildgebungselement, das Folgendes umfasst: ein Pixelarray, das mehrere Pixel beinhaltet; und einen Grabenlichtabschirmungsteil, der um jedes der mehreren Pixel herum bereitgestellt ist, die in dem Pixelarray enthalten sind, wobei der Grabenlichtabschirmungsteil ohne eine Lücke um ein erstes Pixel unter den mehreren Pixeln herum bereitgestellt ist und der Grabenlichtabschirmungsteil um ein zweites Pixel angrenzend an das erste Pixel herum bereitgestellt ist, so dass der Grabenlichtabschirmungsteil, der um das zweite Pixel herum bereitgestellt ist, von dem Grabenlichtabschirmungsteil beabstandet ist, der um das erste Pixel herum bereitgestellt ist.
  15. Bildgebungselement nach Anspruch 14, wobei ein Grabenlichtabschirmungsteil in einer Grenze zwischen dem ersten Pixel und dem zweiten Pixel gebildet ist, wobei der zu bildende Grabenlichtabschirmungsteil dicker als der Grabenlichtabschirmungsteil ist, der an einer Grenze zwischen den ersten Pixeln bereitgestellt ist.
  16. Bildgebungselement nach Anspruch 14, wobei das zweite Pixel eine höhere Empfindlichkeit als das erste Pixel aufweist.
  17. Bildgebungselement nach Anspruch 16, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Fläche einer Lichtempfangsoberfläche jedes der mehreren Pixel definiert ist.
  18. Bildgebungselement nach Anspruch 16, wobei die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Wellenlängenkomponente von Licht definiert ist, das durch ein Farbfilter transmittiert wird, das für jedes der mehreren Pixel bereitgestellt ist.
  19. Bildgebungselement nach Anspruch 16, wobei der Grabenlichtabschirmungsteil, der zwischen angrenzenden Pixeln unter den mehreren Pixeln bereitgestellt ist, Folgendes aufweist: eine Breite, die gemäß einem Unterschied der Empfindlichkeit zwischen den angrenzenden Pixeln definiert ist.
  20. Elektronische Vorrichtung, die Folgendes umfasst: ein Bildgebungselement, das mehrere Pixel beinhaltet, die aneinander angrenzend angeordnet sind, und einen Grabenlichtabschirmungsteil beinhaltet, der um jedes der mehreren Pixel herum angeordnet ist, wobei der Grabenlichtabschirmungsteil ohne eine Lücke um ein erstes Pixel unter den mehreren Pixeln herum bereitgestellt ist, wobei der Grabenlichtabschirmungsteil um ein zweites Pixel angrenzend an das erste Pixel herum bereitgestellt ist, so dass der Grabenlichtabschirmungsteil, der um das zweite Pixel herum bereitgestellt ist, von dem Grabenlichtabschirmungsteil beabstandet ist, der um das erste Pixel herum bereitgestellt ist; eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
  21. Bildgebungselement, das Folgendes umfasst: ein erstes Pixel; ein zweites Pixel, das angrenzend an das erste Pixel angeordnet ist; einen Grabenlichtabschirmungsteil, der um sowohl das erste Pixel als auch das zweite Pixel herum bereitgestellt ist; und eine Lichtabschirmungswand, die in einer Tiefenrichtung eines Grabens bei wenigstens einer ersten Grenze zwischen dem ersten Pixel und dem zweiten Pixel des Grabenlichtabschirmungsteils bereitgestellt ist, wobei die Lichtabschirmungswand so gebildet ist, dass sie in der ersten Grenze an einer Position näher an einer Richtung des zweiten Pixels eingebettet ist.
  22. Bildgebungselement nach Anspruch 21, wobei das erste Pixel ein Pixel mit einer höheren Empfindlichkeit im Vergleich zu dem zweiten Pixel ist.
  23. Bildgebungselement nach Anspruch 22, wobei eine Fläche einer Lichtempfangsoberfläche des ersten Pixels größer als eine Fläche einer Lichtempfangsoberfläche des zweiten Pixels ist, und die Empfindlichkeit eine Empfindlichkeit ist, die gemäß einer Größe einer Fläche einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels definiert ist.
  24. Bildgebungselement nach Anspruch 21, wobei der Grabenlichtabschirmungsteil derart gebildet ist, dass eine Dicke eines ersten Teils, in dem die Lichtabschirmungswand eingebettet ist, dicker als eine Dicke eines zweiten Teils ist, in dem die Lichtabschirmungswand nicht eingebettet ist, und dass der erste Teil im Vergleich zu dem zweiten Teil weniger auf der ersten Pixelseite hervorsteht.
  25. Bildgebungselement nach Anspruch 22, wobei die Lichtabschirmungswand Überschneidungen über einer Position des zweiten Teils beinhaltet, wobei die Position an einer Erweiterung eines zweiten Pixelseitenaußenrandes des zweiten Teils ist.
  26. Bildgebungselement nach Anspruch 21, wobei die Lichtabschirmungswand nicht zu der ersten Pixelseite an der ersten Grenze hervorsteht und nicht von dem Grabenlichtabschirmungsteil hervorsteht.
  27. Bildgebungselement nach Anspruch 21, wobei die Lichtabschirmungswand auf einem gesamten Umfang des zweiten Pixels bereitgestellt ist.
  28. Bildgebungselement nach Anspruch 27, wobei die Lichtabschirmungswand ferner an einer zweiten Grenze zwischen dem ersten Pixel und einem anderen ersten Pixel bereitgestellt ist, das an das erste Pixel angrenzt, wobei die Lichtabschirmungswand mit einem Raum von einer anderen Lichtabschirmungswand bereitgestellt ist.
  29. Bildgebungselement nach Anspruch 27, wobei die Lichtabschirmungswand ferner auf einem gesamten Umfang des ersten Pixels bereitgestellt ist.
  30. Bildgebungselement nach Anspruch 21, das ferner einen Zwischenpixellichtabschirmungsteil umfasst, der um eine Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist.
  31. Bildgebungselement nach Anspruch 30, wobei der Zwischenpixellichtabschirmungsteil symmetrisch mit Bezug auf eine Pixelgrenze bezüglich wenigstens eines des ersten Pixels oder des zweiten Pixels bereitgestellt ist.
  32. Bildgebungselement nach Anspruch 30, wobei der Zwischenpixellichtabschirmungsteil asymmetrisch mit Bezug auf eine Pixelgrenze bezüglich wenigstens eines des ersten Pixels oder des zweiten Pixels bereitgestellt ist.
  33. Bildgebungselement nach Anspruch 21, das ferner einen Wellenleiter umfasst, der zwischen einem optischen Filter, das auf einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist, und einem anderen optischen Filter bereitgestellt ist.
  34. Bildgebungselement nach Anspruch 33, das ferner einen Zwischenpixellichtabschirmungsteil umfasst, der wenigstens in einem Teil eines Umfangs einer Lichtempfangsoberfläche sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt ist, wobei der Zwischenpixellichtabschirmungsteil und der Wellenleiter in Kombination in wenigstens einem Teil eines Umfangs sowohl des ersten Pixels als auch des zweiten Pixels bereitgestellt sind.
  35. Bildgebungselement nach Anspruch 34, wobei der Wellenleiter um das zweite Pixel herum bereitgestellt ist, und der Zwischenpixellichtabschirmungsteil an einer Grenze bereitgestellt ist, wo die ersten Pixel aneinander angrenzen.
  36. Elektronische Vorrichtung, die Folgendes umfasst: ein Bildgebungselement; wobei das Bildgebungselement Folgendes beinhaltet: ein erstes Pixel, ein zweites Pixel, das angrenzend an das erste Pixel angeordnet ist, einen Grabenlichtabschirmungsteil, der um sowohl das erste Pixel als auch das zweite Pixel herum bereitgestellt ist, und eine Lichtabschirmungswand, die in wenigstens einer ersten Grenze zwischen dem ersten Pixel und dem zweiten Pixel des Grabenlichtabschirmungsteils in einer Tiefenrichtung eines Grabens eingebettet ist, wobei die Lichtabschirmungswand so gebildet ist, dass sie in der ersten Grenze an einer Position näher an einer Richtung des zweiten Pixels eingebettet ist; eine Signalverarbeitungseinheit, die eine Signalverarbeitung an einem Pixelsignal, das aus dem Bildgebungselement gelesen wird, ausführt und Bilddaten durch die Signalverarbeitung erzeugt; und eine Speicherungseinheit, die die Bilddaten speichert, die durch die Signalverarbeitungseinheit erzeugt werden.
DE112020006147.7T 2019-12-17 2020-12-08 Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung Pending DE112020006147T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019-227660 2019-12-17
JP2019227660 2019-12-17
JP2020112161 2020-06-29
JP2020-112161 2020-06-29
PCT/JP2020/045556 WO2021124964A1 (ja) 2019-12-17 2020-12-08 撮像素子、撮像素子の駆動方法および電子機器

Publications (1)

Publication Number Publication Date
DE112020006147T5 true DE112020006147T5 (de) 2022-12-29

Family

ID=76476599

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020006147.7T Pending DE112020006147T5 (de) 2019-12-17 2020-12-08 Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung

Country Status (6)

Country Link
US (2) US20230018370A1 (de)
JP (1) JPWO2021124964A1 (de)
KR (1) KR20220115929A (de)
CN (2) CN114730779A (de)
DE (1) DE112020006147T5 (de)
WO (1) WO2021124964A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114730779A (zh) * 2019-12-17 2022-07-08 索尼半导体解决方案公司 摄像元件、摄像元件驱动方法和电子装置
KR20220045665A (ko) * 2020-10-06 2022-04-13 삼성전자주식회사 이미지 센서
KR20220085542A (ko) * 2020-12-15 2022-06-22 에스케이하이닉스 주식회사 이미지 센싱 장치
CN115776617A (zh) * 2021-09-06 2023-03-10 思特威(上海)电子科技股份有限公司 像素结构、图像传感器、设备及图像处理方法、控制方法
WO2023042447A1 (ja) * 2021-09-16 2023-03-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP2023069162A (ja) * 2021-11-05 2023-05-18 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178457A (ja) 2011-02-25 2012-09-13 Sony Corp 固体撮像装置、および、その製造方法、電子機器
JP2017163010A (ja) 2016-03-10 2017-09-14 ソニー株式会社 撮像装置、電子機器
JP2017175345A (ja) 2016-03-23 2017-09-28 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器
JP2017191950A (ja) 2011-03-02 2017-10-19 ソニー株式会社 固体撮像装置及び電子機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102380829B1 (ko) * 2014-04-23 2022-03-31 가부시키가이샤 한도오따이 에네루기 켄큐쇼 촬상 장치
JP6754157B2 (ja) * 2015-10-26 2020-09-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2017130728A1 (ja) * 2016-01-29 2017-08-03 ソニー株式会社 固体撮像装置および電子機器
JP6688165B2 (ja) * 2016-06-10 2020-04-28 キヤノン株式会社 撮像装置及び撮像システム
JP2018092976A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 撮像装置
WO2019075246A1 (en) * 2017-10-12 2019-04-18 Johnson Controls Technology Company SYSTEM AND METHOD FOR SIMULTANEOUS POWER COLLECTION AND CURRENT MEASUREMENT
KR102501604B1 (ko) * 2017-11-22 2023-02-17 소니 세미컨덕터 솔루션즈 가부시키가이샤 고체 촬상 소자 및 전자기기
JP6779929B2 (ja) * 2018-02-09 2020-11-04 キヤノン株式会社 光電変換装置および機器
CN110278396A (zh) * 2018-03-16 2019-09-24 松下知识产权经营株式会社 摄像装置
JP2022017616A (ja) * 2018-11-09 2022-01-26 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の製造方法および電子機器
WO2021112128A1 (ja) * 2019-12-03 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置およびその製造方法、電子機器
CN114730779A (zh) * 2019-12-17 2022-07-08 索尼半导体解决方案公司 摄像元件、摄像元件驱动方法和电子装置
US11233080B2 (en) * 2019-12-30 2022-01-25 Omnivision Technologies, Inc. Image sensor with partially encapsulating attenuation layer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178457A (ja) 2011-02-25 2012-09-13 Sony Corp 固体撮像装置、および、その製造方法、電子機器
JP2017191950A (ja) 2011-03-02 2017-10-19 ソニー株式会社 固体撮像装置及び電子機器
JP2017163010A (ja) 2016-03-10 2017-09-14 ソニー株式会社 撮像装置、電子機器
JP2017175345A (ja) 2016-03-23 2017-09-28 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器

Also Published As

Publication number Publication date
CN115696074A (zh) 2023-02-03
WO2021124964A1 (ja) 2021-06-24
US20230018370A1 (en) 2023-01-19
CN115696074B (zh) 2023-09-15
US20230254602A1 (en) 2023-08-10
JPWO2021124964A1 (de) 2021-06-24
CN114730779A (zh) 2022-07-08
KR20220115929A (ko) 2022-08-19

Similar Documents

Publication Publication Date Title
DE112020006147T5 (de) Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung
DE112018006695T5 (de) Bildgebungselement
DE112018001158T5 (de) Festkörper-bildgebungsvorrichtung und herstellungsverfahren für festkörperbildgebungsvorrichtung
DE112017001031T5 (de) Festkörper-Bildaufnahmevorrichtung
DE112019000836T5 (de) Bildgebungselement
DE112018004884T5 (de) Festkörper-bildgebungsvorrichtung und elektronisches gerät
DE112019003449T5 (de) Lichtempfangselement, abstandsmessungsmodul und elektronische vorrichtung
DE112019006136T5 (de) Bildgebungsvorrichtung und elektronische vorrichtung
DE112017001519T5 (de) Bildaufnahmevorrichtung und elektronische Einrichtung
DE112019002463T5 (de) Festkörperbildgebungselement und festkörperbildgebungsvorrichtung
DE112019003578T5 (de) Festkörperbildaufnahmeelement und elektronisches gerät
DE112018002249T5 (de) Festkörper-bildgebungsvorrichtung und elektronische einrichtung
DE112019004720T5 (de) Bildgebungsvorrichtung
DE202018006740U1 (de) Festkörperbildgebungselement und elektronisches Gerät
DE112019005424T5 (de) Festkörper-Bildgebungselement und Bildgebungsvorrichtung
DE112019003845T5 (de) Bildaufnahmevorrichtung und elektronisches gerät
DE112018006564T5 (de) Fotoelektrischer wandler und festkörper-bildgebungsvorrichtung
DE112019000738T5 (de) Bildgebungsvorrichtung und elektronisches gerät
DE112018001649T5 (de) Halbleiter-bilderzeugungselement, elektronische vorrichtung und herstellungsverfahren
DE112020002994T5 (de) Fotoelektrisches umwandlungselement, fotodetektor, fotodetektionssystem,elektronische einrichtung und mobiler körper
DE112019002526T5 (de) Bildgebungselement, elektronische einrichtung und verfahren zum ansteuern eines bildgebungselements
DE112021001917T5 (de) Bildgebungsvorrichtung und elektronische vorrichtung
DE112019006460T5 (de) Bildaufnahmeelement und bildaufnahmegerät
DE112021005005T5 (de) Festkörperbildaufnahmevorrichtung und elektronisches gerät
DE112018005911T5 (de) Photoelektrisches umwandlungselement und festkörper-bildaufnahmevorrichtung