DE112019006460T5 - Bildaufnahmeelement und bildaufnahmegerät - Google Patents

Bildaufnahmeelement und bildaufnahmegerät Download PDF

Info

Publication number
DE112019006460T5
DE112019006460T5 DE112019006460.6T DE112019006460T DE112019006460T5 DE 112019006460 T5 DE112019006460 T5 DE 112019006460T5 DE 112019006460 T DE112019006460 T DE 112019006460T DE 112019006460 T5 DE112019006460 T5 DE 112019006460T5
Authority
DE
Germany
Prior art keywords
image pickup
pickup element
image
photoelectric conversion
incident light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019006460.6T
Other languages
English (en)
Inventor
Hironari OTSUJI
Hiroyuki Kawano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112019006460T5 publication Critical patent/DE112019006460T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0062Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between
    • G02B3/0068Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between arranged in a single integral body or plate, e.g. laminates or hybrid structures with other optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Die vorliegende Erfindung verhindert Verringerungen der Bildqualität eines Bildaufnahmeelements. Das Bildaufnahmeelement umfasst eine On-Chip-Linse, einen Teil für photoelektrische Umwandlung und eine Mehrzahl von In-Layer-Linsen. Die On-Chip-Linse bündelt einfallendes Licht von einem Subjekt. Der Teil für photoelektrische Umwandlung führt photoelektrische Umwandlung des gebündelten einfallenden Lichts durch. Die Mehrzahl von In-Layer-Linsen ist zwischen der On-Chip-Linse und dem Teil für photoelektrische Umwandlung angeordnet und bündelt einfallendes Licht, das die On-Chip-Linse passiert hat, weiter. Die Mehrzahl von In-Layer-Linsen bewirkt, dass einfallendes Licht, das jegliche der In-Layer-Linsen passiert hat, in den Teil für photoelektrische Umwandlung eintritt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft ein Bildaufnahmeelement und ein Bildaufnahmegerät. Insbesondere betrifft die vorliegende Offenbarung ein Bildaufnahmeelement, das eine On-Chip-Linse und eine In-Layer-Linse umfasst, sowie ein Bildaufnahmegerät, das das Bildaufnahmeelement umfasst.
  • HINTERGRUND DER TECHNIK
  • Als ein Bildaufnahmeelement, in dem Pixel, die einfallendes Licht in Bildsignale umwandeln, in einem zweidimensionalen Raster angeordnet sind, wird herkömmlicherweise ein Bildaufnahmeelement vom Rückseitenbestrahlungstyp verwendet. Dieses Bildaufnahmeelement vom Rückseitenbestrahlungstyp ist ein Bildaufnahmeelement, bei dem ein Halbleitersubstrat von seiner Rückoberflächenseite aus mit einfallendem Licht bestrahlt wird, wobei sich die Rückoberfläche von einer Oberfläche (Vorderoberfläche) des Halbleitersubstrats unterscheidet, in der eine Verdrahtungsregion gebildet ist. Dies kann die Empfindlichkeit im Vergleich zu einem Bildaufnahmeelement verbessern, das von seiner Vorderoberflächenseite aus mit einfallendem Licht bestrahlt wird. In dem Bildaufnahmeelement vom Rückseitenbestrahlungstyp gibt es einen Fall, dass einfallendes Licht das Halbleitersubstrat passiert, ohne in dem Halbleitersubstrat absorbiert zu werden, und von einer Verdrahtungsschicht der Verdrahtungsregion reflektiert wird. Insbesondere Licht mit einer langen Wellenlänge, wie z. B. rotes Licht, passiert das Halbleitersubstrat leicht, so dass eine Menge des von der Verdrahtungsschicht reflektierten Lichts zunimmt. Wenn dieses reflektierte Licht aus dem Bildaufnahmeelement heraus reflektiert wird und wieder auf ein anderes Pixel auftrifft, kommt es zu einer Farbvermischung oder dergleichen und verschlechtert sich die Bildqualität.
  • Wenn sich außerdem eine Lichtmenge dieses reflektierten Lichts gemäß dem Einfallswinkel des einfallenden Lichts ändert, verschlechtert sich die Bildqualität weiter. Dies liegt daran, dass sich die Lichtmenge des reflektierten Lichts, das auf ein anderes Pixel auftrifft, gemäß dem Einfallswinkel ändert und die Empfindlichkeit des Pixels dann schwankt. Um die Verschlechterung der Bildqualität zu reduzieren, wird ein Bildaufnahmeelement vorgeschlagen, bei dem die Verdrahtung in einer Verdrahtungsschicht in einer symmetrischen Form um die Mitte eines Pixels konfiguriert ist (siehe z. B. Patentliteratur 1). In diesem Bildaufnahmeelement kann die symmetrisch konfigurierte Verdrahtung die Lichtmenge des von dem Pixel reflektierten Lichts unabhängig von dem Einfallswinkel konstant machen.
  • LISTE DER ENTGEGENHALTUNGEN
  • PATENTDOKUMENT
  • Patentdokument 1: Japanische offengelegte Patentanmeldung mit der Nr. 2016-201397
  • KURZDARSTELLUNG DER ERFINDUNG
  • PROBLEME, DIE DURCH DIE ERFINDUNG ZU LÖSEN SIND
  • Die vorstehend beschriebene herkömmliche Technologie hat ein Problem dahingehend, dass sie nicht in der Lage ist, die Reflexion von einfallendem Licht von der Verdrahtungsschicht zu reduzieren und die Verschlechterung der Bildqualität zu verhindern.
  • Die vorliegende Offenbarung wurde im Hinblick auf das vorstehend genannte Problem gemacht und ist darauf ausgerichtet, die Verschlechterung der Bildqualität zu verhindern.
  • PROBLEMLÖSUNGEN
  • Die vorliegende Offenbarung wird bereitgestellt, um das vorstehend genannte Problem zu lösen, und ein erster Aspekt der vorliegenden Offenbarung ist ein Bildaufnahmeelement, das eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln, eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen, und eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert ist, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln, umfasst, wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
  • Ferner kann in diesem ersten Aspekt die Mehrzahl von In-Layer-Linsen in einer im Wesentlichen identischen Schicht angeordnet sein.
  • Ferner kann in diesem ersten Aspekt die Mehrzahl von In-Layer-Linsen gleichzeitig gebildet werden.
  • Ferner kann in diesem ersten Aspekt ein Farbfilter enthalten sein, der dazu konfiguriert ist, von dem einfallenden Licht, das die On-Chip-Linse passiert hat, Licht mit einer vorgegebenen Wellenlänge durch den Farbfilter durchzulassen.
  • Ferner kann in diesem ersten Aspekt der Farbfilter dazu konfiguriert sein, rotes Licht durch den Farbfilter durchzulassen.
  • Ferner kann in diesem ersten Aspekt der Farbfilter dazu konfiguriert sein, Infrarotlicht durch den Farbfilter durchzulassen.
  • Ferner kann in diesem ersten Aspekt eine der Mehrzahl von In-Layer-Linsen auf einer optischen Achse der On-Chip-Linse angeordnet sein.
  • Ferner kann in diesem ersten Aspekt die Mehrzahl von In-Layer-Linsen voneinander unterschiedliche Formen haben.
  • Ferner kann in diesem ersten Aspekt eine Mehrzahl von Pixeln enthalten sein, die jeweils die On-Chip-Linse, die Einheit für photoelektrische Umwandlung und die Mehrzahl von In-Layer-Linsen umfassen.
  • Ferner kann in diesem ersten Aspekt die Mehrzahl von In-Layer-Linsen asymmetrisch um eine Mitte jedes Pixels angeordnet sein.
  • Ferner kann in diesem ersten Aspekt ein Phasendifferenzpixel enthalten sein, das die On-Chip-Linse und die Einheit für photoelektrische Umwandlung umfasst und dazu konfiguriert ist, eine Phasendifferenz durch Durchführen von Pupillenteilung an dem einfallenden Licht von dem Subjekt zu detektieren.
  • Ferner ist ein zweiter Aspekt der vorliegenden Offenbarung ein Bildaufnahmegerät, das eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln, eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen, eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert sind, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln, und eine Verarbeitungsschaltung, die dazu konfiguriert ist, ein Bildsignal auf Grundlage der photoelektrischen Umwandlung in der Einheit für photoelektrische Umwandlung zu verarbeiten, umfasst, wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
  • Die Anwendung solcher Aspekte schafft Wirkungen, dass einfallendes Licht, das die On-Chip-Linse passiert hat, von der Mehrzahl von In-Layer-Linsen einzeln gesammelt wird. Ein angenommener Fall ist, dass einfallendes Licht an verschiedenen Positionen in der Einheit für photoelektrische Umwandlung gesammelt wird.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Konfigurationsbeispiel eines Bildaufnahmeelements gemäß Ausführungsformen der vorliegenden Offenbarung zeigt.
    • 2 ist ein Diagramm, das ein Konfigurationsbeispiel eines Pixels gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt.
    • 3 ist eine Draufsicht, die ein Konfigurationsbeispiel von Pixeln gemäß einer ersten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 4 ist eine Schnittansicht, die ein Konfigurationsbeispiel eines Pixels gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt.
    • 5 ist ein Diagramm, das einen Strahlengang von einfallendem Licht in einem herkömmlichen Pixel zeigt.
    • 6 ist ein Diagramm, das ein Beispiel für einen Strahlengang von einfallendem Licht in dem Pixel gemäß der ersten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 7 ist ein Diagramm, das ein Beispiel für ein Herstellungsverfahren des Bildaufnahmeelements gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt.
    • 8 ist ein Diagramm, das das Beispiel für das Herstellungsverfahren des Bildaufnahmeelements gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt.
    • 9 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer zweiten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 10 ist eine Draufsicht, die ein erstes Konfigurationsbeispiel eines Pixels gemäß einer dritten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 11 ist eine Draufsicht, die ein zweites Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 12 ist eine Draufsicht, die ein drittes Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 13 ist eine Draufsicht, die ein viertes Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 14 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer vierten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 15 ist ein Diagramm, das ein Beispiel für einen Strahlengang von einfallendem Licht in dem Pixel gemäß der vierten Ausführungsform zeigt.
    • 16 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer fünften Ausführungsform der vorliegenden Offenbarung zeigt.
    • 17 ist eine Draufsicht, die ein weiteres Konfigurationsbeispiel des Pixels gemäß der fünften Ausführungsform der vorliegenden Offenbarung zeigt.
    • 18 ist eine Draufsicht, die ein Konfigurationsbeispiel einer Pixelarray-Einheit gemäß einer sechsten Ausführungsform der vorliegenden Offenbarung zeigt.
    • 19 ist ein Blockdiagramm, das ein schematisches Konfigurationsbeispiel einer Kamera als ein Beispiel für ein Bildaufnahmegerät zeigt, auf das die vorliegende Technologie angewendet werden kann.
    • 20 ist eine Ansicht, die ein Beispiel für eine schematische Konfiguration eines Systems für endoskopische Chirurgie zeigt.
    • 21 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration des Kamerakopfs und der CCU zeigt.
    • 22 ist ein Blockdiagramm, das ein Beispiel für die schematische Konfiguration eines Fahrzeugsteuersystems zeigt.
    • 23 ist ein Hilfsdiagramm zur Erläuterung eines Beispiels für Einbaupositionen eines Abschnitts zur Detektion von Informationen außerhalb eines Fahrzeugs und einer Bildaufnahmeeinheit.
  • AUSFÜHRUNGSMODUS DER ERFINDUNG
  • Nachfolgend werden Ausführungsmodi der vorliegenden Offenbarung (nachstehend als Ausführungsformen bezeichnet) mit Bezugnahme auf die Zeichnungen beschrieben. In den folgenden Zeichnungen ist ein gleiches oder ähnliches Teil durch ein gleiches oder ähnliches Bezugszeichen gekennzeichnet. Ferner werden die Ausführungsformen in der folgenden Reihenfolge beschrieben.
    1. 1. Erste Ausführungsform
    2. 2. Zweite Ausführungsform
    3. 3. Dritte Ausführungsform
    4. 4. Vierte Ausführungsform
    5. 5. Fünfte Ausführungsform
    6. 6. Sechste Ausführungsform
    7. 7. Beispiele für die praktische Verwendung der Kamera
    8. 8. Beispiele für die praktische Verwendung des Systems für endoskopische Chirurgie
    9. 9. Beispiele für die praktische Verwendung für mobile Objekte
  • <Erste Ausführungsform>
  • [Konfiguration des Bildaufnahmeelements]
  • 1 ist ein Diagramm, das ein Konfigurationsbeispiel eines Bildaufnahmeelements gemäß Ausführungsformen der vorliegenden Offenbarung zeigt. Ein in 1 gezeigtes Bildaufnahmeelement 1 umfasst eine Pixelarray-Einheit 10, eine Vertikalansteuereinheit 20, eine Spaltensignalverarbeitungseinheit 30 und eine Steuereinheit 40.
  • Die Pixelarray-Einheit 10 ist durch Anordnung von Pixeln 100 in einem zweidimensionalen Raster konfiguriert. Das hierin erwähnte Pixel 100 erzeugt ein Bildsignal gemäß eingestrahltem Licht. Dieses Pixel 100 umfasst eine Einheit für photoelektrische Umwandlung, die eine Ladung gemäß eingestrahltem Licht erzeugt. Ferner umfasst das Pixel 100 eine Pixelschaltung. Diese Pixelschaltung erzeugt ein Bildsignal auf Grundlage der von der Einheit für photoelektrische Umwandlung erzeugten Ladung. Die Erzeugung des Bildsignals wird durch ein Steuersignal gesteuert, das von der Vertikalansteuereinheit 20 erzeugt wird, die später beschrieben wird. In der Pixelarray-Einheit 10 sind Signalleitungen 11 und 12 in einer XY-Matrix angeordnet. Die Signalleitung 11 ist eine Signalleitung, die ein Steuersignal für eine Pixelschaltung in dem Pixel 100 überträgt, ist in der Pixelarray-Einheit 10 zeilenweise angeordnet und ist mit den in jeder Zeile angeordneten Pixeln 100 gemeinsam verdrahtet. Die Signalleitung 12 ist eine Signalleitung, die ein von der Pixelschaltung in dem Pixel 100 erzeugtes Bildsignal überträgt, ist in der Pixelarray-Einheit 10 spaltenweise angeordnet und ist mit den in jeder Spalte angeordneten Pixeln 100 gemeinsam verdrahtet. Die Einheit für photoelektrische Umwandlung und die Pixelschaltung sind auf einem Halbleitersubstrat gebildet.
  • Die Vertikalansteuereinheit 20 erzeugt ein Steuersignal für die Pixelschaltung in dem Pixel 100. Diese Vertikalansteuereinheit 20 überträgt das erzeugte Steuersignal über die in 1 gezeigte Signalleitung 11 an das Pixel 100. Die Spaltensignalverarbeitungseinheit 30 führt Verarbeitung an einem von dem Pixel 100 erzeugten Bildsignal durch. Diese Spaltensignalverarbeitungseinheit 30 führt die Verarbeitung an dem von dem Pixel 100 über die Signalleitung 12 übertragenen Bildsignal durch, wie in 1 gezeigt. Die Verarbeitung in der Spaltensignalverarbeitungseinheit 30 entspricht z. B. einer Analog-Digital-Umwandlung, um ein in dem Pixel 100 erzeugtes analoges Bildsignal in ein digitales Bildsignal umzuwandeln. Das von der Spaltensignalverarbeitungseinheit 30 erzeugte Bildsignal wird als ein Bildsignal des Bildaufnahmeelements 1 ausgegeben. Die Steuereinheit 40 steuert das gesamte Bildaufnahmeelement 1. Diese Steuereinheit 40 steuert das Bildaufnahmeelement 1 durch Erzeugen und Ausgeben eines Steuersignals, das die Vertikalansteuereinheit 20 und die Spaltensignalverarbeitungseinheit 30 steuert. Das von der Steuereinheit 40 erzeugte Steuersignal wird über eine Signalleitung 41 an die Vertikalansteuereinheit 20 und über eine Signalleitung 42 an die Spaltensignalverarbeitungseinheit 30 übertragen. Es ist anzumerken, dass die Spaltensignalverarbeitungseinheit 30 ein Beispiel für eine in den Ansprüchen beschriebene Verarbeitungsschaltung ist.
  • [Schaltungskonfiguration des Pixels]
  • 2 ist ein Diagramm, das ein Konfigurationsbeispiel eines Pixels gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt. 2 ist ein Schaltplan zur Darstellung eines Konfigurationsbeispiels des Pixels 100. Das in 2 gezeigte Pixel 100 umfasst eine Einheit für photoelektrische Umwandlung 101, eine Ladungshalteeinheit 102 und Metalloxid-Halbleiter (MOS)-Transistoren 103 bis 106.
  • Die Anode der Einheit für photoelektrische Umwandlung 101 ist masseverbunden und ihre Kathode ist mit der Source des MOS-Transistors 103 verbunden. Der Drain des MOS-Transistors 103 ist mit der Source des MOS-Transistors 104, dem Gate des MOS-Transistors 105 und einem Ende der Ladungshalteeinheit 102 verbunden. Das andere Ende der Ladungshalteeinheit 102 ist masseverbunden. Die Drains der MOS-Transistoren 104 und 105 sind gemeinsam mit einer Energieversorgungsleitung Vdd verbunden und die Source des MOS-Transistors 105 ist mit dem Drain des MOS-Transistors 106 verbunden. Die Source des MOS-Transistors 106 ist mit der Signalleitung 12 verbunden. Die Gates der MOS-Transistoren 103, 104 und 106 sind mit einer Übertragungssignalleitung TR, einer Rücksetzsignalleitung RST bzw. einer Auswahlsignalleitung SEL verbunden. Es ist anzumerken, dass die Übertragungssignalleitung TR, die Rücksetzsignalleitung RST und die Auswahlsignalleitung SEL die Signalleitung 11 bilden.
  • Die Einheit für photoelektrische Umwandlung 101 erzeugt eine Ladung gemäß eingestrahltem Licht wie vorstehend beschrieben. Für diese Einheit für photoelektrische Umwandlung 101 kann eine Photodiode verwendet werden. Ferner bilden die Ladungshalteeinheit 102 und die MOS-Transistoren 103 bis 106 die Pixelschaltung.
  • Der MOS-Transistor 103 ist ein Transistor, der eine Ladung, die durch die von der Einheit für photoelektrische Umwandlung 101 durchgeführte photoelektrische Umwandlung erzeugt wird, an die Ladungshalteeinheit 102 überträgt. Die Übertragung der Ladung durch den MOS-Transistor 103 wird durch ein Signal gesteuert, das über die Übertragungssignalleitung TR übertragen wird. Die Ladungshalteeinheit 102 ist ein Kondensator, der die von dem MOS-Transistor 103 übertragene Ladung hält. Der MOS-Transistor 105 ist ein Transistor, der ein Signal auf Grundlage der von der Ladungshalteeinheit 102 gehaltenen Ladung erzeugt. Der MOS-Transistor 106 ist ein Transistor, der das von dem MOS-Transistor 105 erzeugte Signal als ein Bildsignal an die Signalleitung 12 ausgibt. Dieser MOS-Transistor 106 wird durch ein Signal gesteuert, das von der Auswahlsignalleitung SEL übertragen wird.
  • Der MOS-Transistor 104 ist ein Transistor, der die Ladungshalteeinheit 102 durch Entladen der von der Ladungshalteeinheit 102 gehaltenen Ladung an die Energieversorgungsleitung Vdd rücksetzt. Das Rücksetzen durch diesen MOS-Transistor 104 wird durch ein Signal gesteuert, das von der Rücksetzsignalleitung RST übertragen und ausgeführt wird, bevor die Ladung von dem MOS-Transistor 103 übertragen wird. Es ist anzumerken, dass zur Zeit des Rücksetzens auch die Einheit für photoelektrische Umwandlung 101 rückgesetzt werden kann, indem der MOS-Transistor 103 in einen leitfähigen Zustand gebracht wird. Auf diese Weise wandelt die Pixelschaltung die von der Einheit für photoelektrische Umwandlung 101 erzeugte Ladung in das Bildsignal um.
  • [Konfiguration des Pixels]
  • 3 ist eine Draufsicht, die ein Konfigurationsbeispiel von Pixeln gemäß einer ersten Ausführungsform der vorliegenden Offenbarung zeigt. 3 ist ein Diagramm zur Darstellung eines Konfigurationsbeispiels der Pixel 100, die in der Pixelarray-Einheit 10 angeordnet sind. In 3 stellt ein Rechteck in einer durchgezogenen Linie das Pixel 100 dar; stellt ein Rechteck in einer gestrichelten Linie eine n-Typ-Halbleiterregion 111 dar, die die Einheit für photoelektrische Umwandlung 101 bildet; stellt ein Kreis in einer abwechselnd lang und zweimal kurz gestrichelten Linie eine On-Chip-Linse 180 dar; und stellt ein Kreis in einer durchgezogenen Linie eine In-Layer-Linse 160 dar.
  • Die On-Chip-Linse 180 ist eine Linse, die in einer äußersten Schicht des Pixels 100 angeordnet ist und einfallendes Licht von einem Subjekt auf der Einheit für photoelektrische Umwandlung 101 sammelt.
  • Die In-Layer-Linse 160 ist eine Linse, die zwischen der On-Chip-Linse 180 und der Einheit für photoelektrische Umwandlung 101 angeordnet ist und die das von der On-Chip-Linse 180 gesammelte einfallende Licht weiter sammelt. In jedem Pixel 100 ist eine Mehrzahl der In-Layer-Linsen 160 angeordnet. Das in 3 gezeigte Pixel 100 stellt ein Beispiel dar, in dem neun In-Layer-Linsen 160 in einem Raster angeordnet sind. Es ist anzumerken, dass in der angeordneten Mehrzahl von In-Layer-Linsen 160 ein Spalt 169 gebildet ist. Einfallendes Licht, das den Spalt 169 passiert, wird zu der Einheit für photoelektrische Umwandlung 101 emittiert, ohne die In-Layer-Linse 160 zu passieren. Details der Konfiguration des Pixels 100 werden später beschrieben.
  • Es ist anzumerken, dass in dem Pixel 100 ein Farbfilter 172 (nicht gezeigt) angeordnet ist. Dieser Farbfilter 172 ist ein optischer Filter, der von dem einfallenden Licht Licht mit einer vorgegebenen Wellenlänge durchlässt. Als der Farbfilter 172 können beispielsweise Farbfilter, die rotes Licht, grünes Licht und blaues Licht durchlassen, in den entsprechenden Pixeln 100 angeordnet sein. Die in 3 gezeigten Buchstaben stellen Typen von Farbfiltern 172 dar, die in den Pixeln 100 angeordnet sind. Insbesondere „R“, „G“ und „B“ stellen dar, dass die Farbfilter 172, die rotem Licht, grünem Licht bzw. blauem Licht entsprechen, angeordnet sind. Diese Farbfilter 172 können z. B. in einem Bayer-Array angeordnet sein. Das hierin erwähnte Bayer-Array ist ein Array-Verfahren, bei dem die Farbfilter 172, die grünem Licht entsprechen, schachbrettartig angeordnet sind, und die Farbfilter 172, die rotem und blauem Licht entsprechen, zwischen den Farbfiltern 172, die grünem Licht entsprechen, angeordnet sind. Vier Pixel 100 in zwei Reihen und zwei Spalten, die in 3 gezeigt sind, sind in der Länge und in der Breite nacheinander angeordnet, um die Pixelarray-Einheit 10 zu bilden.
  • [Schnittkonfiguration des Pixels]
  • 4 ist eine Schnittansicht, die ein Konfigurationsbeispiel eines Pixels gemäß den Ausführungsformen der vorliegenden Offenbarung zeigt. 4 ist eine Schnittansicht, die ein Konfigurationsbeispiel des in der Pixelarray-Einheit 10 angeordneten Pixels 100 zeigt. Außerdem ist 4 eine Schnittansicht des Bildaufnahmeelements 1 (der Pixelarray-Einheit 10) entlang einer in 3 gezeigten Linie A-A'. Das in 4 gezeigte Pixel 100 umfasst ein Halbleitersubstrat 110, eine Verdrahtungsregion 130, ein Trägersubstrat 140, einen Isolierfilm 120, einen Lichtabschirmfilm 150, die In-Layer-Linse 160, einen Planarisierungsfilm 171, den Farbfilter 172 und die On-Chip-Linse 180.
  • Das Halbleitersubstrat 110 ist ein Halbleitersubstrat, in dem eine Halbleiterregion für die Elemente gebildet ist, die die mit Bezugnahme auf 2 beschriebene Pixelschaltung bilden. In 4 sind von diesen Elementen die Einheit für photoelektrische Umwandlung 101 und der MOS-Transistor 103 gezeigt. Das in 4 gezeigte Halbleitersubstrat 110 umfasst eine p-Typ-Halbleiterregion 112, die eine Wannenregion bildet, und eine n-Typ-Halbleiterregion 111, die innerhalb der p-Typ-Halbleiterregion 112 gebildet ist. Diese n-Typ-Halbleiterregion 111 bildet die Einheit für photoelektrische Umwandlung 101. Insbesondere wirkt ein p-n-Übergang, der die n-Typ-Halbleiterregion 111 und die p-Typ-Halbleiterregion 112, die die n-Typ-Halbleiterregion 111 umgibt, umfasst, als eine Photodiode. Wenn dieser p-n-Übergang mit einfallendem Licht bestrahlt wird, wird durch photoelektrische Umwandlung eine Ladung erzeugt, die sich in der n-Typ-Halbleiterregion 111 ansammelt.
  • Wie vorstehend beschrieben, wird die Ladung, die sich in der n-Typ-Halbleiterregion 111 angesammelt hat, von dem MOS-Transistor 103 übertragen. Der in 4 gezeigte MOS-Transistor 103 ist ein MOS-Transistor, der die n-Typ-Halbleiterregion 111 als eine Source-Region und die p-Typ-Halbleiterregion 112 als eine Kanalregion verwendet. Dieser MOS-Transistor 103 umfasst eine Gate-Elektrode 133. Das Halbleitersubstrat 110 kann z. B. Silizium (Si) umfassen. Außerdem kann auf dem Halbleitersubstrat 110 die mit Bezugnahme auf 1 beschriebene Vertikalansteuereinheit 20 oder dergleichen angeordnet sein.
  • Die Verdrahtungsregion 130 ist eine Region, in der eine Verdrahtung gebildet ist, die auf einer Vorderoberfläche des Halbleitersubstrats 110 gebildet ist und die ein auf dem Halbleitersubstrat 110 gebildetes Halbleiterelement elektrisch verbindet. In der Verdrahtungsregion 130 sind eine Verdrahtungsschicht 132 und eine Isolierschicht 131 angeordnet. Die Verdrahtungsschicht 132 bildet die vorstehend beschriebene Verdrahtung. Diese Verdrahtungsschicht 132 kann z. B. Kupfer (Cu) und Wolfram (W) umfassen. Die Isolierschicht 131 isoliert die Verdrahtungsschicht 132. Diese Isolierschicht 131 kann z. B. Siliziumoxid (SiO2) oder Siliziumnitrid (SiN) umfassen. Außerdem ist in der Verdrahtungsregion 130 die vorstehend beschriebene Gate-Elektrode 133 angeordnet.
  • Das Trägersubstrat 140 ist ein Substrat, das das Bildaufnahmeelement 1 trägt. Dieses Trägersubstrat 140 ist ein Substrat, das einen Silizium-Wafer oder dergleichen umfasst und die Festigkeit des Bildaufnahmeelements 1 hauptsächlich zu dem Zeitpunkt der Herstellung des Bildaufnahmeelements 1 erhöht.
  • Der Isolierfilm 120 ist ein Film, der eine Rückoberflächenseite des Halbleitersubstrats 110 isoliert und schützt. Dieser Isolierfilm 120 kann z. B. ein Oxid wie SiO2 umfassen.
  • Der Lichtabschirmfilm 150 ist in der Nähe einer Grenze zwischen Pixeln 100 angeordnet und blockiert einfallendes Licht, das schräg von benachbarten Pixeln 100 kommt. Die Farbfilter 172, die unterschiedlichem Licht entsprechen, sind in den benachbarten Pixeln 100 angeordnet, wie mit Bezugnahme auf 3 beschrieben. Wenn einfallendes Licht, das die verschiedenen Typen von Farbfiltern 172 in den benachbarten Pixeln 100 passiert hat, zu der Einheit für photoelektrische Umwandlung 101 emittiert wird, kommt es zu einer Farbvermischung und damit zu einer Verschlechterung der Bildqualität. Durch die Anordnung des Lichtabschirmfilms 150 und die Blockierung des einfallenden Lichts von den benachbarten Pixeln 100 kann die Farbvermischung verhindert werden. Ein Öffnungsabschnitt 151 ist in dem Lichtabschirmfilm 150 in einem mittleren Abschnitt des Pixels 100 angeordnet. Einfallendes Licht wird über diesen Öffnungsabschnitt 151 zu der Einheit für photoelektrische Umwandlung 101 emittiert. Für den Lichtabschirmfilm 150 kann zum Beispiel ein Film verwendet werden, der W umfasst.
  • Die In-Layer-Linse 160 ist eine Linse, die in einer inneren Schicht des Pixels 100 gebildet ist und die einfallendes Licht sammelt. Ein in 4 gezeigter konvexer Abschnitt in Form einer Halbkugel entspricht einer In-Layer-Linse 160. Wie vorstehend beschrieben, ist eine Mehrzahl von In-Layer-Linsen 160 in dem Pixel 100 angeordnet. Diese In-Layer-Linsen 160 sind parallel zu einem Strahlengang von einfallendem Licht in dem Pixel 100 angeordnet. Insbesondere ist die Mehrzahl von In-Layer-Linsen 160 in einer Konfiguration angeordnet, dass einfallendes Licht, das eine dieser In-Layer-Linsen 160 passiert hat, die Einheit für photoelektrische Umwandlung 101 erreicht. Das einfallende Licht erreicht die Einheit für photoelektrische Umwandlung 101, ohne die Mehrzahl von In-Layer-Linsen 160 zu passieren. In 4 ist die Mehrzahl von In-Layer-Linsen 160 im Wesentlichen in der gleichen Schicht angeordnet. In einem Fall, in dem die In-Layer-Linsen 160 wie beschrieben in der gleichen Schicht angeordnet sind, können diese In-Layer-Linsen 160 auch gleichzeitig gebildet werden. Es ist anzumerken, dass die Konfiguration nur ermöglichen muss, dass einfallendes Licht, das eine der Mehrzahl von In-Layer-Linsen 160 passiert hat, die Einheit für photoelektrische Umwandlung 101 erreicht, und die Mehrzahl von In-Layer-Linsen 160 kann auch in verschiedenen Schichten gebildet sein.
  • Die In-Layer-Linse 160 kann ein anorganisches Material oder ein Harz mit einem hohen Brechungsindex umfassen. Die Linse 160 kann zum Beispiel SiN oder Siliziumoxynitrid (SiON) umfassen. Außerdem kann jede der In-Layer-Linsen 160 eine Größe von z. B. 0,8 pm bis 1,0 pm im Durchmesser haben. Die in 4 gezeigten In-Layer-Linsen 160 stellen ein Beispiel dar, bei dem untere Schichtabschnitte der In-Layer-Linsen 160 mit einem gemeinsamen Film gebildet sind. Die unteren Schichtabschnitte der In-Layer-Linsen 160 planarisieren eine Rückoberfläche des Bildaufnahmeelements 1, auf der der Lichtabschirmfilm 150 gebildet ist.
  • Der Planarisierungsfilm 171 planarisiert die Rückoberfläche des Bildaufnahmeelements 1, auf der die In-Layer-Linsen 160 gebildet sind. Dieser Planarisierungsfilm 171 kann z. B. ein Harz umfassen. Der Farbfilter 172 und die On-Chip-Linse 180 sind in einer oberen Schicht des Planarisierungsfilms 171 laminiert.
  • Das in 4 gezeigte Bildaufnahmeelement 1 entspricht einem Bildaufnahmeelement vom Rückseitenbestrahlungstyp, das mit einfallendem Licht von der Rückoberflächenseite des Halbleitersubstrats 110 aus bestrahlt wird. Ein Pfeil in einer durchgezogenen Linie, der in 4 gezeigt ist, stellt einfallendes Licht dar, mit dem die Rückoberfläche bestrahlt wird. Auf diese Weise erreicht das einfallende Licht, das die On-Chip-Linse 180 und die In-Layer-Linse 160 passiert hat, die n-Typ-Halbleiterregion 111 des Halbleitersubstrats 110 und wird die photoelektrische Umwandlung durchgeführt. Ein Teil des auf das Halbleitersubstrat 110 einfallenden Lichts passiert jedoch das Halbleitersubstrat 110, ohne zu der photoelektrischen Umwandlung beizutragen, und erreicht die Verdrahtungsregion 130. Ein Pfeil in einer gestrichelten Linie, der in 4 gezeigt ist, stellt einen Zustand dar, in dem einfallendes Licht das Halbleitersubstrat 110 passiert. Wenn dieses durchgelassene Licht von der Verdrahtungsschicht 132 reflektiert und aus dem Pixel 100 heraus emittiert wird, wird es zu Streulicht. Wenn dieses Streulicht von einem Gehäuse oder dergleichen aus dem Bildaufnahmeelement heraus 1 reflektiert wird, wieder auf ein anderes Pixel 100 fällt und photoelektrischer Umwandlung unterzogen wird, kommt es zu Rauschen in den Bildsignalen und wird die Bildqualität verschlechtert. Aus diesem Grund wird durch die Anordnung der Mehrzahl von In-Layer-Linsen 160 in dem in 4 gezeigten Pixel 100 das von der Verdrahtungsschicht 132 reflektierte Licht reduziert.
  • [Strahlengang von einfallendem Licht]
  • 5 ist ein Diagramm, das einen Strahlengang von einfallendem Licht in einem Pixel gemäß einer herkömmlichen Technologie zeigt. 5 ist ein Diagramm, das als ein Vergleichsbeispiel den Strahlengang von einfallendem Licht in dem Pixel zeigt, in dem eine In-Layer-Linse 160 angeordnet ist, und das schematisch die On-Chip-Linse 180, die In-Layer-Linse 160, die n-Typ-Halbleiterregion 111 und die Verdrahtungsschicht 132 zeigt. Ein Pfeil in einer durchgezogenen Linie, der in 5 gezeigt ist, stellt einfallendes Licht mit einer relativ langen Wellenlänge dar, wie z. B. rotes Licht, und ein Pfeil in einer gestrichelten Linie stellt einfallendes Licht mit einer relativ kurzen Wellenlänge dar, wie z. B. blaues Licht. Das einfallende Licht wird von der On-Chip-Linse 180 und der In-Layer-Linse 160 gesammelt und erreicht die Einheit für photoelektrische Umwandlung 101 (n-Typ-Halbleiterregion 111). Das einfallende Licht, das von den beiden Linsen gesammelt wird, verkürzt eine Brennweite und kann somit eine Höhe des Bildaufnahmeelements 1 verringern. Wenn das einfallende Licht jedoch nicht in der n-Typ-Halbleiterregion 111 absorbiert wird, d. h. nicht photoelektrischer Umwandlung unterzogen wird, passiert es die n-Typ-Halbleiterregion 111, erreicht die Verdrahtungsschicht 132 in der Verdrahtungsregion 130 und wird reflektiert.
  • Das einfallende Licht mit der relativ kurzen Wellenlänge kommt an einer flachen Position der n-Typ-Halbleiterregion 111 in den Fokus. In einem Fall, in dem das einfallende Licht nicht in der n-Typ-Halbleiterregion 111 absorbiert wird, wird es gestreut und erreicht dann die Verdrahtungsschicht 132 der Verdrahtungsregion 130. Dahingegen gelangt das einfallende Licht mit der relativ langen Wellenlänge an einer tiefen Position der n-Typ-Halbleiterregion 111 in den Fokus. Aus diesem Grund erreicht das einfallende Licht mit der relativ langen Wellenlänge in einem Fall, in dem es nicht in der n-Typ-Halbleiterregion 111 absorbiert wird, die Verdrahtungsschicht 132, während es in einem relativ schmalen Bereich konzentriert wird, wie durch Pfeile in gestrichelten Linien gezeigt, und wird reflektiert. Folglich bewirkt einfallendes Licht mit einer längeren Wellenlänge eine Reflexion mit höherer Intensität.
  • 6 ist ein Diagramm, das ein Beispiel für einen Strahlengang von einfallendem Licht in dem Pixel gemäß der ersten Ausführungsform der vorliegenden Offenbarung zeigt. Das einfallende Licht, das die in 6 gezeigte On-Chip-Linse 180 passiert hat, wird von einer Mehrzahl von (in 6 drei) In-Layer-Linsen 160a, 160b und 160c gesammelt und in die n-Typ-Halbleiterregion 111 emittiert. Außerdem wird einfallendes Licht, das in eine Region emittiert wurde, die in Kontakt mit zwei In-Layer-Linsen 160 ist, wiederholt zwischen den beiden In-Layer-Linsen 160 reflektiert und danach in die n-Typ-Halbleiterregion 111 emittiert. Auf diese Weise wird das einfallende Licht von den In-Layer-Linsen 160 gestreut und in die n-Typ-Halbleiterregion 111 emittiert. In einem Fall, in dem das einfallende Licht in der n-Typ-Halbleiterregion 111 nicht absorbiert wird, erreicht es die Verdrahtungsschicht 132 in einem breit gestreuten Zustand. Dadurch kann eine Menge von reflektiertem Licht reduziert werden. Da das einfallende Licht gestreut wird, ist außerdem ein höherer Grad an Flexibilität bei der Anordnung der Verdrahtungsschicht 132 möglich. Beispielsweise kann die Verdrahtungsschicht 132 unmittelbar unter einem mittleren Abschnitt der Einheit für photoelektrische Umwandlung 101 angeordnet sein.
  • Ferner ist es vorteilhaft, eine Konfiguration zu verwenden, bei der eine der Mehrzahl von In-Layer-Linsen 160 in dem mittleren Abschnitt des Pixels 100 angeordnet ist, wie die in 6 gezeigte In-Layer-Linse 160b. Insbesondere ist eine der Mehrzahl von In-Layer-Linsen 160 auf einer optischen Achse der On-Chip-Linse 180 angeordnet. Da einfallendes Licht, das die On-Chip-Linse 180 passiert hat, in dem mittleren Abschnitt des Pixels 100 gesammelt wird, kann eine große Menge des einfallenden Lichts, das die On-Chip-Linse 180 passiert hat, durch die In-Layer-Linse 160 geleitet werden. Im Vergleich zu einem Fall, in dem der Spalt 169 auf der optischen Achse der On-Chip-Linse 180 angeordnet ist, ist es möglich, eine größere Menge an einfallendem Licht zu streuen.
  • [Herstellungsverfahren des Bildaufnahmeelements]
  • 7 und 8 sind Diagramme zur Darstellung des Beispiels für das Herstellungsverfahren des Bildaufnahmeelements gemäß den Ausführungsformen der vorliegenden Offenbarung. 7 ist ein Diagramm zur Darstellung eines Beispiels eines Herstellungsprozesses des Bildaufnahmeelements 1. In 7 ist die Darstellung der Konfiguration des Pixels 100 vereinfacht gezeigt.
  • Zuerst wird die Verdrahtungsregion 130 auf dem Halbleitersubstrat 110 gebildet, in dem die p-Typ-Halbleiterregion 112 und die n-Typ-Halbleiterregion 111 gebildet werden. Anschließend wird das Trägersubstrat 140 an das Halbleitersubstrat 110 gebondet, das Halbleitersubstrat 110 umgedreht und die Rückoberfläche des Halbleitersubstrats 110 geschliffen, um seine Wandstärke zu verringern. Anschließend werden der Isolierfilm 120 und der Lichtabschirmfilm 150 auf der Rückoberfläche des Halbleitersubstrats 110 (A in 7) angeordnet.
  • Anschließend wird ein Linsenmaterial 401, das ein Material der In-Layer-Linse 160 ist, auf der Rückoberfläche des Halbleitersubstrats 110 angeordnet. Die Bildung des Linsenmaterials 401 kann z. B. durch Filmbildung eines Linsenmaterials wie SiN mittels chemischer Gasphasenabscheidung (CVD) durchgeführt werden (B in 7).
  • Anschließend wird ein Abdecklack 402 auf das Linsenmaterial 401 laminiert. Für diesen Abdecklack 402 wird z. B. ein Photolack verwendet und der Abdecklack 402 kann durch Auftragen des Photolacks auf das Linsenmaterial 401 (C in 7) gebildet werden.
  • Anschließend wird ein Abdecklack 403 mit einer ähnlichen Form wie die der In-Layer-Linse 160 gebildet. Die Bildung erfolgt z. B. durch Strukturierung des Abdecklacks 402 in zylindrischer oder würfelförmiger Form durch eine Lithografie-Technologie. Danach kann der Abdecklack 403 durch Lösen des strukturierten Abdecklacks 402 mittels eines Reflow-Ofens oder dergleichen gebildet werden (D in 8).
  • Anschließend wird Trockenätzen unter Verwendung des Abdecklacks 403 als eine Maske durchgeführt. Bei diesem Verfahren wird die Form des Abdecklacks 403 auf das Linsenmaterial 401 übertragen und wird die In-Layer-Linse 160 in Form einer Halbkugel gebildet (E in 8). Es ist anzumerken, dass 7 und 8 jeweils ein Beispiel für die gleichzeitige Bildung einer Mehrzahl von In-Layer-Linsen 160 zeigen.
  • Wie vorstehend beschrieben, ermöglicht in dem Bildaufnahmeelement 1 gemäß der ersten Ausführungsform der vorliegenden Offenbarung die Anordnung der Mehrzahl von In-Layer-Linsen 160, dass einfallendes Licht, das die On-Chip-Linse 180 passiert hat, gestreut wird und das gestreute Licht zu der Einheit für photoelektrische Umwandlung 101 emittiert werden kann. Dies reduziert das von der Verdrahtungsschicht 132 reflektierte Licht und verhindert dadurch eine Verschlechterung der Bildqualität.
  • <Zweite Ausführungsform>
  • Die neun In-Layer-Linsen 160 sind in dem Bildaufnahmeelement 1 gemäß der vorstehend beschriebenen ersten Ausführungsform angeordnet. Dahingegen unterscheidet sich ein Bildaufnahmeelement 1 gemäß einer zweiten Ausführungsform der vorliegenden Offenbarung von der ersten Ausführungsform dadurch, dass eine andere Anzahl von In-Layer-Linsen 160 angeordnet ist.
  • [Konfiguration des Pixels]
  • 9 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer zweiten Ausführungsform der vorliegenden Offenbarung zeigt. 9 ist ein Diagramm zur Darstellung eines Konfigurationsbeispiels des Pixels 100 ähnlich wie in 3. In der folgenden Beschreibung werden die Bezugszeichen der gleichen Bestandteile wie in 3 weggelassen.
  • A in 9 zeigt ein Beispiel für die Anordnung von vier In-Layer-Linsen 160. Ferner zeigt B in 9 ein Beispiel für die Anordnung von 16 In-Layer-Linsen 160. Auf diese Weise kann eine frei wählbare Anzahl von zwei oder mehr In-Layer-Linsen 160 in dem Pixel 100 angeordnet werden. Die Anordnung von mehr In-Layer-Linsen 160 kann den Spalt 169 zwischen den In-Layer-Linsen 160 kleiner machen und eine größere Menge an einfallendem Licht streuen. Es ist möglich, In-Layer-Linsen 160 anzuordnen, deren Anzahl der Verarbeitungsgenauigkeit der In-Layer-Linsen 160 in dem Herstellungsprozess des Bildaufnahmeelements 1 entspricht.
  • Außerdem zeigt C in 9 ein Beispiel für den Fall, dass neun In-Layer-Linsen 160, die jeweils einen relativ kleinen Durchmesser haben, in der Nähe des mittleren Abschnitts des Pixels 100 angeordnet sind. Auch in diesem Fall ist es möglich, den Spalt 169 klein zu machen.
  • Da eine andere als die vorstehend beschriebene Konfiguration des Bildaufnahmeelements 1 der in der ersten Ausführungsform der vorliegenden Offenbarung beschriebenen Konfiguration des Bildaufnahmeelements 1 ähnlich ist, wird deren Beschreibung weggelassen.
  • Wie vorstehend beschrieben, kann in dem Bildaufnahmeelement 1 gemäß der zweiten Ausführungsform der vorliegenden Offenbarung entsprechend der Verarbeitungsgenauigkeit eine frei wählbare Anzahl von zwei oder mehr In-Layer-Linsen 160 angeordnet werden.
  • <Dritte Ausführungsform>
  • In dem Bildaufnahmeelement 1 gemäß der ersten Ausführungsform ist die In-Layer-Linse 160 in einer Draufsicht mit einer kreisförmigen Form angeordnet. Ein Bildaufnahmeelement 1 gemäß einer dritten Ausführungsform der vorliegenden Offenbarung unterscheidet sich dahingegen von der ersten Ausführungsform dadurch, dass In-Layer-Linsen in unterschiedlichen Formen angeordnet sind.
  • [Konfiguration von Pixel 1]
  • 10 ist eine Draufsicht, die ein erstes Konfigurationsbeispiel eines Pixels gemäß einer dritten Ausführungsform der vorliegenden Offenbarung zeigt. 10 ist ein Diagramm zur Darstellung eines Konfigurationsbeispiels eines Pixels 100 ähnlich wie in 3. Dieses Pixel 100 unterscheidet sich von dem mit Bezugnahme auf 3 beschriebenen Pixel 100 dadurch, dass eine In-Layer-Linse mit einer anderen Form als einer Kreisform angeordnet ist. A in 10 zeigt ein Beispiel für die Anordnung einer In-Layer-Linse 161 mit einer elliptischen Form in einer Draufsicht neben der In-Layer-Linse 160. Außerdem zeigt B in 10 ein weiteres Anordnungsbeispiel der In-Layer-Linsen 160 und 161. So ist es möglich, die In-Layer-Linsen 160 und 161 mit voneinander verschiedenen Formen in dem Pixel 100 anzuordnen.
  • [Konfiguration von Pixel 2]
  • 11 ist eine Draufsicht, die ein zweites Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt. 11 zeigt ein Beispiel für die Anordnung der In-Layer-Linsen 161, bzw. der In-Layer-Linsen 160 und 161, wobei deren Größen optimiert sind, um den Spalt 169 klein zu machen. A in 11 zeigt ein Beispiel für die Anordnung von zwei In-Layer-Linsen 161. Ferner zeigen B und C in 11 jeweils ein Beispiel für die Anordnung der In-Layer-Linsen 160 und 161. Jede der Anordnungen in 11 kann den Spalt 169 kleiner machen als den Spalt 169 entsprechend der Anordnungen der In-Layer-Linsen 160 und 161 in 10.
  • [Konfiguration des Pixel 3]
  • 12 ist eine Draufsicht, die ein drittes Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt. 12 zeigt ein Beispiel für die Anordnung einer In-Layer-Linse 162 mit einer rechteckigen Form in einer Draufsicht. Außerdem zeigt B in 12 ein Beispiel für einen Fall, dass die In-Layer-Linsen 162 in einer Draufsicht mit einer quadratischen Form bzw. einer länglichen Form kombiniert angeordnet sind. Auf diese Weise kann die Anordnung der In-Layer-Linse 162 mit der rechteckigen Form den Spalt 169 kleiner machen als den Spalt 169 entsprechend der Anordnung der Innenlinse 160 mit der kreisförmigen Form.
  • [Konfiguration von Pixel 4]
  • 13 ist eine Draufsicht, die ein viertes Konfigurationsbeispiel des Pixels gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt. A in 13 zeigt ein Beispiel für die Anordnung einer In-Layer-Linse 163 und der In-Layer-Linse 160 und B in 13 zeigt ein Diagramm, das eine Form eines Abschnitts der In-Layer-Linsen darstellt. Die In-Layer-Linse 163 ist eine In-Layer-Linse, die in einer Draufsicht einen Öffnungsabschnitt in ihrem mittleren Abschnitt umfasst und eine Form hat, die durch Halbierung eines Torus in einer Dickenrichtung erhalten wird. Die in 13 gezeigte In-Layer-Linse 160 ist in dem Öffnungsabschnitt der In-Layer-Linse 163 angeordnet. Auf diese Weise kann durch die kombinierte Anordnung der In-Layer-Linsen 160 und 163 der Spalt 169 verkleinert werden.
  • Da eine andere als die vorstehend beschriebene Konfiguration des Bildaufnahmeelements 1 der in der ersten Ausführungsform der vorliegenden Offenbarung beschriebenen Konfiguration des Bildaufnahmeelements 1 ähnlich ist, wird deren Beschreibung weggelassen.
  • Wie vorstehend beschrieben, kann in dem Bildaufnahmeelement 1 gemäß der dritten Ausführungsform der vorliegenden Offenbarung die Anordnung der In-Layer-Linsen 160 bis 163 mit unterschiedlichen Formen den Spalt 169 kleiner machen und somit eine größere Menge an einfallendem Licht streuen.
  • <Vierte Ausführungsform>
  • In dem Bildaufnahmeelement 1 gemäß der vorstehend beschriebenen ersten Ausführungsform sind die In-Layer-Linsen 160 symmetrisch um die Mitte des Pixels 100 angeordnet. Dahingegen unterscheidet sich ein Bildaufnahmeelement 1 gemäß einer vierten Ausführungsform der vorliegenden Offenbarung von der vorstehend beschriebenen ersten Ausführungsform dadurch, dass In-Layer-Linsen verwendet werden, die asymmetrisch um die Mitte des Pixels 100 angeordnet sind.
  • [Konfiguration des Pixels]
  • 14 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer vierten Ausführungsform der vorliegenden Offenbarung zeigt. 14 ist ein Diagramm zur Darstellung eines Konfigurationsbeispiels eines Pixels 100 ähnlich wie in 3. Das in 14 gezeigte Pixel unterscheidet sich von dem mit Bezugnahme auf 3 beschriebenen Pixel 100 dadurch, dass die In-Layer-Linsen asymmetrisch um die Mitte des Pixels angeordnet sind. Die Pixel (Pixel 201 und 202) in 14 sind als ein Beispiel für die Anordnung von vier In-Layer-Linsen 161 mit unterschiedlichen Formen gezeigt. Insbesondere sind in den in 14 gezeigten Pixeln zwei In-Layer-Linsen 161a mit einer relativ großen Größe und zwei In-Layer-Linsen 161b mit einer relativ kleinen Größe angeordnet. Dadurch sind die In-Layer-Linsen 161 asymmetrisch um die Mitte des Pixels 100 angeordnet und kann einfallendes Licht asymmetrisch gestreut werden. Das in 14 in A gezeigte Pixel 201 und das in 14 in B gezeigte Pixel 202 werden durch Ändern der Anordnung der In-Layer-Linsen 161a und 161b um 180 Grad voneinander konfiguriert. Die Pixel 201 und 202 sind in einem Endabschnitt der mit Bezugnahme auf 1 beschriebenen Pixelarray-Einheit 10 angeordnet. Insbesondere ist das in 14 in A gezeigte Pixel 201 an einem rechten Ende der Pixelarray-Einheit 10 angeordnet und ist das in B in 14 gezeigte Pixel 202 an einem linken Ende der Pixelarray-Einheit 10 angeordnet. Das einfallende Licht wird schräg zu den Pixeln an einem Endabschnitt der Pixelarray-Einheit 10 gemäß einer Bildhöhe des Subjekts emittiert. Durch die asymmetrische Anordnung der In-Layer-Linsen 161 kann somit ein Einfluss durch die Bildhöhe reduziert werden.
  • [Strahlengang von einfallendem Licht]
  • 15 ist ein Diagramm, das ein Beispiel für einen Strahlengang von einfallendem Licht in dem Pixel gemäß der vierten Ausführungsform der vorliegenden Offenbarung zeigt. 15 ist ein Diagramm, das den Strahlengang von einfallendem Licht in dem Pixel 201 darstellt. Wie vorstehend beschrieben, ist das Pixel 201 an dem rechten Ende der Pixelarray-Einheit 10 angeordnet. Aus diesem Grund fällt das einfallende Licht in der Zeichnung schräg von links oben auf das Pixel 201. Daher ist die Mehrzahl von In-Layer-Linsen 161 in dem Pixel 201 zu der rechten Seite der Zeichnung hin verschoben angeordnet und ist die In-Layer-Linse 161 auf der linken Seite horizontal lang. Diese Anordnung kann schräg einfallendes Licht an einem mittleren Abschnitt des Pixels 201 sammeln und auch das schräg einfallende Licht streuen.
  • Da eine andere als die vorstehend beschriebene Konfiguration des Bildaufnahmeelements 1 der in der ersten Ausführungsform der vorliegenden Offenbarung beschriebenen Konfiguration des Bildaufnahmeelements 1 ähnlich ist, wird deren Beschreibung weggelassen.
  • Wie vorstehend beschrieben, umfasst das Bildaufnahmeelement 1 gemäß der vierten Ausführungsform der vorliegenden Offenbarung die In-Layer-Linsen, die asymmetrisch um die Mitte des Pixels angeordnet sind, wodurch schräg einfallendes Licht an dem mittleren Abschnitt gesammelt und auch in dem Pixel gestreut werden kann.
  • <Fünfte Ausführungsform>
  • In dem Bildaufnahmeelement 1 gemäß der ersten Ausführungsform ist die In-Layer-Linse 160 in allen Pixeln 100 der Pixelarray-Einheit 10 angeordnet. Ein Bildaufnahmeelement 1 gemäß einer fünften Ausführungsform der vorliegenden Offenbarung unterscheidet sich dahingegen von der ersten Ausführungsform dadurch, dass die In-Layer-Linse 160 in dem Pixel 100 angeordnet ist, in dem der Farbfilter 172 angeordnet ist, der einfallendem Licht mit einer langen Wellenlänge entspricht.
  • [Konfiguration des Pixels]
  • 16 ist eine Draufsicht, die ein Konfigurationsbeispiel eines Pixels gemäß einer fünften Ausführungsform der vorliegenden Offenbarung zeigt. Das in 16 gezeigte Pixel 100 unterscheidet sich von dem mit Bezugnahme auf 3 beschriebenen Pixel 100 dadurch, dass die In-Layer-Linse 160 in dem Pixel 100 angeordnet ist, in dem der rotem Licht entsprechende Farbfilter 172 angeordnet ist. Da rotes Licht wie vorstehend beschrieben eine lange Wellenlänge hat, erreicht es einen tiefen Abschnitt des Halbleitersubstrats 110. Dementsprechend erhöht sich eine Menge des von der Verdrahtungsschicht 132 reflektierten Lichts. Dahingegen wird grünes Licht oder blaues Licht mit einer kurzen Wellenlänge an einer Region an einer relativ flachen Position des Halbleitersubstrats 110 gesammelt. Aus diesem Grund wird eine Menge des von der Verdrahtungsschicht 132 reflektierten Lichts relativ klein. Daher ist die In-Layer-Linse 160 in dem Pixel 100 angeordnet, in dem der rotem Licht entsprechende Farbfilter 172 angeordnet ist, und ist die In-Layer-Linse 160 nicht in dem Pixel 100 angeordnet, in dem der grünem oder blauem Licht entsprechende Farbfilter 172 angeordnet ist. Dadurch kann die Konfiguration des Bildaufnahmeelements 1 vereinfacht werden.
  • [Andere Konfiguration des Pixels]
  • 17 ist eine Draufsicht, die ein weiteres Konfigurationsbeispiel des Pixels gemäß der fünften Ausführungsform der vorliegenden Offenbarung zeigt. 17 unterscheidet sich von dem mit Bezugnahme auf 3 beschriebenen Pixel 100 dadurch, dass in dem Pixel 100 ferner ein Infrarotlicht entsprechender Farbfilter 172 angeordnet ist. Der Infrarotlicht entsprechende Farbfilter 172 ist ein Farbfilter 172, der Infrarotlicht durchlässt. In 17 gibt das als „IR“ bezeichnete Pixel 100 den Infrarotlicht entsprechenden Farbfilter 172 an. Das Pixel 100, in dem der Infrarotlicht entsprechende Farbfilter 172 angeordnet ist, kann einem der Pixel 100 zugeordnet werden, in denen zwei grünem Licht entsprechende Farbfilter 172 in dem Bayer-Array angeordnet sind. Die Anordnung der In-Layer-Linse 160 auch in dem Pixel 100, in dem der Infrarotlicht mit der langen Wellenlänge entsprechende Farbfilter 172 angeordnet ist, kann einfallendes Licht streuen.
  • Da eine andere als die vorstehend beschriebene Konfiguration des Bildaufnahmeelements 1 der in der ersten Ausführungsform der vorliegenden Offenbarung beschriebenen Konfiguration des Bildaufnahmeelements 1 ähnlich ist, wird deren Beschreibung weggelassen.
  • Wie vorstehend beschrieben, kann in dem Bildaufnahmeelement 1 gemäß der fünften Ausführungsform der vorliegenden Offenbarung die Anordnung der In-Layer-Linse 160 in dem Pixel gemäß einer Wellenlänge von einfallendem Licht die Konfiguration des Bildaufnahmeelements 1 vereinfachen.
  • <Sechste Ausführungsform>
  • In dem Bildaufnahmeelement 1 gemäß der ersten Ausführungsform ist nur das Pixel 100 in der Pixelarray-Einheit 10 angeordnet. Dahingegen unterscheidet sich ein Bildaufnahmeelement 1 gemäß einer sechsten Ausführungsform der vorliegenden Offenbarung von der ersten Ausführungsform dadurch, dass ferner ein Phasendifferenzpixel zur Detektion einer Bildebenenphasendifferenz des Subjekts angeordnet ist.
  • [Konfiguration der Pixel-Array-Einheit]
  • 18 ist eine Draufsicht, die ein Konfigurationsbeispiel einer Pixelarray-Einheit gemäß einer sechsten Ausführungsform der vorliegenden Offenbarung zeigt. Eine in 18 gezeigte Pixelarray-Einheit 10 unterscheidet sich von der mit Bezugnahme auf 3 beschriebenen Pixelarray-Einheit 10 dadurch, dass zusätzlich zu dem Pixel 100 ein Phasendifferenzpixel 300 angeordnet ist. Das hierin erwähnte Phasendifferenzpixel 300 ist ein Pixel zur Detektion der Bildebenenphasendifferenz des Subjekts. Das Bildaufnahmeelement 1 wird zusammen mit einer außen angeordneten Bilderfassungslinse verwendet und ein Bild des Subjekts wird durch die Bilderfassungslinse an der Pixelarray-Einheit 10 des Bildaufnahmeelements 1 erzeugt. Die Detektion einer Phasendifferenz des Subjekts, dessen Bild gebildet wird, ermöglicht die Detektion einer Fokusposition des Subjekts, wodurch der Autofokus in die Lage versetzt wird, eine Position der Bilderfassungslinse einzustellen.
  • In 18 ist eine Anordnung des Lichtabschirmfilms 150 gezeigt. Wie in 18 gezeigt, ist der Lichtabschirmfilm 150, der einen Öffnungsabschnitt 152 anstelle des Öffnungsabschnitts 151 hat, in dem Phasendifferenzpixel 300 angeordnet. Bei dieser Anordnung ist der Lichtabschirmfilm 150 so angeordnet, dass er eine linke oder rechte Hälfte der Einheit für photoelektrische Umwandlung 101 in dem Phasendifferenzpixel 300 abdeckt. In 18 schirmt der Lichtabschirmfilm 150 die linke Hälfte bzw. die rechte Hälfte der Einheit für photoelektrische Umwandlung 101 in den Phasendifferenzpixeln 300a und 300b ab. Bei dieser Anordnung erreicht einfallendes Licht, das die linke bzw. rechte Seite der Bilderfassungslinse in den Phasendifferenzpixeln 300a und 300b passiert hat, die Einheit für photoelektrische Umwandlung 101 und werden entsprechende Bildsignale erzeugt. Eine solche Verarbeitung wird als Pupillenteilung bezeichnet. Eine Mehrzahl von Phasendifferenzpixeln 300a und eine Mehrzahl von 300b sind in der Pixelarray-Einheit 10 angeordnet. Zwei Bilder werden auf Grundlage der entsprechenden Bildsignale erzeugt, die von der Mehrzahl der Phasendifferenzpixel 300a und der Mehrzahl der Phasendifferenzpixel 300b erzeugt werden. Anschließend ermöglicht die Detektion einer Phasendifferenz zwischen den beiden Bildern die Detektion der Fokusposition der Bilderfassungslinse.
  • Bei diesen Phasendifferenzpixeln 300 kann das Weglassen der In-Layer-Linse 160 die Genauigkeit der Pupillenteilung erhöhen. Dies liegt daran, dass einfallendes Licht, das einer Pupillenteilung unterzogen wird, nicht durch die In-Layer-Linse 160 gestreut wird. Dies kann einen Fehler bei der Detektion einer Phasendifferenz reduzieren.
  • Da eine andere als die vorstehend beschriebene Konfiguration des Bildaufnahmeelements 1 der in der ersten Ausführungsform der vorliegenden Offenbarung beschriebenen Konfiguration des Bildaufnahmeelements 1 ähnlich ist, wird deren Beschreibung weggelassen.
  • Wie vorstehend beschrieben, streut das Bildaufnahmeelement 1 gemäß der sechsten Ausführungsform der vorliegenden Offenbarung im Fall der Detektion der Bildebenenphasendifferenz das einfallende Licht in dem Pixel 100 und kann auch einen Fehler bei der Detektion einer Phasendifferenz durch das Phasendifferenzpixel 300 reduzieren.
  • <Beispiele für die praktische Verwendung der Kamera>
  • Die Technologie gemäß der vorliegenden Offenbarung (die vorliegende Technologie) kann auf verschiedene Produkte angewendet werden. Beispielsweise kann die vorliegende Technologie als ein Bildaufnahmeelement implementiert werden, das an einem Bildaufnahmegerät wie einer Kamera angebracht ist.
  • 19 ist ein Blockdiagramm, das ein schematisches Konfigurationsbeispiel einer Kamera als ein Beispiel für ein Bildaufnahmegerät zeigt, auf das die vorliegende Technologie angewendet werden kann. Eine in 19 gezeigte Kamera 1000 umfasst eine Linse 1001, ein Bildaufnahmeelement 1002, eine Bildaufnahmesteuereinheit 1003, eine Linsenantriebseinheit 1004, eine Bildverarbeitungseinheit 1005, eine Bedienungseingabeeinheit 1006, einen Einzelbildspeicher 1007, eine Anzeigeeinheit 1008 und eine Aufzeichnungseinheit 1009.
  • Die Linse 1001 ist eine Bilderfassungslinse der Kamera 1000. Diese Linse 1001 sammelt Licht von dem Subjekt und lässt das Licht auf das Bildaufnahmeelement 1002 fallen, das später beschrieben wird, um ein Bild des Subjekts zu bilden.
  • Das Bildaufnahmeelement 1002 ist ein Halbleiterelement, das von dem Subjekt reflektiertes und von der Linse 1001 gesammeltes Licht abbildet. Dieses Bildaufnahmeelement 1002 erzeugt ein analoges Bildsignal entsprechend dem eingestrahlten Licht, wandelt das analoge Bildsignal in ein digitales Bildsignal um und gibt das digitale Bildsignal aus.
  • Die Bildaufnahmesteuereinheit 1003 steuert die Bildaufnahme in dem Bildaufnahmeelement 1002. Diese Bildaufnahmesteuereinheit 1003 steuert das Bildaufnahmeelement 1002 durch Erzeugen eines Steuersignals und Ausgeben des Steuersignals an das Bildaufnahmeelement 1002. Außerdem kann die Bildaufnahmesteuereinheit 1003 auf Grundlage des von dem Bildaufnahmeelement 1002 ausgegebenen Bildsignals Autofokus in der Kamera 1000 durchführen. Der hierin erwähnte Autofokus ist ein System zur Detektion und automatischen Einstellung einer Fokusposition der Linse 1001. Bei diesem Autofokus ist es möglich, ein Verfahren zum Detektieren der Fokusposition zu verwenden, indem ein in dem Bildaufnahmeelement 1002 angeordnetes Phasendifferenzpixel veranlasst wird, eine Bildebenenphasendifferenz zu detektieren (BildebenenPhasendifferenz-Autofokus). Außerdem ist es möglich, ein Verfahren zur Detektion einer Position, die einem Bild den höchsten Kontrast ermöglicht (Kontrast-Autofokus), als Fokusposition anzuwenden. Die Bildaufnahmesteuereinheit 1003 stellt die Position der Linse 1001 über die Linsenantriebseinheit 1004 auf Grundlage der detektierten Fokusposition ein und führt den Autofokus durch. Es ist anzumerken, dass die Bildaufnahmesteuereinheit 1003 z. B. durch einen digitalen Signalprozessor (DSP) konfiguriert sein kann, der mit Firmware ausgestattet ist.
  • Die Linsenantriebseinheit 1004 treibt die Linse 1001 auf Grundlage der Steuerung durch die Bildaufnahmesteuereinheit 1003 an. Diese Linsenantriebseinheit 1004 kann die Linse 1001 durch Ändern der Position der Linse 1001 unter Verwendung eines eingebauten Motors antreiben.
  • Die Bildverarbeitungseinheit 1005 führt Verarbeitung an einem von dem Bildaufnahmeelement 1002 erzeugten Bildsignal durch. Diese Verarbeitung entspricht z. B. Demosaicing zum Erzeugen eines Bildsignals einer fehlenden Farbe unter den Bildsignalen, die Rot, Grün und Blau entsprechen, auf einer Pixel-für-Pixel-Basis, Rauschunterdrückung, um Rauschen in dem Bildsignal zu entfernen, und Codierung des Bildsignals. Die Bildverarbeitungseinheit 1005 kann z. B. durch einen Mikrocomputer konfiguriert sein, der mit Firmware ausgestattet ist.
  • Die Bedienungseingabeeinheit 1006 nimmt die Eingabe einer Bedienung durch einen Benutzer der Kamera 1000 an. Für diese Bedienungseingabeeinheit 1006 kann z. B. eine Druckschaltfläche oder ein Touchpanel verwendet werden. Die von der Bedienungseingabeeinheit 1006 angenommene Bedienungseingabe wird an die Bildaufnahmesteuereinheit 1003 und die Bildverarbeitungseinheit 1005 übertragen. Danach wird Verarbeitung gemäß der Eingabe der Operation, z. B. Verarbeitung wie die Bildaufnahme des Subjekts, aktiviert.
  • Der Einzelbildspeicher 1007 ist ein Speicher, der ein Einzelbild speichert, das ein Bildsignal für einen Bildschirm ist. Dieser Einzelbildspeicher 1007 wird von der Bildverarbeitungseinheit 1005 gesteuert und speichert das Einzelbild im Verlauf der Bildverarbeitung.
  • Die Anzeigeeinheit 1008 zeigt ein von der Bildverarbeitungseinheit 1005 verarbeitetes Bild an. Für diese Anzeigeeinheit 1008 kann z. B. ein Flüssigkristallbildschirmtastfeld verwendet werden.
  • Die Aufzeichnungseinheit 1009 zeichnet ein von der Bildverarbeitungseinheit 1005 verarbeitetes Bild auf. Für diese Aufzeichnungseinheit 1009 kann z. B. eine Speicherkarte oder eine Festplatte verwendet werden.
  • Es wurde eine Kamera beschrieben, auf die die vorliegende Offenbarung angewendet werden kann. Die vorliegende Technik kann von den vorstehend beschriebenen Konfigurationen auf das Bildaufnahmeelement 1002 angewendet werden. Insbesondere kann das mit Bezugnahme auf 1 beschriebene Bildaufnahmeelement 1 auf das Bildaufnahmeelement 1002 angewendet werden. Die Anwendung des Bildaufnahmeelements 1 auf das Bildaufnahmeelement 1002 reduziert das Auftreten von Farbvermischung und kann somit eine Verschlechterung der Bildqualität eines von der Kamera 1000 erzeugten Bildes verhindern. Es ist anzumerken, dass die Bildverarbeitungseinheit 1005 ein Beispiel für eine in den Ansprüchen beschriebene Verarbeitungsschaltung ist. Die Kamera 1000 ist ein Beispiel für ein in den Ansprüchen beschriebenes Bildaufnahmegerät.
  • Es ist anzumerken, dass die Beschreibung der Kamera als ein Beispiel gegeben wurde, jedoch kann die Technologie gemäß der vorliegenden Offenbarung auch auf ein anderes Gerät, z. B. ein Überwachungsgerät, angewendet werden.
  • <Beispiele für die praktische Verwendung für das System für endoskopische Chirurgie>.
  • Die Technologie (vorliegende Technologie) gemäß einer Ausführungsform der vorliegenden Offenbarung ist auf eine Vielzahl von Produkten anwendbar. Zum Beispiel kann die Technologie gemäß der vorliegenden Offenbarung auf ein System für endoskopische Chirurgie angewendet werden.
  • 20 ist eine Ansicht, die ein Beispiel für eine schematische Konfiguration eines Systems für endoskopische Chirurgie zeigt, auf das die Technologie gemäß der vorliegenden Offenbarung (vorliegende Technologie) angewendet werden kann.
  • In 20 ist ein Zustand dargestellt, in dem ein Chirurg (Arzt) 11131 ein System für endoskopische Chirurgie 11000 verwendet, um einen chirurgischen Eingriff für einen Patienten 11132 auf einem Patientenbett 11133 durchzuführen. Wie dargestellt, umfasst das System für endoskopische Chirurgie 11000 ein Endoskop 11100, andere chirurgische Instrumente 11110, wie zum Beispiel eine Pneumoperitoneumsröhre 11111 und eine Energievorrichtung 11112, ein Tragarmgerät 11120, das das Endoskop 11100 darauf trägt, und einen Wagen 11200, an dem verschiedene Geräte für endoskopische Chirurgie montiert sind.
  • Das Endoskop 11100 umfasst einen Objektivtubus 11101 mit einer Region einer vorgegebenen Länge von einem distalen Ende davon zur Einführung in eine Körperhöhle des Patienten 11132 und einen Kamerakopf 11102, der mit einem proximalen Ende des Objektivtubus 11101 verbunden ist. In dem dargestellten Beispiel ist das Endoskop 11100 dargestellt, das als ein starres Endoskop vorliegt, das den Objektivtubus 11101 vom harten Typ umfasst. Das Endoskop 11100 kann jedoch sonst auch als ein flexibles Endoskop vorliegen, das den Objektivtubus vom flexiblen Typ umfasst.
  • Der Objektivtubus 11101 hat an seinem distalen Ende eine Öffnung, in die eine Objektivlinse eingepasst ist. Ein Lichtquellengerät 11203 ist mit dem Endoskop 11100 derart verbunden, dass Licht, das von dem Lichtquellengerät 11203 erzeugt wird, durch einen Lichtleiter, der sich im Inneren des Objektivtubus 11101 erstreckt, in ein distales Ende des Objektivtubus eingebracht wird und durch die Objektivlinse auf ein Beobachtungsziel in einer Körperhöhle des Patienten 11132 gestrahlt wird. Es ist anzumerken, dass das Endoskop 11100 ein Vorwärtssichtendoskop sein kann oder ein Schrägsichtendoskop oder ein Seitensichtendoskop sein kann.
  • Ein optisches System und ein Bildaufnahmeelement sind im Inneren des Kamerakopfs 11102 derart vorgesehen, dass reflektiertes Licht (Beobachtungslicht) von dem Beobachtungsziel von dem optischen System an dem Bildaufnahmeelement gebündelt wird. Das Beobachtungslicht wird durch das Bildaufnahmeelement photoelektrisch umgewandelt, um ein elektrisches Signal zu erzeugen, das dem Beobachtungslicht entspricht, und zwar ein Bildsignal, das einem Beobachtungsbild entspricht. Das Bildsignal wird als RAW-Daten an eine Kamerasteuereinheit (CCU) 11201 übertragen.
  • Die CCU 11201 umfasst eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU) oder dergleichen und steuert einen Betrieb des Endoskops 11100 und eines Anzeigegeräts 11202 integral. Ferner empfängt die CCU 11201 ein Bildsignal von dem Kamerakopf 11102 und führt für das Bildsignal verschiedene Bildprozesse zum Anzeigen eines Bilds auf Grundlage des Bildsignals durch, wie beispielsweise einen Entwicklungsprozess (Demosaicing-Prozess).
  • Das Anzeigegerät 11202 zeigt darauf ein Bild auf Grundlage eines Bildsignals, für das die Bildprozesse von der CCU 11201 durchgeführt wurden, unter der Steuerung der CCU 11201 an.
  • Das Lichtquellengerät 11203 umfasst eine Lichtquelle, wie beispielsweise eine Leuchtdiode (LED), und führt bei Bildaufnahme einer zu operierenden Region und dergleichen dem Endoskop 11100 Einstrahlungslicht zu.
  • Ein Eingabegerät 11204 ist eine Eingabeschnittstelle für das System für endoskopische Chirurgie 11000. Ein Benutzer kann die Eingabe verschiedener Arten von Informations- oder Anweisungseingaben in das System für endoskopische Chirurgie 11000 über das Eingabegerät 11204 durchführen. Beispielsweise würde der Benutzer eine Anweisung oder dergleichen eingeben, um eine Bilderfassungsbedingung (Typ von Einstrahlungslicht, Vergrößerung, Brennweite oder dergleichen) durch das Endoskop 11100 zu ändern.
  • Ein Behandlungsinstrumentsteuergerät 11205 steuert das Ansteuern der Energievorrichtung 11112 zum Kauterisieren oder Schneiden eines Gewebes, Verschließen eines Blutgefäßes oder dergleichen. Ein Pneumoperitoneumsgerät 11206 führt durch die Pneumoperitoneumsröhre 11111 Gas in eine Körperhöhle des Patienten 11132 ein, um die Körperhöhle aufzublasen, damit das Sichtfeld des Endoskops 11100 sichergestellt ist und der Arbeitsraum für den Chirurgen sichergestellt ist. Ein Aufzeichnungsgerät 11207 ist ein Gerät, das in der Lage ist, verschiedene Arten von Information im Zusammenhang mit Chirurgie aufzuzeichnen. Ein Drucker 11208 ist ein Gerät, das in der Lage ist, verschiedene Arten von Information im Zusammenhang mit Chirurgie in verschiedenen Formen, etwa als einen Text, ein Bild oder eine Grafik, zu drucken.
  • Es ist anzumerken, dass das Lichtquellengerät 11203, das dem Endoskop 11100 Einstrahlungslicht zuführt, wenn eine zu operierende Region abzubilden ist, eine Weißlichtquelle umfassen kann, die beispielsweise eine LED, eine Laserlichtquelle oder eine Kombination daraus umfasst. In einem Fall, in dem eine Weißlichtquelle eine Kombination aus roten, grünen und blauen (RGB) Laserlichtquellen umfasst, kann, da die Ausgabeintensität und die Ausgabezeit mit einem hohen Genauigkeitsgrad für jede Farbe (jede Wellenlänge) gesteuert werden kann, eine Einstellung des Weißabgleichs eines erfassten Bilds von dem Lichtquellengerät 11203 durchgeführt werden. Ferner ist es in diesem Fall, wenn Laserstrahlen von den jeweiligen RGB-Laserlichtquellen zeitgetrennt auf ein Beobachtungsziel gestrahlt werden und das Ansteuern der Bildaufnahmeelemente des Kamerakopfs 11102 synchron zu den Einstrahlungszeiten gesteuert wird, auch möglich, zeitgetrennt Bilder zu erfassen, die den jeweiligen R-, G- und B-Farben einzeln entsprechen. Gemäß dem vorstehend beschriebenen Verfahren kann ein Farbbild selbst dann erhalten werden, wenn kein Farbfilter für das Bildaufnahmeelement vorgesehen ist.
  • Ferner kann das Lichtquellengerät 11203 derart gesteuert werden, dass die Intensität von auszugebendem Licht für jede vorgegebene Zeit geändert wird. Durch Steuerung der Ansteuerung des Bildaufnahmeelements des Kamerakopfs 11102 synchron zu der Zeitsteuerung der Änderung der Intensität von Licht, um Bilder zeitgetrennt zu erlangen, und Synthese der Bilder kann ein Bild eines Hochdynamikbereichs frei von unterbelichteten verwischten Schatten und überbelichteten hellen Stellen erzeugt werden.
  • Ferner kann das Lichtquellengerät 11203 dafür konfiguriert sein, Licht eines vorgegebenen Wellenlängenbands zuzuführen, das für Speziallichtbeobachtung geeignet ist. Bei Speziallichtbeobachtung, beispielsweise durch Nutzung der Wellenlängenabhängigkeit der Absorption von Licht eines Körpergewebes, wird Schmalbandlichtbeobachtung (Schmalbandbildaufnahme) der Bildaufnahme eines gewissen Gewebes, wie zum Beispiel eines Blutgefäßes eines oberflächlichen Teils der Schleimhaut oder dergleichen, mit hohem Kontrast durchgeführt, indem Licht eines schmaleren Wellenlängenbandes im Vergleich zu Bestrahlungslicht bei gewöhnlicher Beobachtung (nämlich Weißlicht) angewendet wird. Alternativ kann bei Speziallichtbeobachtung auch eine Fluoreszenzbeobachtung zum Erhalten eines Bilds aus Fluoreszenzlicht, das durch Einstrahlung von Anregungslicht erzeugt wird, durchgeführt werden. Beispielweise ist es bei Fluoreszenzbeobachtung möglich, eine Beobachtung von Fluoreszenzlicht von einem Körpergewebe durch Strahlen von Anregungslicht auf das Körpergewebe (Autofluoreszenzbeobachtung) durchzuführen oder ein Fluoreszenzlichtbild durch lokales Injizieren eines Reagenz, wie zum Beispiel Indocyaningrün (ICG), in ein Körpergewebe und Strahlen von Anregungslicht, das einer Fluoreszenzlichtwellenlänge des Reagenzes entspricht, auf das Körpergewebe zu erhalten. Das Lichtquellengerät 11203 kann dafür konfiguriert sein, derartiges schmalbandiges Licht und/oder Anregungslicht zuzuführen, das für Speziallichtbeobachtung, wie vorstehend beschrieben, geeignet ist.
  • 21 ist ein Blockdiagramm, das ein Beispiel einer funktionalen Konfiguration des Kamerakopfs 11102 und der CCU 11201, die in 20 dargestellt sind, darstellt.
  • Der Kamerakopf 11102 umfasst eine Linseneinheit 11401, eine Bildaufnahmeeinheit 11402, eine Antriebseinheit 11403, eine Kommunikationseinheit 11404 und eine Kamerakopfsteuereinheit 11405. Die CCU 11201 umfasst eine Kommunikationseinheit 11411, eine Bildverarbeitungseinheit 11412 und eine Steuereinheit 11413. Der Kamerakopf 11102 und die CCU 11201 sind zur Kommunikation miteinander durch ein Übertragungskabel 11400 verbunden.
  • Die Linseneinheit 11401 ist ein optisches System, das an einer Verbindungsstelle mit dem Objektivtubus 11101 vorgesehen ist. Beobachtungslicht, das von einem distalen Ende des Objektivtubus 11101 aufgenommen wird, wird zu dem Kamerakopf 11102 geführt und in die Linseneinheit 11401 eingebracht. Die Linseneinheit 11401 umfasst eine Kombination einer Mehrzahl von Linsen, einschließlich einer Zoomlinse und einer Fokussierlinse.
  • Die Bildaufnahmeeinheit 11402 enthält Bildaufnahmeelemente. Die Anzahl von Bildaufnahmeelementen, die in der Bildaufnahmeeinheit 11402 enthalten ist, kann eins (so genannter Einzelplattentyp) oder eine Mehrzahl (so genannter Mehrplattentyp) sein. In dem Fall, in dem die Bildaufnahmeeinheit 11402 beispielsweise als die vom Mehrplattentyp konfiguriert ist, werden Bildsignale, die jeweiligen R-, G- und B-Werten entsprechen, von den Bildaufnahmeelementen erzeugt und können die Bildsignale synthetisiert werden, um ein Farbbild zu erhalten. Die Bildaufnahmeeinheit 11402 kann auch derart konfiguriert sein, dass sie ein Paar Bildaufnahmeelemente zum Erlangen jeweiliger Bildsignale für das rechte Auge und das linke Auge, geeignet zur dreidimensionalen (3-D) Anzeige, hat. Wenn eine 3-D-Anzeige durchgeführt wird, kann die Tiefe eines lebenden Körpergewebes in einer zu operierenden Region von dem Chirurgen 11131 genauer verstanden werden. Es ist anzumerken, dass, wenn die Bildaufnahmeeinheit 11402 als die vom Mehrplattentyp konfiguriert ist, eine Mehrzahl von Systemen von Linseneinheiten 11401 entsprechend den einzelnen Bildaufnahmeelementen vorgesehen ist.
  • Ferner muss die Bildaufnahmeeinheit 11402 nicht notwendigerweise an dem Kamerakopf 11102 vorgesehen sein. Beispielsweise kann die Bildaufnahmeeinheit 11402 unmittelbar hinter der Objektivlinse im Inneren des Objektivtubus 11101 vorgesehen sein.
  • Die Antriebseinheit 11403 umfasst einen Aktor und bewegt die Zoomlinse und die Fokussierlinse der Linseneinheit 11401 unter der Steuerung der Kamerakopfsteuereinheit 11405 um einen vorgegebenen Abstand entlang einer optischen Achse. Folglich können die Vergrößerung und der Brennpunkt eines von der Bildaufnahmeeinheit 11402 erfassten Bilds in geeigneter Weise eingestellt werden.
  • Die Kommunikationseinheit 11404 umfasst ein Kommunikationsgerät zum Übertragen und Empfangen verschiedener Arten von Informationen an die und von der CCU 11201. Die Kommunikationseinheit 11404 überträgt ein Bildsignal, das von der Bildaufnahmeeinheit 11402 erlangt wird, als RAW-Daten durch das Übertragungskabel 11400 an die CCU 11201.
  • Zusätzlich empfängt die Kommunikationseinheit 11404 ein Steuersignal zur Steuerung der Ansteuerung des Kamerakopfs 11102 von der CCU 11201 und führt das Steuersignal der Kamerakopfsteuereinheit 11405 zu. Das Steuersignal umfasst Information, die sich auf Bildaufnahmebedingungen bezieht, wie beispielsweise Information, dass eine Bildfrequenz eines erfassten Bilds festgelegt ist, Information, dass ein Belichtungswert der Bilderfassung festgelegt ist, und/oder Information, dass eine Vergrößerung und ein Brennpunkt eines erfassten Bilds festgelegt sind.
  • Es ist anzumerken, dass die Bildaufnahmebedingungen, wie zum Beispiel die Bildfrequenz, der Belichtungswert, die Vergrößerung oder der Brennpunkt, von dem Benutzer geeignet festgelegt werden können oder von der Steuereinheit 11413 der CCU 11201 auf Grundlage eines erlangten Bildsignals automatisch eingestellt werden können. Im letzteren Fall sind eine Funktion automatischer Belichtung (AE), eine Autofokus(AF)-Funktion und eine Funktion automatischen Weißabgleichs (AWB) in dem Endoskop 11100 integriert.
  • Die Kamerakopfsteuereinheit 11405 steuert das Ansteuern des Kamerakopfs 11102 auf Grundlage eines Steuersignals von der CCU 11201, das durch die Kommunikationseinheit 11404 empfangen wird.
  • Die Kommunikationseinheit 11411 umfasst ein Kommunikationsgerät zum Übertragen und Empfangen verschiedener Arten von Information an den und von dem Kamerakopf 11102. Die Kommunikationseinheit 11411 empfängt ein Bildsignal, das von dem Kamerakopf 11102 durch das Übertragungskabel 11400 dorthin übertragen wird.
  • Ferner überträgt die Kommunikationseinheit 11411 ein Steuersignal zur Steuerung der Ansteuerung des Kamerakopfs 11102 an den Kamerakopf 11102. Das Bildsignal und das Steuersignal können durch elektrische Kommunikation, optische Kommunikation oder dergleichen übertragen werden.
  • Die Bildverarbeitungseinheit 11412 führt verschiedene Bildprozesse für ein Bildsignal in der Form von RAW-Daten durch, die von dem Kamerakopf 11102 dorthin übertragen werden.
  • Die Steuereinheit 11413 führt verschiedene Arten von Steuerung durch, die sich auf die Bilderfassung einer zu operierenden Region oder dergleichen durch das Endoskop 11100 und die Anzeige eines erfassten Bilds, das durch Bilderfassung der zu operierenden Region oder dergleichen erhalten wird, bezieht. Beispielsweise erzeugt die Steuereinheit 11413 ein Steuersignal zur Steuerung der Ansteuerung des Kamerakopfs 11102.
  • Ferner steuert die Steuereinheit 11413 auf Grundlage eines Bildsignals, für das Bildprozesse von der Bildverarbeitungseinheit 11412 durchgeführt wurden, das Anzeigegerät 11202 so, dass es ein erfasstes Bild anzeigt, in dem die zu operierende Region oder dergleichen abgebildet wird. Daraufhin kann die Steuereinheit 11413 unter Verwendung verschiedener Bilderkennungstechnologien verschiedene Objekte in dem erfassten Bild erkennen. Beispielsweise kann die Steuereinheit 11413 ein chirurgisches Instrument, wie zum Beispiel eine Zange, eine spezielle Lebendkörperregion, Blutungen, Beschlag, wenn die Energievorrichtung 11112 verwendet wird, usw. durch Detektieren der Form, Farbe usw. von Rändern von Objekten in einem erfassten Bild erkennen. Die Steuereinheit 11413 kann, wenn sie das Anzeigegerät 11202 so steuert, dass es ein erfasstes Bild anzeigt, bewirken, dass verschiedene Arten chirurgisch unterstützender Information in einer überlagernden Weise mit einem Bild der zu operierenden Region unter Verwendung eines Ergebnisses der Erkennung angezeigt werden. Wenn chirurgisch unterstützende Information in einer überlagernden Weise angezeigt und dem Chirurgen 11131 präsentiert wurde, kann die Belastung für den Chirurgen 11131 verringert werden und kann der Chirurg 11131 mit Gewissheit mit der Operation fortfahren.
  • Das Übertragungskabel 11400, das den Kamerakopf 11102 und die CCU 11201 miteinander verbindet, ist ein Kabel für elektrische Signale, das für die Kommunikation eines elektrischen Signals geeignet ist, eine optische Faser, die für optische Kommunikation geeignet ist, oder ein gemischtadriges Kabel, das für sowohl elektrische als auch optische Kommunikation geeignet ist.
  • Hier kann, obwohl in dem dargestellten Beispiel Kommunikation durch drahtgebundene Kommunikation unter Verwendung des Übertragungskabels 11400 durchgeführt wird, die Kommunikation zwischen dem Kamerakopf 11102 und der CCU 11201 durch drahtlose Kommunikation durchgeführt werden.
  • Die vorstehende Beschreibung bezieht sich auf ein Beispiel für das System für endoskopische Chirurgie, auf das die Technologie gemäß der vorliegenden Offenbarung anwendbar ist. Die Technologie gemäß der vorliegenden Offenbarung kann auf die Bildaufnahmeeinheit 11402 von den vorstehend beschriebenen Konfigurationen angewendet werden. Insbesondere kann das in 1 gezeigte Bildaufnahmeelement 1 auf die Bildaufnahmeeinheit 10402 angewendet werden. Die Anwendung der vorliegenden Technologie gemäß der vorliegenden Offenbarung auf die Bildaufnahmeeinheit 10402 ermöglicht die Aufnahme eines Bildes des zu bedienenden Teils mit hoher Bildqualität, wodurch die Bedienungsperson das zu bedienende Teil zuverlässig überprüfen kann.
  • Es ist anzumerken, dass die Beschreibung des Systems für endoskopische Chirurgie als ein Beispiel gegeben wurde, jedoch kann die Technologie gemäß der vorliegenden Offenbarung auch auf ein anderes System angewendet werden, z. B. ein System für mikrographische Chirurgie.
  • <Beispiele für die praktische Verwendung für mobile Objekte>
  • Die Technologie (vorliegende Technologie) gemäß einer Ausführungsform der vorliegenden Offenbarung ist auf eine Vielzahl von Produkten anwendbar. Beispielsweise wird die Technologie gemäß einer Ausführungsform der vorliegenden Offenbarung als Vorrichtungen implementiert, die auf jeglichem Typ von mobilen Objekten wie Autos, Elektrofahrzeugen, Hybridelektrofahrzeugen, Motorrädern, Fahrrädern, persönlichen Mobilitäten, Flugzeugen, Drohnen, Schiffen und Robotern montiert sind.
  • 22 ist ein Blockdiagramm, das ein Beispiel für eine schematische Konfiguration eines Fahrzeugsteuersystems als ein Beispiel für ein Steuersystem für ein mobiles Objekt darstellt, auf das die Technologie gemäß der vorliegenden Offenbarung angewendet werden kann.
  • Das Fahrzeugsteuersystem 12000 umfasst eine Mehrzahl elektronischer Steuereinheiten, die über ein Kommunikationsnetzwerk 12001 miteinander verbunden sind. In dem in 22 dargestellten Beispiel umfasst das Fahrzeugsteuersystem 12000 eine Antriebssystemsteuereinheit 12010, eine Karosseriesystemsteuereinheit 12020, eine Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs, eine Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs und eine integrierte Steuereinheit 12050. Zusätzlich sind ein Mikrocomputer 12051, ein Ton-/Bildausgabeabschnitt 12052 und eine fahrzeugmontierte Netzwerkschnittstelle (I/F) 12053 als funktionale Konfigurationen der integrierten Steuereinheit 12050 dargestellt.
  • Die Antriebssystemsteuereinheit 12010 steuert den Betrieb von Vorrichtungen, die mit dem Antriebssystem des Fahrzeugs in Zusammenhang stehen, gemäß verschiedenen Arten von Programmen. Beispielsweise dient die Antriebssystemsteuereinheit 12010 als eine Steuervorrichtung für eine Antriebskrafterzeugungsvorrichtung zum Erzeugen der Antriebskraft des Fahrzeugs, wie zum Beispiel einen Verbrennungsmotor, einen Antriebsmotor oder dergleichen, einen Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft auf Räder, einen Lenkmechanismus zum Einstellen des Lenkwinkels des Fahrzeugs, eine Bremsvorrichtung zum Erzeugen der Bremskraft des Fahrzeugs und dergleichen.
  • Die Karosseriesystemsteuereinheit 12020 steuert den Betrieb verschiedener Arten von Vorrichtungen, die in einer Fahrzeugkarosserie vorgesehen sind, gemäß verschiedenen Arten von Programmen. Beispielsweise dient die Karosseriesystemsteuereinheit 12020 als eine Steuervorrichtung für ein System mit schlüssellosem Zugang, ein System mit intelligentem Schlüssel, eine elektrische Fensterhebervorrichtung oder verschiedene Arten von Leuchten wie zum Beispiel einen Scheinwerfer, einen Rückfahrleuchte, eine Bremsleuchte, einen Fahrtrichtungsanzeiger, eine Nebelleuchte oder dergleichen. In diesem Fall können Funkwellen, die von einer mobilen Vorrichtung übertragen werden, als eine Alternative zu einem Schlüssel oder Signale verschiedener Arten von Schaltern in die Karosseriesystemsteuereinheit 12020 eingegeben werden. Die Karosseriesystemsteuereinheit 12020 empfängt diese eingegebenen Funkwellen oder Signale und steuert eine Türverriegelungsvorrichtung, die elektrische Fensterhebervorrichtung, die Leuchten oder dergleichen des Fahrzeugs.
  • Die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs detektiert Informationen von außerhalb des Fahrzeugs, das das Fahrzeugsteuersystem 12000 umfasst. Beispielsweise ist die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs mit einer Bildaufnahmeeinheit 12031 verbunden. Die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs veranlasst die Bildaufnahmeeinheit 12031 dazu, ein Bild von außerhalb des Fahrzeugs abzubilden, und empfängt das abgebildete Bild. Auf Grundlage des empfangenen Bilds kann die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs eine Verarbeitung der Detektion eines Objekts, wie zum Beispiel eines Menschen, eines Fahrzeugs, eines Hindernisses, eines Schilds, eines Zeichens auf einer Fahrbahnoberfläche oder dergleichen, oder eine Verarbeitung der Detektion eines Abstands dazu durchführen.
  • Die Bildaufnahmeeinheit 12031 ist ein optischer Sensor, der Licht empfängt und ein elektrisches Signal ausgibt, das einer empfangenen Lichtmenge des Lichts entspricht. Die Bildaufnahmeeinheit 12031 kann das elektrische Signal als ein Bild ausgeben oder kann das elektrische Signal als Information über einen gemessenen Abstand ausgeben. Zusätzlich kann das Licht, das von der Bildaufnahmeeinheit 12031 empfangen wird, sichtbares Licht sein oder nicht sichtbares Licht sein, wie zum Beispiel Infrarotstrahlen oder dergleichen.
  • Die Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs detektiert Informationen über das Innere des Fahrzeugs. Die Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs ist beispielsweise mit einem Fahrerzustandsdetektionsabschnitt 12041 verbunden, der den Zustand eines Fahrers detektiert. Der Fahrerzustandsdetektionsabschnitt 12041 umfasst beispielsweise eine Kamera, die den Fahrer abbildet. Auf Grundlage von Detektionsinformation, die von dem Fahrerzustandsdetektionsabschnitt 12041 eingegeben wird, kann die Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs einen Grad der Müdigkeit des Fahrers oder einen Grad der Konzentration des Fahrers berechnen oder kann bestimmen, ob der Fahrer döst oder nicht.
  • Der Mikrocomputer 12051 kann einen Steuersollwert für die Antriebskrafterzeugungsvorrichtung, den Lenkmechanismus oder die Bremsvorrichtung auf Grundlage der Informationen über das Innere oder das Äußere des Fahrzeugs berechnen, wobei die Informationen durch die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs oder die Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs erhalten wird, und einen Steuerbefehl an die Antriebssystemsteuereinheit 12010 ausgeben. Beispielsweise kann der Mikrocomputer 12051 kooperative Steuerung durchführen, die dafür vorgesehen ist, Funktionen eines Fahrerassistenzsystems (ADAS) zu implementieren, wobei die Funktionen Kollisionsvermeidung oder Aufprallminderung für das Fahrzeug, Nachfolgefahren auf Grundlage eines Folgeabstands, Fahren unter Beibehaltung einer Fahrzeuggeschwindigkeit, Warnung vor einer Kollision des Fahrzeugs, Warnung vor einem Abweichen des Fahrzeugs von einer Fahrspur oder dergleichen umfassen.
  • Zusätzlich kann der Mikrocomputer 12051 kooperative Steuerung, die für autonomes Fahren vorgesehen ist, die das Fahrzeug dazu veranlasst, autonom zu fahren, ohne von der Bedienung des Fahrers oder dergleichen abhängig zu sein, durch Steuern der Antriebskrafterzeugungsvorrichtung, des Lenkmechanismus, der Bremsvorrichtung oder dergleichen auf Grundlage der Informationen über das Äußere oder das Innere des Fahrzeugs durchführen, wobei die Informationen durch die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs oder die Einheit 12040 zum Detektieren von Informationen innerhalb des Fahrzeugs erhalten wird.
  • Zusätzlich kann der Mikrocomputer 12051 einen Steuerbefehl an die Karosseriesystemsteuereinheit 12020 auf Grundlage der Informationen über das Äußere des Fahrzeugs ausgeben, wobei die Informationen durch die Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs erhalten werden. Beispielsweise kann der Mikrocomputer 12051 kooperative Steuerung, die dafür vorgesehen ist, ein Blenden zu vermeiden, durch Steuern des Scheinwerfers so, dass beispielsweise von Aufblendlicht zu Abblendlicht gewechselt wird, gemäß der Position eines vorausfahrenden Fahrzeugs oder eines entgegenkommenden Fahrzeugs durchführen, die von der Einheit 12030 zum Detektieren von Informationen außerhalb des Fahrzeugs detektiert wird.
  • Der Ton-/Bildausgabeabschnitt 12052 überträgt ein Ausgabesignal eines Tons und/oder eines Bilds an eine Ausgabevorrichtung, die in der Lage ist, Information einem Insassen des Fahrzeugs oder dem Äußeren des Fahrzeugs visuell oder akustisch mitzuteilen. In dem Beispiel von 22 sind ein Audiolautsprecher 12061, eine Anzeigeeinheit 12062 und ein Armaturenbrett 12063 als die Ausgabevorrichtung dargestellt. Die Anzeigeeinheit 12062 kann beispielsweise ein On-Board-Display und/oder ein Head-up-Display umfassen.
  • 23 ist ein Diagramm, das ein Beispiel für die Einbauposition der Bildaufnahmeeinheit 12031 zeigt.
  • In 23 umfasst das Fahrzeug 12100 die Bildaufnahmeeinheiten 12101, 12102, 12103, 12104 und 12105 sowie die Bildaufnahmeeinheit 12031.
  • Die Bildaufnahmeeinheiten 12101, 12102, 12103, 12104 und 12105 sind z. B. an der Fahrzeugfront, einem Seitenspiegel, der hinteren Stoßstange, der Hecktür und dem oberen Teil der Windschutzscheibe im Fahrzeuginnenraum des Fahrzeugs 12100 angeordnet. Die Bildaufnahmeeinheit 12101, die an der Fahrzeugfront vorgesehen ist, und die Bildaufnahmeeinheit 12105, die an dem oberen Teil der Windschutzscheibe in dem Innenraum des Fahrzeugs vorgesehen ist, erhalten hauptsächlich ein Bild der Front des Fahrzeugs 12100. Die an den Seitenspiegeln angebrachten Bildaufnahmeeinheiten 12102 und 12103 erfassen hauptsächlich Bilder von den Bereichen an den Seiten des Fahrzeugs 12100. Die an der hinteren Stoßstange oder der hinteren Tür vorgesehene Bildaufnahmeeinheit 12104 erhält hauptsächlich ein Bild des hinteren Teils des Fahrzeugs 12100. Das von den Bildaufnahmeeinheiten 12101 und 12105 erhaltene Bild der Vorderseite des Fahrzeugs wird hauptsächlich zur Detektion eines vorausfahrenden Fahrzeugs, eines Fußgängers, eines Hindernisses, eines Signals, eines Verkehrszeichens, einer Fahrspur oder dergleichen verwendet.
  • 23 stellt im Übrigen ein Beispiel von Bildaufnahmebereichen der Bildaufnahmeeinheiten 12101 bis 12104 dar. Ein Bildaufnahmebereich 12111 stellt den Bildaufnahmebereich der Bildaufnahmeeinheit 12101 dar, die an der Fahrzeugfront vorgesehen ist. Die Bildaufnahmebereiche 12112 und 12113 stellen jeweils die Bildaufnahmebereiche der Bildaufnahmeeinheiten 12102 und 12103 dar, die an den Seitenspiegeln vorgesehen sind. Ein Bildaufnahmebereich 12114 stellt den Bildaufnahmebereich der Bildaufnahmeeinheit 12104 dar, die an der hinteren Stoßstange oder der Hecktür vorgesehen ist. Ein Vogelperspektivenbild des Fahrzeugs 12100 wie von oben betrachtet wird beispielsweise durch Überlagern von Bilddaten erhalten, die von den Bildaufnahmeeinheiten 12101 bis 12104 abgebildet werden.
  • Mindestens eine der Bildaufnahmeeinheiten 12101 bis 12104 kann eine Funktion des Erhaltens von Abstandsinformation haben. Beispielsweise kann mindestens eine der Bildaufnahmeeinheiten 12101 bis 12104 eine Stereokamera sein, die aus einer Mehrzahl von Bildaufnahmeelementen gebildet ist, oder ein Bildaufnahmeelement mit Pixeln zur Phasendifferenzdetektion sein.
  • Beispielsweise kann der Mikrocomputer 12051 einen Abstand zu jedem dreidimensionalen Objekt innerhalb der Bildaufnahmebereiche 12111 bis 12114 und eine zeitliche Änderung des Abstands (relative Geschwindigkeit bezüglich des Fahrzeugs 12100) auf Grundlage der Abstandsinformation, die von den Bildaufnahmeeinheiten 12101 bis 12104 erhalten wird, bestimmen und dadurch, als ein vorausfahrendes Fahrzeug, ein nächstgelegenes dreidimensionales Objekt extrahieren, das sich insbesondere auf einem Fortbewegungsweg des Fahrzeugs 12100 befindet und das sich mit einer vorgegebenen Geschwindigkeit (beispielsweise gleich oder mehr 0 km/h) in im Wesentlichen die gleiche Richtung bewegt wie das Fahrzeug 12100. Ferner kann der Mikrocomputer 12051 einen beizubehaltenden Folgeabstand vor einem vorausfahrenden Fahrzeug im Voraus einstellen und automatische Bremssteuerung (einschließlich Folgestoppsteuerung), eine automatische Beschleunigungssteuerung (einschließlich Folgestartsteuerung) oder dergleichen durchführen. Somit ist es möglich, kooperative Steuerung durchzuführen, die für autonomes Fahren vorgesehen ist, die das Fahrzeug dazu veranlasst, autonom zu fahren, ohne von der Bedienung des Fahrers oder dergleichen abhängig zu sein.
  • Beispielsweise kann der Mikrocomputer 12051 dreidimensionale Objektdaten über dreidimensionale Objekte in dreidimensionale Objektdaten eines zweirädrigen Fahrzeugs, eines Fahrzeugs mit Standardgröße, eines Großfahrzeugs, eines Fußgängers, und anderer dreidimensionaler Objekte, wie zum Beispiel eines Strommasts, auf Grundlage der Abstandsinformation klassifizieren, die von den Bildaufnahmeeinheiten 12101 bis 12104 erhalten wird, die klassifizierten dreidimensionalen Objektdaten extrahieren und die extrahierten dreidimensionalen Objektdaten zur automatischen Umgehung eines Hindernisses verwenden. Beispielsweise identifiziert der Mikrocomputer 12051 Hindernisse um das Fahrzeug 12100 herum als Hindernisse, die der Fahrer des Fahrzeugs 12100 visuell erkennen kann, und Hindernisse, die für den Fahrer des Fahrzeugs 12100 schwer visuell zu erkennen sind. Dann bestimmt der Mikrocomputer 12051 ein Kollisionsrisiko, das ein Risiko einer Kollision mit jedem Hindernis angibt. In einer Situation, in der das Kollisionsrisiko gleich oder höher einem eingestellten Wert ist und somit eine Möglichkeit der Kollision besteht, gibt der Mikrocomputer 12051 mittels des Audiolautsprechers 12061 oder der Anzeigeeinheit 12062 eine Warnung an den Fahrer aus und führt mittels der Antriebssystemsteuereinheit 12010 ein erzwungenes Abbremsen oder ein Umgehungslenken durch. Der Mikrocomputer 12051 kann dadurch beim Fahren so unterstützen, dass eine Kollision vermieden wird.
  • Mindestens eine der Bildaufnahmeeinheiten 12101 bis 12104 kann eine Infrarotkamera sein, die Infrarotstrahlen detektiert. Der Mikrocomputer 12051 kann beispielsweise einen Fußgänger durch Bestimmen erkennen, ob in abgebildeten Bildern der Bildaufnahmeeinheiten 12101 bis 12104 ein Fußgänger vorhanden ist oder nicht. Eine derartige Erkennung eines Fußgängers wird beispielsweise durch einen Vorgang des Extrahierens charakteristischer Punkte in den abgebildeten Bildern der Bildaufnahmeeinheiten 12101 bis 12104 als Infrarotkameras und einen Vorgang des Bestimmens, ob es sich um den Fußgänger handelt oder nicht, durch Durchführen von Musterabgleichsverarbeitung an einer Reihe charakteristischer Punkte durchgeführt, die die Kontur des Objekts darstellen. Wenn der Mikrocomputer 12051 bestimmt, dass in den abgebildeten Bildern der Bildaufnahmeeinheiten 12101 bis 12104 ein Fußgänger vorhanden ist, und somit den Fußgänger erkennt, steuert der Ton-/Bildausgabeabschnitt 12052 die Anzeigeeinheit 12062 so, dass eine viereckige Konturlinie zur Hervorhebung derart angezeigt wird, dass sie über den erkannten Fußgänger gelegt wird. Außerdem kann die Ton-/Bildausgabeeinheit 12052 die Anzeigeeinheit 12062 auch so steuern, dass ein Symbol oder dergleichen, das den Fußgänger darstellt, an einer gewünschten Position angezeigt wird.
  • Es wurde ein Beispiel für ein Fahrzeugsteuersystem beschrieben, auf das die Technologie gemäß der vorliegenden Offenbarung angewendet werden kann. Die Technologie gemäß der vorliegenden Offenbarung kann auf die Bildaufnahmeeinheit 12031 oder eine ähnliche der vorstehend beschriebenen Konfigurationen angewendet werden. Insbesondere kann das in 1 gezeigte Bildaufnahmeelement 1 auf die Bildaufnahmeeinheit 12031 angewendet werden. Die Anwendung der Technologie gemäß der vorliegenden Offenbarung auf die Bildaufnahmeeinheit 12031 ermöglicht die Erfassung eines aufgenommenen Bildes mit hoher Bildqualität, wodurch die Ermüdung des Fahrers verringert werden kann.
  • Schließlich ist die vorstehende Beschreibung jeder der Ausführungsformen ein Beispiel für die vorliegende Offenbarung und ist die vorliegende Offenbarung nicht auf die vorstehend beschriebenen Ausführungsformen beschränkt. So ist es selbstverständlich, dass auch bei einer anderen als der vorstehend beschriebenen Ausführungsform verschiedene Modifikationen gemäß der Konstruktion oder dergleichen vorgenommen werden können, ohne von der technischen Idee der vorliegenden Offenbarung abzuweichen.
  • Außerdem handelt es sich bei den Zeichnungen der vorstehend beschriebenen Ausführungsformen um schematische Zeichnungen und stimmt ein Maßverhältnis der einzelnen Einheiten oder dergleichen nicht unbedingt mit dem tatsächlichen überein. Außerdem ist es selbstverständlich, dass ein Teil mit einem anderen Maßverhältnis oder einem anderen Maßverhältnis zwischen den Zeichnungen enthalten ist.
  • Zusätzlich kann die vorliegende Technologie auch wie folgt konfiguriert werden.
    • (1) Ein Bildaufnahmeelement, das umfasst:
      • eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln;
      • eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen; und
      • eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert ist, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln,
      • wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
    • (2) Das Bildaufnahmeelement gemäß (1), bei dem die Mehrzahl von In-Layer-Linsen in einer im Wesentlichen identischen Schicht angeordnet ist.
    • (3) Das Bildaufnahmeelement gemäß (2), bei dem die Mehrzahl von In-Layer-Linsen gleichzeitig gebildet wird.
    • (4) Das Bildaufnahmeelement gemäß einem von (1) bis (3), das ferner einen Farbfilter umfasst, der dazu konfiguriert ist, von dem einfallenden Licht, das die On-Chip-Linse passiert hat, Licht mit einer vorgegebenen Wellenlänge durch den Farbfilter durchzulassen.
    • (5) Das Bildaufnahmeelement gemäß (4), bei dem der Farbfilter dazu konfiguriert ist, rotes Licht durch den Farbfilter durchzulassen.
    • (6) Das Bildaufnahmeelement gemäß (4), bei dem der Farbfilter dazu konfiguriert ist, Infrarotlicht durch den Farbfilter durchzulassen.
    • (7) Das Bildaufnahmeelement gemäß einem von (1) bis (6), bei dem eine der Mehrzahl von In-Layer-Linsen auf einer optischen Achse der On-Chip-Linse angeordnet ist.
    • (8) Das Bildaufnahmeelement gemäß einem von (1) bis (7), bei dem die Mehrzahl von In-Layer-Linsen voneinander unterschiedliche Formen hat.
    • (9) Das Bildaufnahmeelement gemäß einem von (1) bis (8), das ferner eine Mehrzahl von Pixeln umfasst, die jeweils die On-Chip-Linse, die Einheit für photoelektrische Umwandlung und die Mehrzahl von In-Layer-Linsen umfassen.
    • (10) Das Bildaufnahmeelement gemäß (9), bei dem die Mehrzahl von In-Layer-Linsen asymmetrisch um eine Mitte des Pixels angeordnet ist.
    • (11) Das Bildaufnahmeelement gemäß (9), das ferner ein Phasendifferenzpixel umfasst, das die On-Chip-Linse und die Einheit für photoelektrische Umwandlung umfasst und das dazu konfiguriert ist, eine Phasendifferenz durch Durchführen von Pupillenteilung an dem einfallenden Licht von dem Subjekt zu detektieren.
    • (12) Ein Bildaufnahmegerät, das umfasst:
      • eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln;
      • eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen;
      • eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert ist, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln; und
      • eine Verarbeitungsschaltung, die dazu konfiguriert ist, ein Bildsignal auf Grundlage der photoelektrischen Umwandlung in der Einheit für photoelektrische Umwandlung zu verarbeiten,
      • wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
  • Bezugszeichenliste
  • 1
    Bildaufnahmeelement
    10
    Pixelarray-Einheit
    30
    Spaltensignalverarbeitungseinheit
    100, 201, 202
    Pixel
    101
    Einheit für photoelektrische Umwandlung
    111
    n-Typ-Halbleiterregion
    132
    Verdrahtungsschicht
    150
    Lichtabschirmfilm
    160, 160a, 160b, 161, 161a, 161b, 162, 163
    In-Layer Linse
    172
    Farbfilter
    180
    On-Chip-Linse
    300, 300a, 300b
    Phasendifferenzpixel
    1000
    Kamera
    1002
    Bildaufnahmeelement
    10402, 12031, 12101 bis 12105
    Bildaufnahmeeinheit

Claims (12)

  1. Bildaufnahmeelement, das umfasst: eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln; eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen; und eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert ist, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln, wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
  2. Bildaufnahmeelement nach Anspruch 1, wobei die Mehrzahl von In-Layer-Linsen in einer im Wesentlichen identischen Schicht angeordnet ist.
  3. Bildaufnahmeelement nach Anspruch 2, wobei die Mehrzahl von In-Layer-Linsen gleichzeitig gebildet wird.
  4. Bildaufnahmeelement nach Anspruch 1, das ferner einen Farbfilter umfasst, der dazu konfiguriert ist, von dem einfallenden Licht, das die On-Chip-Linse passiert hat, Licht mit einer vorgegebenen Wellenlänge durch den Farbfilter durchzulassen.
  5. Bildaufnahmeelement nach Anspruch 4, wobei der Farbfilter dazu konfiguriert ist, rotes Licht durch den Farbfilter durchzulassen.
  6. Bildaufnahmeelement nach Anspruch 4, wobei der Farbfilter dazu konfiguriert ist, Infrarotlicht durch den Farbfilter durchzulassen.
  7. Bildaufnahmeelement nach Anspruch 1, wobei eine der Mehrzahl von In-Layer-Linsen auf einer optischen Achse der On-Chip-Linse angeordnet ist.
  8. Bildaufnahmeelement nach Anspruch 1, wobei die Mehrzahl von In-Layer-Linsen voneinander unterschiedliche Formen hat.
  9. Bildaufnahmeelement nach Anspruch 1, das ferner eine Mehrzahl von Pixeln umfasst, die jeweils die On-Chip-Linse, die Einheit für photoelektrische Umwandlung und die Mehrzahl von In-Layer-Linsen umfassen.
  10. Bildaufnahmeelement nach Anspruch 9, wobei die Mehrzahl von In-Layer-Linsen asymmetrisch um eine Mitte des Pixels angeordnet ist.
  11. Bildaufnahmeelement nach Anspruch 9, das ferner ein Phasendifferenzpixel umfasst, das die On-Chip-Linse und die Einheit für photoelektrische Umwandlung umfasst und dazu konfiguriert ist, eine Phasendifferenz durch Durchführen von Pupillenteilung an dem einfallenden Licht von dem Subjekt zu detektieren.
  12. Bildaufnahmegerät, das umfasst: eine On-Chip-Linse, die dazu konfiguriert ist, einfallendes Licht von einem Subjekt zu sammeln; eine Einheit für photoelektrische Umwandlung, die dazu konfiguriert ist, photoelektrische Umwandlung auf dem gesammelten einfallenden Licht durchzuführen; eine Mehrzahl von In-Layer-Linsen, die zwischen der On-Chip-Linse und der Einheit für photoelektrische Umwandlung angeordnet und dazu konfiguriert ist, das einfallende Licht, das die On-Chip-Linse passiert hat, weiter zu sammeln; und eine Verarbeitungsschaltung, die dazu konfiguriert ist, ein Bildsignal auf Grundlage der photoelektrischen Umwandlung in der Einheit für photoelektrische Umwandlung zu verarbeiten, wobei die Mehrzahl von In-Layer-Linsen dazu konfiguriert ist, zu ermöglichen, dass das einfallende Licht, das jegliche der Mehrzahl von In-Layer-Linsen passiert hat, auf die Einheit für photoelektrische Umwandlung einfällt.
DE112019006460.6T 2018-12-26 2019-11-12 Bildaufnahmeelement und bildaufnahmegerät Pending DE112019006460T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-242282 2018-12-26
JP2018242282 2018-12-26
PCT/JP2019/044250 WO2020137203A1 (ja) 2018-12-26 2019-11-12 撮像素子および撮像装置

Publications (1)

Publication Number Publication Date
DE112019006460T5 true DE112019006460T5 (de) 2021-09-16

Family

ID=71128942

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019006460.6T Pending DE112019006460T5 (de) 2018-12-26 2019-11-12 Bildaufnahmeelement und bildaufnahmegerät

Country Status (6)

Country Link
US (1) US20220028912A1 (de)
JP (1) JPWO2020137203A1 (de)
CN (1) CN113196488A (de)
DE (1) DE112019006460T5 (de)
TW (1) TW202043808A (de)
WO (1) WO2020137203A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6237431B2 (ja) * 2014-04-15 2017-11-29 ソニー株式会社 焦点検出装置、電子機器
US11569291B2 (en) * 2020-11-05 2023-01-31 Visera Technologies Company Limited Image sensor and method forming the same
US20220181370A1 (en) * 2020-12-09 2022-06-09 Visera Technologies Company Limited Image sensor
JP2022096525A (ja) * 2020-12-17 2022-06-29 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100731094B1 (ko) * 2005-12-28 2007-06-22 동부일렉트로닉스 주식회사 씨모스 이미지 센서 및 그 제조방법
JP4813929B2 (ja) * 2006-03-08 2011-11-09 富士フイルム株式会社 固体撮像素子
JP2010283082A (ja) * 2009-06-03 2010-12-16 Sony Corp 固体撮像装置、電子機器および固体撮像装置の製造方法
JP2014075445A (ja) * 2012-10-03 2014-04-24 Canon Inc 裏面照射型撮像素子
JP2018046145A (ja) * 2016-09-14 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、及び固体撮像素子の製造方法
CN110447104B (zh) * 2017-03-24 2024-02-13 索尼半导体解决方案公司 传感器芯片和电子设备
US11424279B2 (en) * 2017-05-16 2022-08-23 Sony Semiconductor Solutions Corporation Imaging element and electronic device including imaging device
JP2018201061A (ja) * 2017-05-25 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Also Published As

Publication number Publication date
JPWO2020137203A1 (ja) 2021-11-11
TW202043808A (zh) 2020-12-01
WO2020137203A1 (ja) 2020-07-02
US20220028912A1 (en) 2022-01-27
CN113196488A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
DE112019002463T5 (de) Festkörperbildgebungselement und festkörperbildgebungsvorrichtung
DE112018006695T5 (de) Bildgebungselement
DE112019006460T5 (de) Bildaufnahmeelement und bildaufnahmegerät
DE202019005770U1 (de) Pixelstruktur, Bildsensor, Bildaufnahmevorrichtung und Elektronikeinrichtung
DE112017001031T5 (de) Festkörper-Bildaufnahmevorrichtung
DE112019003449T5 (de) Lichtempfangselement, abstandsmessungsmodul und elektronische vorrichtung
DE112018004884T5 (de) Festkörper-bildgebungsvorrichtung und elektronisches gerät
DE112018005315T5 (de) Festkörper-bildgebungsvorrichtung vom rückseitigen beleuchtungstyp,herstellungsverfahren für eine festkörper-bildgebungsvorrichtung vom rückseitigen beleuchtungstyp, bildgebungseinrichtung und elektronisches gerät
DE112018001862T5 (de) Festkörper-bildaufnahmevorrichtung und elektronisches gerät
DE112018001859T5 (de) Festkörper-Bildaufnahmevorrichtung und elektronisches Gerät
DE112019003578T5 (de) Festkörperbildaufnahmeelement und elektronisches gerät
DE112021001902T5 (de) Abbildungsvorrichtung und elektronische vorrichtung
DE202018006740U1 (de) Festkörperbildgebungselement und elektronisches Gerät
DE112019005424T5 (de) Festkörper-Bildgebungselement und Bildgebungsvorrichtung
DE112017006908T5 (de) Lichtempfangselement, verfahren zum produzieren eines lichtempfangselements, bildgebungselement und elektronische vorrichtung
DE112019002909B4 (de) Bildgebungsvorrichtung
DE112018001842T5 (de) Festkörper-bildaufnahmevorrichtung und elektronisches gerät
DE112019003245T5 (de) Halbleitervorrichtung und verfahren zur herstellung einer halbleitervorrichtung
DE112021001917T5 (de) Bildgebungsvorrichtung und elektronische vorrichtung
DE112019000738T5 (de) Bildgebungsvorrichtung und elektronisches gerät
DE112021002028T5 (de) Abbildungsvorrichtung und elektronische vorrichtung
DE112018001649T5 (de) Halbleiter-bilderzeugungselement, elektronische vorrichtung und herstellungsverfahren
DE112020005128T5 (de) Abbildungsvorrichtung
DE112021005005T5 (de) Festkörperbildaufnahmevorrichtung und elektronisches gerät
DE112021001250T5 (de) Festkörperbildgebungsvorrichtung und elektronische ausrüstung