DE102021119417A1 - 3MOS-Kamera - Google Patents

3MOS-Kamera Download PDF

Info

Publication number
DE102021119417A1
DE102021119417A1 DE102021119417.2A DE102021119417A DE102021119417A1 DE 102021119417 A1 DE102021119417 A1 DE 102021119417A1 DE 102021119417 A DE102021119417 A DE 102021119417A DE 102021119417 A1 DE102021119417 A1 DE 102021119417A1
Authority
DE
Germany
Prior art keywords
visible light
light
video signal
image sensor
prism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021119417.2A
Other languages
English (en)
Inventor
Yuji Kiniwa
Yota Hashimoto
Yuuichi TAKENAGA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020131042A external-priority patent/JP7477158B2/ja
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Publication of DE102021119417A1 publication Critical patent/DE102021119417A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/145Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/26Reflecting filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission

Abstract

Eine 3MOS-Kamera enthält ein erstes Prisma, das bewirkt, dass ein erster Bildsensor IR-Licht aus Licht von einem Betrachtungsteil empfängt, ein zweites Prisma, das bewirkt, dass ein zweiter Bildsensor sichtbares Licht von A % (A: eine vorgegebene reelle Zahl) aus dem Licht von dem Betrachtungsteil empfängt, ein drittes Prisma, das bewirkt, dass ein dritter Bildsensor verbleibendes sichtbares Licht von (100 - A) % aus dem Licht von dem Betrachtungsteil empfängt, und einen Videosignalprozessor, der ein Farb-Videosignal auf Grundlage von Bildgebungsausgängen des zweiten Bildsensors und des dritten Bildsensors und ein IR-Videosignal auf Grundlage eines Bildgebungsausgangs des ersten Bildsensors kombiniert und das kombinierte Signal zu einem Monitor ausgibt, wobei der zweite Bildsensor und der dritte Bildsensor jeweils an Positionen geklebt sind, die im Wesentlichen um ein Pixel optisch verschoben sind.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine 3MOS-Kamera.
  • 2. Stand der Technik
  • In jüngster Zeit errang ein Diagnoseverfahren Aufmerksamkeit, bei dem bei einem Eingriff oder einer Untersuchung ICG (Indocyaningrün) als fluoreszierendes Reagens einem Patienten verabreicht wird und das ICG durch ein Bestrahlen mit Anregungslicht oder dergleichen angeregt wird, um ein durch das ICG abgestrahltes Nahinfrarot-Fluoreszenzbild zusammen mit einem Patientenbild aufzunehmen und zu betrachten. Zum Beispiel offenbart JP-A-2016-75825 eine Bildaufnahmevorrichtung mit einem blauen Trennprisma, das einen Teil von Licht der blauen Komponente von einfallendem Licht und Nahinfrarotlicht in einem bestimmten Wellenlängenbereich reflektiert und Licht außer dem obigen Licht durchlässt, einem roten Trennprisma, das einen Teil von Licht der roten Komponente von einfallendem Licht und Nahinfrarotlicht in einem bestimmten Wellenlängenbereich reflektiert und Licht außer dem obigen Licht durchlässt, und einem grünen Trennprisma, in das das durch das rote Trennprisma durchgelassene Licht fällt.
  • In einer Anordnung in JP-A-2016-75825 fällt eine Teillichtmenge des Nahinfrarotlichts von Licht von einem erkrankten Teil oder dergleichen geteilt auf jedes aus der Vielzahl von Farbtrennprismen und wird aufgenommen. Aus diesem Grund besteht beispielsweise ein Problem darin, dass spezialisiertes Licht in dem Wellenlängenbereich des Nahinfrarotlichts durch ein entsprechendes Bildaufnahmeelement nicht empfangen werden kann. Daher ist es schwierig, ein deutlicheres Fluoreszenzbild eines Betrachtungsteils, dem das fluoreszierende Reagens zugeführt ist, bei dem Eingriff oder der Untersuchung auszugeben, die oben beschrieben sind, und es besteht Spielraum zur Verbesserung, damit ein Arzt oder dergleichen den erkrankten Teil leichter verstehen kann. Jedes aus blauem, rotem und grünem Licht wird gesondert aufgenommen. Daher besteht Spielraum zur Verbesserung beim Erhöhen der Auflösung eines Videos durch ein Aufnehmen von sichtbarem Licht.
  • Zusammenfassung der Erfindung
  • Die vorliegende Offenbarung wurde im Hinblick auf die oben beschriebenen Umstände erstellt, und ein Zweck davon ist es, eine 3MOS-Kamera vorzusehen, die sowohl die Erzeugung eines deutlicheren Fluoreszenzvideos eines Betrachtungsteils, dem ein fluoreszierendes Reagens zugeführt wurde, als auch eine Auflösungsverbesserung eines Farbbildes des Betrachtungsteils erreicht, um einen Arzt oder dergleichen beim leichten Verstehen eines erkrankten Teils zu unterstützen.
  • Die vorliegende Offenbarung sieht eine 3MOS-Kamera vor, enthaltend ein erstes Prisma, das bewirkt, dass ein erster Bildsensor IR-Licht aus Licht von einem Betrachtungsteil empfängt, ein zweites Prisma, das bewirkt, dass ein zweiter Bildsensor sichtbares Licht von A % (A: eine vorgegebene reelle Zahl) aus dem Licht von dem Betrachtungsteil empfängt, ein drittes Prisma, das bewirkt, dass ein dritter Bildsensor verbleibendes sichtbares Licht von (100 - A) % aus dem Licht von dem Betrachtungsteil empfängt, und einen Videosignalprozessor, der ein Farb-Videosignal auf Grundlage von Bildgebungsausgängen des zweiten Bildsensors und des dritten Bildsensors und ein IR-Videosignal auf Grundlage eines Bildgebungsausgangs des ersten Bildsensors kombiniert und das kombinierte Signal zu einem Monitor ausgibt, wobei der zweite Bildsensor und der dritte Bildsensor jeweils an Positionen geklebt sind, die im Wesentlichen um ein Pixel optisch verschoben sind.
  • Gemäß der vorliegenden Offenbarung ist es möglich, sowohl die Erzeugung des deutlicheren Fluoreszenzvideos des Betrachtungsteils, dem das fluoreszierende Reagens zugeführt wurde, als auch die Auflösungsverbesserung des Farbbildes des Betrachtungsteils zu erreichen, und somit den Arzt oder dergleichen beim leichten Verstehen des erkrankten Teils zu unterstützen.
  • Figurenliste
    • 1A ist ein Blockschaltbild, das ein inneres Aufbaubeispiel einer 3MOS-Kamera gemäß einer ersten Ausführungsform zeigt.
    • 1B ist ein Blockschaltbild, das ein weiteres inneres Aufbaubeispiel der 3MOS-Kamera 1 gemäß der ersten Ausführungsform zeigt.
    • 2 ist eine Abbildung, die ein Aufbaubeispiel eines in 1 gezeigten Spektralprismas zeigt.
    • 3A ist eine Abbildung, die ein Anordnungsbeispiel von Farbfiltern von Bildaufnahmeelementen 151 und 152 zeigt.
    • 3B ist eine erläuternde Abbildung eines Problems in einem Fall, wo die Farbfilter der Bildaufnahmeelemente 151 und 152 in einer Bayer-Matrix und mit einer Verschiebung um ein halbes Pixel angeordnet sind.
    • 4A ist eine Grafik, die ein Beispiel der Spektralkennlinien eines dichroitischen Spiegels zeigt.
    • 4B ist eine Grafik, die ein Beispiel der Spektralkennlinie eines Strahlteilers zeigt.
    • 5 ist eine Grafik, die ein Beispiel einer Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit, Dynamikbereich und Auflösung in einem Fall zeigt, wo Belichtungszeiten des zweiten sichtbaren Lichts und des ersten sichtbaren Lichts dieselben sind.
    • 6 ist eine Grafik, die ein Beispiel der Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit, Dynamikbereich und Auflösung in einem Fall zeigt, wo ein Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts und des ersten sichtbaren Lichts 10:1 beträgt.
    • 7 ist eine Grafik, die ein Beispiel der Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit, Dynamikbereich und Auflösung in einem Fall zeigt, wo das Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts und des ersten sichtbaren Lichts 100:1 beträgt.
    • 8 ist eine Grafik, die ein Beispiel der Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit, Dynamikbereich und Auflösung in einem Fall zeigt, wo das Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts und des ersten sichtbaren Lichts 1:10 beträgt.
    • 9 ist eine Abbildung, die ein Anzeigebeispiel eines kombinierten Videosignals für sichtbares/IR-Licht, das durch die 3MOS-Kamera gemäß der ersten Ausführungsform erzeugt ist, auf einem Monitor darstellt.
  • Genaue Beschreibung der beispielhaften Ausführungsform
  • Nachstehend sind Ausführungsformen, die speziell eine 3MOS-Kamera gemäß der vorliegenden Offenbarung offenbaren, ggf. unter Bezugnahme auf die Zeichnung genau beschrieben. Jedoch kann eine genauere Beschreibung, die über das Notwendige hinausgeht, weggelassen sein. Beispielsweise kann eine genaue Beschreibung eines wohl bekannten Gesichtspunkts und eine redundante Beschreibung von im Wesentlichen derselben Anordnung weggelassen sein. Damit soll verhindert sein, dass die folgende Beschreibung unnötig redundant ist, und soll das Verständnis durch Fachleute erleichtert sein. Die beigefügte Zeichnung und die folgende Beschreibung sind vorgesehen, damit Fachleute die vorliegende Offenbarung vollständig verstehen, und sie sollen dadurch in den Ansprüchen beschriebene Gesichtspunkte nicht einschränken.
  • 1A ist ein Blockschaltbild, das ein inneres Aufbaubeispiel einer 3MOS-Kamera 1 gemäß einer ersten Ausführungsform zeigt. 1B ist ein Blockschaltbild, das ein weiteres inneres Aufbaubeispiel der 3MOS-Kamera 1 gemäß der ersten Ausführungsform zeigt. Die 3MOS-Kamera 1 enthält ein Objektiv 11, ein Spektralprisma 13, Bildaufnahmeelemente 151, 152 und 153 und eine Videosignalverarbeitungseinheit 17. Die Videosignalverarbeitungseinheit 17 enthält Kamerasignalverarbeitungseinheiten 191, 192 und 193, eine Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 und eine Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht. Wie in 1B gezeigt, kann die 3MOS-Kamera 1 eine Videosignalverarbeitungseinheit 17A (siehe 1B) mit einer Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich anstelle der Videosignalverarbeitungseinheit 17 (siehe 1A) enthalten. Obwohl nicht gezeigt, kann die 3MOS-Kamera 1 sowohl die Videosignalverarbeitungseinheit 17 (siehe 1A) als auch die Videosignalverarbeitungseinheit 17A (siehe 1B) enthalten. Jede Anordnung ist genau beschrieben.
  • Die 3MOS-Kamera 1 ist für ein medizinischen Betrachtungssystem verwendet, bei dem Anregungslicht in einem vorgegebenen Wellenlängenband (beispielsweise 760 nm bis 800 nm) auf ein fluoreszierendes Reagens (beispielsweise Indocyaningrün, im Folgenden als „ICG“ bezeichnet) gestrahlt wird, das vorab einem Betrachtungsteil (beispielsweise erkrankten Teil) in einem Objekt, wie etwa einem Patienten, zugeführt wurde, und das Betrachtungsteil, das Fluoreszenzlicht auf einer Seite langer Wellenlänge (beispielsweise 820 bis 860 nm) auf Grundlage des Anregungslichts beispielsweise bei einem Eingriff oder einer Untersuchung aufgenommen wird. Ein Bild (beispielsweise ein Video des Betrachtungsteils), das durch die 3MOS-Kamera 1 aufgenommen ist, wird auf einem Monitor MN1 (siehe 9) dargestellt und unterstützt einen Benutzer, wie etwa einen Arzt, beim Ausführen eines medizinischen Vorgangs. Das Spektralprisma 13 ist in Beispielen beschrieben, die bei dem oben beschriebenen medizinischen Betrachtungssystem verwendet werden. Jedoch ist seine Verwendung nicht auf einen medizinischen Gebrauch beschränkt, und das Prisma kann für einen gewerblichen Gebrauch verwendet werden.
  • Obwohl in 1 nicht gezeigt, besteht ein Teil auf einer Objektivseite (mit anderen Worten, einer Spitzenseite) der 3MOS-Kamera 1 bezüglich des Objektivs 11 aus einem Endoskopschaft, der durch den Betrachtungsteil (beispielsweise den erkrankten Teil; dasselbe gilt im Folgenden) eingeführt wird. Dieser Endoskopschaft ist beispielsweise ein Hauptteil eines medizinischen Instruments, wie etwa eines in den Betrachtungsteil einzuführenden starren Endoskops, und ist ein längliches Lichtleitelement, das Licht L1 vom Betrachtungsteil zum Objektiv 11 leiten kann.
  • Das Objektiv 11 ist an der Objektivseite (mit anderen Worten, Spitzenseite) des Spektralprismas 13 angebracht und sammelt das Licht L1 vom Betrachtungsteil (beispielsweise am Betrachtungsteil reflektiertes Licht). Gesammeltes Licht L2 fällt auf das Spektralprisma 13.
  • Das Spektralprisma 13 empfängt das Licht L2 vom Betrachtungsteil und spaltet das Licht in erstes sichtbares Licht VI, ein zweites sichtbares Licht V2 und IR-Licht N1 auf. Das Spektralprisma 13 weist einen Aufbau mit einem IR-Prisma 31 sowie Prismen 32 und 33 für sichtbares Licht auf (siehe 2). Das erste sichtbare Licht V1 fällt auf das Bildaufnahmeelement 151, das so angeordnet ist, dass es dem Prisma 32 für sichtbares Licht zugewandt ist. Das zweite sichtbare Licht V2 fällt auf das Bildaufnahmeelement 152, das so angeordnet ist, dass es dem Prisma 33 für sichtbares Licht zugewandt ist. Das IR-Licht N1 fällt auf das Bildaufnahmeelement 153, das so angeordnet ist, dass es dem IR-Prisma 31 zugewandt ist. Ein genaues Aufbaubeispiel des Spektralprismas 13 ist nachfolgend unter Bezugnahme auf 2 beschrieben.
  • Das Bildaufnahmeelement 151 als Beispiel eines zweiten Bildsensors enthält beispielsweise einen ladungsgekoppelten Baustein (CCD-Baustein) oder einen komplementären Metall-Oxid-Halbleiterbaustein (CMOS-Baustein), in dem eine Vielzahl von zum Abbilden sichtbaren Lichts geeigneten Pixeln angeordnet ist, und eine Belichtungssteuerungsschaltung (nicht gezeigt), die einen elektronischen Verschluss verwendet. In dem CCD-Baustein oder CMOS-Baustein, der das Bildaufnahmeelement 151 bildet, sind beispielsweise mindestens eine Mikrolinse, ein Farbfilter und ein Licht empfangendes Element entsprechend jedem Pixel angeordnet. Die Mikrolinse sammelt einfallendes Licht (sichtbares Licht). Das Farbfilter lässt sichtbares Licht einer bestimmten Farbkomponente (Wellenlänge) durch, das durch die Mikrolinse durchgelassen ist. Das Farbfilter des Bildaufnahmeelements 151 ist in einer Bayer-Matrix (siehe 3A) angeordnet, wie etwa Rot (R), Grün (G), Grün (G) und Blau (B). Die bestimmte Farbkomponente gibt beispielsweise Rot (R), Grün (G) und Blau (B) an. Das Licht empfangende Element empfängt Licht der bestimmten Farbkomponente (Wellenlänge), das durch das Farbfilter durchgelassen ist. Das Bildaufnahmeelement 151 ist so angeordnet, dass es dem Prisma 32 für sichtbares Licht zugewandt ist (siehe 2). Das Bildaufnahmeelement 151 nimmt ein Bild auf Grundlage des ersten sichtbaren Lichts V1 auf, das über eine erste Belichtungszeit einfällt, die durch die Belichtungssteuerungsschaltung auf Grundlage eines Belichtungssteuerungssignals CSH1 von der Kamerasignalverarbeitungseinheit 191 bestimmt ist. Das Bildaufnahmeelement 151 erzeugt ein Videosignal V1V des Betrachtungsteils durch eine Bildgebung und gibt das Signal zur Videosignalverarbeitungseinheit 17 aus.
  • Das Bildaufnahmeelement 152 als Beispiel eines dritten Bildsensors enthält beispielsweise einen CCD- oder CMOS-Baustein, in dem eine Vielzahl von zum Abbilden sichtbaren Lichts geeigneten Pixeln angeordnet ist, und eine Belichtungssteuerungsschaltung (nicht gezeigt), die einen elektronischen Verschluss verwendet. In dem CCD-Baustein oder CMOS-Baustein, der das Bildaufnahmeelement 152 bildet, sind beispielsweise mindestens eine Mikrolinse, ein Farbfilter und ein Licht empfangendes Element, entsprechend jedem Pixel angeordnet. Die Mikrolinse sammelt einfallendes Licht (sichtbares Licht). Das Farbfilter lässt sichtbares Licht einer bestimmten Farbkomponente (Wellenlänge) durch, das durch die Mikrolinse durchgelassen ist. Das Farbfilter des Bildaufnahmeelements 152 ist in der Bayer-Matrix (siehe 3A) angeordnet, wie etwa Rot (R), Grün (G), Grün (G) und Blau (B). Die bestimmte Farbkomponente gibt beispielsweise Rot (R), Grün (G) und Blau (B) an. Das Licht empfangende Element empfängt Licht der bestimmten Farbkomponente (Wellenlänge), das durch das Farbfilter durchgelassen ist. Das Bildaufnahmeelement 152 ist so angeordnet, dass es dem Prisma 33 für sichtbares Licht zugewandt ist (siehe 2). Das Bildaufnahmeelement 152 nimmt ein Bild auf Grundlage des zweiten sichtbaren Lichts V2 auf, das über eine zweite Belichtungszeit einfällt, die durch die Belichtungssteuerungsschaltung auf Grundlage eines Belichtungssteuerungssignals CSH2 von der Kamerasignalverarbeitungseinheit 192 bestimmt ist.
    Das Bildaufnahmeelement 152 erzeugt ein Videosignal V2V des Betrachtungsteils durch eine Bildgebung und gibt das Signal zur Videosignalverarbeitungseinheit 17 aus.
  • Das Bildaufnahmeelement 153 als Beispiel eines ersten Bildsensors enthält beispielsweise einen CCD- oder CMOS-Baustein, in dem eine Vielzahl von zum Aufnehmen von IR-Licht geeigneten Pixeln angeordnet ist. Das Bildaufnahmeelement 153 ist so angeordnet, dass es dem IR-Prisma 31 zugewandt ist (siehe 2). Das Bildaufnahmeelement 153 nimmt ein Bild auf Grundlage des einfallenden IR-Lichts N1 auf. Das Bildaufnahmeelement 153 erzeugt ein Videosignal N1V des Betrachtungsteils durch eine Bildgebung und gibt das Signal zur Videosignalverarbeitungseinheit 17 aus.
  • Die Videosignalverarbeitungseinheit 17 ist aufgebaut aus einem Prozessor, wie etwa beispielsweise einem digitalen Signalprozessor (DSP) oder einer feldprogrammierbaren Gatteranordnung (einem FPGA). Die Kamerasignalverarbeitungseinheiten 191 bis 193, die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 und die Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht sind durch den oben beschriebenen Prozessor ausgeführt.
  • Die Kamerasignalverarbeitungseinheit 191 führt verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Videosignals V1V vom Bildaufnahmeelement 151 durch, um das erste Videosignal V1VD für sichtbares Licht des Betrachtungsteils zu erzeugen, und gibt das Signal zur Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 oder zur Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich aus. Die Kamerasignalverarbeitungseinheit 191 erzeugt das Belichtungssteuerungssignal CSH1 zum Bestimmen der ersten Belichtungszeit des Bildaufnahmeelements 151 und gibt das Signal zum Bildaufnahmeelement 151 aus. Das Bildaufnahmeelement 151 steuert die Belichtungszeit des ersten sichtbaren Lichts V1 auf Grundlage des Belichtungssteuerungssignals CSH1.
  • Die Kamerasignalverarbeitungseinheit 192 führt verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Videosignals V2V vom Bildaufnahmeelement 152 durch, um ein zweites Videosignal V2VD des Betrachtungsteils zu erzeugen, und gibt das Signal zur Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 oder zur Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich aus. Obwohl die Einzelheiten nachstehend beschrieben sind, können die Helligkeit (Empfindlichkeit) des ersten Videosignals V1VD für sichtbares Licht und die Helligkeit des zweiten Videosignals V2VD für sichtbares Licht im Wesentlichen dieselbe (einschließlich dieselbe) sein oder können verschieden sein. Insbesondere ist, je ähnlicher die Helligkeit (Empfindlichkeit) des ersten Videosignals V1VD für sichtbares Licht und die Helligkeit des zweiten Videosignals V2VD für sichtbares Licht im Wesentlichen (einschließlich gleich) sind, eine Wirkung der Auflösungsverstärkung umso höher. Die Kamerasignalverarbeitungseinheit 192 erzeugt das Belichtungssteuerungssignal CSH2 zum Bestimmen der Belichtungszeit des Bildaufnahmeelements 152 und gibt das Signal zum Bildaufnahmeelement 152 aus.
    Das Bildaufnahmeelement 152 steuert die zweite Belichtungszeit des zweiten sichtbaren Lichts V2 auf Grundlage des Belichtungssteuerungssignals CSH2. Obwohl die Einzelheiten weiter unten beschrieben sind, können die erste Belichtungszeit und die zweite Belichtungszeit dieselbe (siehe 5) sein oder können verschieden sein (siehe 6 bis 8), und dasselbe gilt im Folgenden.
  • Die Kamerasignalverarbeitungseinheit 193 führt verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Videosignals N1V vom Bildaufnahmeelement 153 durch, um ein IR-Videosignal N1VD des Betrachtungsteils zu erzeugen, und gibt das Signal zur Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht aus.
  • Die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 empfängt zwei Videosignale (genauer das erste Videosignal V1VD von der Kamerasignalverarbeitungseinheit 191 und das zweite Videosignal V2VD von der Kamerasignalverarbeitungseinheit 192). Je ähnlicher die Helligkeit des ersten Videosignals V1VD für sichtbares Licht und die Helligkeit des zweiten Videosignals V2VD für sichtbares Licht sind, desto höher ist die Wirkung der Auflösungsverbesserung durch die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21. Eine Kombinations-/Pixelinterpolationsverarbeitung wird unter Berücksichtigung einer räumlichen Positionsbeziehung zwischen dem ersten Videosignal V1VD für sichtbares Licht und dem zweiten Videosignal V2VD für sichtbares Licht durchgeführt, und somit ist es möglich, ein hochauflösendes Videosignal VVD mit hoher Auflösung zu erzeugen.
  • Die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 führt eine Kombinationsverarbeitung an den beiden empfangenen Eingangs-Videosignalen durch (das heißt, eine Kombination des ersten Videosignals V1VD für sichtbares Licht, das durch die Kamerasignal-Bearbeitungseinheit 191 auf Grundlage der Bildgebung des Bildaufnahmeelements 151 erzeugt ist, das an das Prisma 32 für sichtbares Licht geklebt ist, und des zweiten Videosignals V2VD für sichtbares Licht, das durch die Kamerasignal-Bearbeitungseinheit 192 auf Grundlage der Bildgebung des Bildaufnahmeelements 152 erzeugt ist, das an das Prisma 33 für sichtbares Licht geklebt ist), um das hochauflösende Videosignal VVD zu erzeugen. Mit der Kombinationsverarbeitung (siehe oben) an den beiden empfangenen Eingangs-Videosignalen kann die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 das hochauflösende Videosignal VVD mit einer höheren Auflösung erzeugen als das erste Videosignal V1VD für sichtbares Licht oder das zweite Videosignal V2VD für sichtbares Licht. Die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 gibt das hochauflösende Videosignal VVD an die Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht aus. Die Erzeugung des hochauflösenden Videosignals VVD durch die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 ist nachstehend mit Bezugnahme auf 3A beschrieben.
  • In der 3MOS-Kamera 1 erzeugt die Videosignalverarbeitungseinheit 17 das hochauflösende Videosignal VVD durch eine Pixelverschiebung. Daher ist es bei dem Spektralprisma 13 (siehe 2), wenn das Bildaufnahmeelement 151, auf das das erste sichtbare Licht V1 fällt, und das Bildaufnahmeelement 152, auf das das zweite sichtbare Licht V2 fällt, jeweils an die entsprechenden Prismen 32 und 33 für sichtbares Licht geklebt sind, notwendig, Positionen des Bildaufnahmeelements 151 und des Bildaufnahmeelements 152 um im Wesentlichen ein Pixel (beispielsweise in der horizontalen oder vertikalen Richtung oder in beiden Richtungen) optisch zu verschieben, um das Verkleben durchzuführen (siehe 3A). Demgemäß kann die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 das hochauflösende Videosignal VVD durch die Pixelverschiebung auf Grundlage der Bildgebung der Bildaufnahmeelemente 151 und 152 erzeugen, die um im Wesentlichen ein Pixel optisch verschoben (siehe oben) angeordnet sind. Das im Wesentlichen eine Pixel umfasst ein Pixel, braucht nicht genau ein Pixel zu sein und kann beispielsweise eine Abstandsabweichung von einem Pixel plus/minus 0,25 Pixel umfassen.
    Je ähnlicher ein Betrag der Pixelverschiebung einem Pixel ist, desto höher ist die Wirkung der Auflösungsverbesserung durch die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21.
  • Die Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich empfängt und überlagert die beiden Videosignale mit verschiedener Helligkeit (Empfindlichkeit) (genauer, das erste Videosignal V1VD für sichtbares Licht von der Kamerasignalverarbeitungseinheit 191 und das zweite Videosignal V2VD für sichtbares Licht von der Kamerasignalverarbeitungseinheit 192) zum Kombinieren der Signale, um ein Videosignal VVDA mit breitem Dynamikbereich zu erzeugen. Die Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich überlagert und kombiniert die beiden Videosignale mit verschiedener Helligkeit (Empfindlichkeit) und kann somit das Videosignal VVDA mit breitem Dynamikbereich mit einem offenbar breiteren Dynamikbereich als das erste Videosignal V1VD für sichtbares Licht und das zweite Videosignal V2VD für sichtbares Licht erzeugen. Die Lang- und Kurzbelichtungskombinations-Verarbeitungseinheit 21A für breiten Dynamikbereich gibt das Videosignal VVDA mit breitem Dynamikbereich zur Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht aus.
  • Die Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht empfängt und überlagert das hochauflösende Videosignal VVD von der Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 und das IR-Videosignal N1VD von der Kamerasignalverarbeitungseinheit 193 zum Kombinieren der Signale, um ein kombiniertes Videosignal IMVVD für sichtbares/IR-Licht zu erzeugen. Mit dem kombinierten Videosignal IMVVD für sichtbares/IR-Licht ist die Auflösung durch die Kombinationsverarbeitung nach der Pixelverschiebung erhöht. Daher wird ein Zustand um den Betrachtungsteil (beispielsweise das Operationsfeld) visuell deutlich, und ein Zustand des erkrankten Teils kann durch die Fluoreszenzlichtaussendung des fluoreszierenden Reagens, wie etwa ICG, genau geklärt werden (siehe 9). Die Kombinierungsverarbeitungseinheit 23 für sichtbares/IR-Licht kann das kombinierte Videosignal IMVVD für sichtbares/IR-Licht zum Monitor MN1 ausgeben oder das Signal zum Sammeln an eine Aufzeichnungsvorrichtung (nicht gezeigt) senden.
  • Der Monitor MN1 ist beispielsweise Bestandteil einer Bildkonsole (nicht gezeigt), angeordnet in einem Operationssaal bei einem Eingriff oder einer Untersuchung, und stellt das kombinierte Videosignal IMVVD für sichtbares/IR-Licht des Betrachtungsteils dar, das durch die 3MOS-Kamera 1 erzeugt ist. Demgemäß kann der Benutzer, wie etwa ein Arzt, das auf dem Monitor MN1 dargestellte kombinierte Videosignal IMVVD für sichtbares/IR-Licht visuell erkennen, um den Teil genau zu verstehen, der im Betrachtungsteil Fluoreszenzlicht aussendet. Die Aufzeichnungsvorrichtung ist ein Rekorder, der in der Lage ist, beispielsweise Daten des durch die 3MOS-Kamera 1 erzeugten kombinierten Videosignals IMVVD für sichtbares/IR-Licht aufzuzeichnen.
  • 2 ist eine Abbildung, die ein Aufbaubeispiel des in 1 gezeigten Spektralprismas 13 zeigt. Im Folgenden ist das Aufbaubeispiel des in 1 gezeigten Spektralprismas 13 hauptsächlich unter Bezugnahme auf 2 beschrieben. Das Spektralprisma 13 enthält das IR-Prisma 31 (ein Beispiel eines ersten Prismas), das Prisma 32 für sichtbares Licht (ein Beispiel eines zweiten Prismas) und das Prisma 33 für sichtbares Licht (ein Beispiel eines dritten Prismas). Das IR-Prisma 31, das Prisma 32 für sichtbares Licht und das Prisma 33 für sichtbares Licht sind nacheinander in einer Richtung der optischen Achse des durch das Objektiv 11 gesammelten Lichts L2 montiert.
  • Das IR-Prisma 31 als ein Beispiel des ersten Prismas enthält eine Einfallsfläche 31a, auf der das Licht L2 einfällt, eine Reflexionsfläche 31b, auf der ein dichroitischer Spiegel DYM1 ausgebildet ist, der das IR-Licht aus dem Licht L2 reflektiert, und eine Austrittsfläche 31c, aus der das IR-Licht austritt. Der dichroitische Spiegel DYM1 (ein Beispiel des ersten Reflexionsbelags) ist auf der Reflexionsfläche 31b durch eine Gasphasenabscheidung oder dergleichen ausgebildet, reflektiert das IR-Licht (beispielsweise IR-Licht in dem Wellenlängenband von 800 nm oder mehr) aus dem Licht L2 und lässt Licht durch (beispielsweise Licht von etwa 400 nm bis 800 nm), außer dem IR-Licht aus dem Licht L2 (siehe 4A). Genauer wird das IR-Licht (siehe oben) aus dem auf die Einfallsfläche 31a des IR-Prismas 31 fallenden Licht L2 durch die Reflexionsfläche 31b reflektiert. Dieses IR-Licht wird durch die Reflexionsfläche 31b reflektiert, wird dann durch die Einfallsfläche 31a des IR-Prismas 31 totalreflektiert, und fällt durch die Austrittsfläche 31c auf das Bildaufnahmeelement 153.
  • 4A ist eine Grafik, die ein Beispiel der Spektralkennlinien des dichroitischen Spiegels DYM1 zeigt. Die horizontale Achse von 4A gibt die Wellenlänge an [nm: Nanometer (dasselbe gilt im Folgenden)], und die vertikale Achse gibt den Reflexionsgrad oder Transmissionsgrad an. Eine Kennlinie TP1 gibt den Transmissionsgrad des dichroitischen Spiegels DYM1 an. Gemäß der Kennlinie TP1 kann der dichroitische Spiegel DYM1 das Licht von ungefähr 400 nm bis 800 nm durchlassen. Eine Kennlinie RF1 gibt den Reflexionsgrad des dichroitischen Spiegels DYM1 an. Gemäß der Kennlinie RF1 kann der dichroitische Spiegel DYM1 das IR-Licht von 800 nm oder mehr durchlassen. Daher kann das gesamte IR-Licht mit einer durch eine Fläche AR1 dargestellten Lichtmenge (mit anderen Worten, das IR-Licht aus dem Licht L2) auf das Bildaufnahmeelement 153 fallen.
  • Das Prisma 32 für sichtbares Licht als ein Beispiel des zweiten Prismas enthält eine Einfallsfläche 32a, auf der das Licht (ein Beispiel ersten durchgelassenen Lichts) einfällt, das durch den dichroitischen Spiegel DYM1 durchgelassen ist, eine Reflexionsfläche 32b, auf der ein Strahlteiler BSP1 zum Reflektieren einer Teil-Lichtmenge des durchgelassenen Lichts (genauer, sichtbaren Lichts) ausgebildet ist, und eine Austrittsfläche 32c, aus der reflektiertes sichtbares Licht der Teil-Lichtmenge austritt. Der Strahlteiler BSP1 (ein Beispiel eines zweiten Reflexionsbelags) ist auf der Reflexionsfläche 32b durch Gasphasenabscheidung oder dergleichen ausgebildet, reflektiert sichtbares Licht mit einer Teil-Lichtmenge (beispielsweise ungefähr A % des auf die Einfallsfläche 32a fallenden Lichts; A ist eine vorgegebene reelle Zahl, beispielsweise 50) des auf die Einfallsfläche 32a fallenden Lichts und lässt sichtbares Licht mit einer verbleibenden Lichtmenge (100 - A) % (beispielsweise ungefähr 50 % des auf die Einfallsfläche 32a fallenden Lichts) davon durch (siehe 4B). Genauer wird das sichtbare Licht mit der Teil-Lichtmenge (beispielsweise 50 %) des auf die Einfallsfläche 32a des Prismas 32 für sichtbares Licht fallenden sichtbaren Lichts durch die Reflexionsfläche 32b reflektiert. Dieser Teil des sichtbaren Lichts wird durch die Reflexionsfläche 32b reflektiert, wird dann durch die Einfallsfläche 32a des Prismas 32 für sichtbares Licht totalreflektiert, und fällt durch die Austrittsfläche 32c auf das Bildaufnahmeelement 151. Bei dem in 1 gezeigten Spektralprisma 13 ist ein Anteil des durch den Strahlteiler BSP1 reflektierten sichtbaren Lichts nicht auf 50 % beschränkt und kann beispielsweise im Bereich von 30 % bis 50 % liegen.
  • Das Prisma 33 für sichtbares Licht als ein Beispiel des dritten Prismas enthält eine Einfallsfläche 33a, auf der das sichtbare Licht mit der verbleibenden, durch den Strahlteiler BSP1 durchgelassenen Lichtmenge einfällt, und eine Austrittsfläche 33c, aus der das sichtbare Licht mit der verbleibenden Lichtmenge austritt. Genauer fällt das sichtbare Licht mit der durch den Strahlteiler BSP1 durchgelassenen verbleibenden Lichtmenge auf das Prisma 33 für sichtbares Licht, tritt unverändert aus und fällt auf das Bildaufnahmeelement 152 (siehe 4B).
  • 4B ist eine Grafik, die ein Beispiel der Spektralkennlinie des Strahlteilers BSP1 zeigt. Die horizontale Achse von 4B gibt die Wellenlänge [nm] an, und die vertikale Achse gibt den Reflexionsgrad oder Transmissionsgrad an. Eine Kennlinie TP2 gibt Transmissionsgrad und Reflexionsgrad (ungefähr 50 % bei 400 nm bis 800 nm) des Strahlteilers BSP1 in dem in 2 gezeigten Spektralprisma 13 an. Mit der Kennlinie TP2 kann der Strahlteiler BSP1 als ein Beispiel des zweiten Reflexionsbelags Licht mit einer Lichtmenge von ungefähr 50 % (hauptsächlich sichtbares Licht) des Lichts von ungefähr 400 nm bis 800 nm reflektieren und kann Licht mit einer verbleibenden Lichtmenge von ungefähr 50 % (hauptsächlich sichtbares Licht) davon durchlassen. Daher kann sichtbares Licht mit einer durch eine Fläche AR2 angegebenen Lichtmenge (beispielsweise sichtbares Licht mit einer Lichtmenge von ungefähr 50 %) auf das Bildaufnahmeelement 151 fallen. Das sichtbare Licht mit der durch die Fläche AR2 angegebenen Lichtmenge (beispielsweise sichtbares Licht mit einer Lichtmenge von ungefähr 50 %) kann auf das Bildaufnahmeelement 152 fallen.
  • Als Nächstes ist die Anordnung von Farbfiltern BYR1 und BYR2 der Bildaufnahmeelemente 151 und 152 mit Bezugnahme auf 3A beschrieben. 3A ist eine Abbildung, die ein Anordnungsbeispiel der Farbfilter BYR1 und BYR2 der Bildaufnahmeelemente 151 und 152 zeigt. Das Farbfilter BYR1 ist ein Farbfilter als Bestandteil des Bildaufnahmeelements 151 und ist in der Bayer-Matrix angeordnet, die beispielsweise aus den Farbfiltern von Rot (R), Grün (G), Grün (G) und Blau (B) in beliebigen vier angrenzenden Pixeln in der horizontalen und der vertikalen Richtung besteht. In der Bayer-Matrix ist in beliebigen vier Pixeln mehr Grün (G) angeordnet als Rot (R) und Blau (B). Dies deshalb, weil der menschliche Gesichtssinn bekanntlich am empfindlichsten auf Grün (G) reagiert. Ähnlich ist das Farbfilter BYR2 ein Farbfilter als Bestandteil des Bildaufnahmeelements 152 und ist in der Bayer-Matrix angeordnet, die beispielsweise aus den Farbfiltern von Rot (R), Grün (G), Grün (G) und Blau (B) in beliebigen vier angrenzenden Pixeln in der horizontalen und der vertikalen Richtung besteht.
  • Wie in 3A gezeigt, sind die Bildaufnahmeelemente 151 und 152 mit einem Versatz von einem Pixel angeordnet, und somit sind die Farbfilter BYR1 und BYR2 so angeordnet, dass sie um ein Pixel versetzt sind. Obwohl 3A ein Beispiel zeigt, bei dem der Versatz von einem Pixel hinzugefügt ist, können die Farbfilter BYR1 und BYR2 mit einem Versatz von im Wesentlichen einem Pixel angeordnet sein (siehe oben). Daher ist mit der Pixelverschiebung des Versatzes von im Wesentlichen einem Pixel (siehe oben) das grüne (G) Pixel einer Bayer-Matrix (beispielsweise des Farbfilters BYR1) auf dem blauen (B) Pixel oder dem roten (R) Pixel der anderen Bayer-Matrix (beispielsweise des Farbfilters BYR2) angeordnet. Mit anderen Worten, das grüne (G) Farbfilter ist für alle Pixel angeordnet. Demgemäß kann die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21, die das erste Videosignal V1VD für sichtbares Licht und das zweite Videosignal V2VD für sichtbares Licht empfängt, das hochauflösende Videosignal VVD mit hoher Auflösung erzeugen, verglichen mit einem Videosignal in einem Fall, wo die Pixelverschiebung um im Wesentlichen ein Pixel nicht durchgeführt ist, indem sie selektiv Licht verwendet, das durch das grüne (G) Farbfilter durchgelassen ist, das den höchsten Beitragsanteil zur Auflösung eines Luminanzsignals in jedem Pixel der Farbfilter BYR1 und BYR2 der in zwei Schichten gestapelten Bayer-Matrix aufweist (siehe 3A).
  • Ein Problem in einem Fall, wo die Farbfilter der Bildaufnahmeelemente 151 und 152 mit einer um in halbes Pixel versetzten Pixelverschiebung angeordnet sind, ist mit Bezugnahme auf 3B beschrieben. 3B ist eine erläuternde Abbildung eines Problems in einem Fall, wo die Farbfilter BYR1 und BYR2 der Bildaufnahmeelemente 151 und 152 in der Bayer-Matrix und mit der Verschiebung um ein halbes Pixel angeordnet sind. Die horizontale Achse und die vertikale Achse von 3B sind beide Frequenzen, wobei fs die Abtastfrequenz angibt und fs/2 die Nyquist-Frequenz angibt.
  • In einem Fall, wo die Farbfilter der Bildaufnahmeelemente 151 und 152 gestapelt und mit dem Pixelverschiebungsversatz um das halbe Pixel angeordnet sind, stellte es sich heraus, dass falsche Farbe oder ein Moire, das im Objekt nicht vorhanden ist, nahe der Nyquist-Frequenz (fs/2) erfasst wird, wie in 3B gezeigt. Wenn solche falsche Farbe oder Moire erfasst wird, verschlechtert sich die Bildqualität des Farbvideosignals. Andererseits sind bei der ersten Ausführungsform, um ein solches Problem zu lösen, die Farbfilter BYR1 und BYR2 mit dem optischen Versatz um ein Pixel angeordnet, wie in 3A gezeigt. Demgemäß ergibt sich bei dem hochauflösenden Videosignal VVD, das durch die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 erzeugt wird, kein Erfassen der falschen Farbe oder des Moires, wie in 3B gezeigt, nahe der Nyquist-Frequenz (fs/2), und die Bildqualität ist genau verbessert.
  • 5 ist eine Grafik, die ein Beispiel einer Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit GAN1, Dynamikbereich DRG1 und Auflösung RSO1 in einem Fall zeigt, wo Belichtungszeiten des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts V1 dieselben sind. Die horizontale Achse von 5 ist das Aufteilungsverhältnis für sichtbares Licht. Mit anderen Worten, das Aufteilungsverhältnis für sichtbares Licht ist ein Verhältnis, zu dem der Strahlteiler BSP1 das durch den dichroitischen Spiegel DYM1 durchgelassene sichtbare Licht reflektiert. Zum Beispiel reflektiert in einem Fall, wo das Aufteilungsverhältnis für sichtbares Licht 10 % (das heißt, 90:10) beträgt, der Strahlteiler BSP1 das sichtbare Licht von 10 % des durch den dichroitischen Spiegel DYM1 durchgelassenen sichtbaren Lichts und lässt 90 % davon durch. Das heißt, das Verhältnis Lichtmenge des zweiten sichtbaren Lichts V2:Lichtmenge des ersten sichtbaren Lichts V1 beträgt 90:10. Ein anderes Aufteilungsverhältnis für sichtbares Licht kann in derselben Weise wie bei dem oben beschriebenen spezifischen Beispiel in Betracht gezogen werden. Die vertikale Achse von 5 zeigt die Empfindlichkeit GAN1, den Dynamikbereich DRG1 und die Auflösung RSO1 des durch die Videosignalverarbeitungseinheit 17 erzeugten hochauflösenden Videosignals VVD.
  • 5 zeigt ein Beispiel, bei dem die Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss so gesteuert sind, dass sie dieselben sind. Daher ist in Betracht gezogen, dass die Empfindlichkeit GAN1 gemäß einer Kennlinie (beispielsweise einer linearen Funktion) so verläuft, dass die Empfindlichkeit das Maximum ist, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist (beispielsweise das Maximum (100 %) und am hellsten, wenn das Verhältnis 0 % beträgt), und die Empfindlichkeit das Minimum ist (beispielsweise am dunkelsten bei 50 %), wenn das Verhältnis 50 % beträgt. Dies deshalb, weil die Empfindlichkeit bestimmt ist durch die Helligkeit des helleren zweiten sichtbaren Lichts V2 aus der Helligkeit des ersten Videosignals V1VD für sichtbares Licht auf Grundlage des ersten sichtbaren Lichts V1 und der Helligkeit des zweiten Videosignals V2VD für sichtbares Licht auf Grundlage des zweiten sichtbaren Lichts V2.
  • Es ist in Betracht gezogen, dass der Dynamikbereich DRG1 gemäß einer Kennlinie verläuft, bei der sich der Dynamikbereich ähnlich erhöht, wenn das Aufteilungsverhältnis für sichtbares Licht in einem Bereich größer als Null kleiner ist (beispielsweise ungefähr +80 dB, wenn das Verhältnis 0,01 % beträgt), und der Dynamikbereich das Minimum ist (beispielsweise 0 dB), wenn das Verhältnis 50 % beträgt. Dies deshalb, weil ein Unterschied zwischen einem dunklen Bereich und einem hellen Bereich dazu neigt, sich auszuweiten, wenn das Aufteilungsverhältnis für sichtbares Licht im hochauflösenden Videosignal VVD kleiner ist.
  • Es ist in Betracht gezogen, dass die Auflösung RSO1 gemäß einer Kennlinie verläuft, bei der die Auflösung im Gegensatz das Minimum ist, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist (beispielsweise das Maximum von 1-fach, wenn das Verhältnis 0 % beträgt), und die Auflösung das Maximum ist (beispielsweise 1,1-fach), wenn das Verhältnis 50 % beträgt. Dies deshalb, weil ein Unterschied im Pixelwert zwischen angrenzenden Pixeln klein ist, wenn das Aufteilungsverhältnis größer ist, und es somit leicht ist, eine hohe Auflösung durch eine Pixelverschiebung zu verwirklichen.
  • 6 ist eine Grafik, die ein Beispiel einer Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit GAN2, Dynamikbereich DRG2 und Auflösung RSO2 in einem Fall zeigt, wo ein Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts V1 10:1 beträgt. Die horizontale Achse von 6 ist das Aufteilungsverhältnis für sichtbares Licht, und seine Beschreibung ist weggelassen, da die Beschreibung dieselbe ist wie bei 5. Die vertikale Achse von 6 zeigt die Empfindlichkeit GAN2, den Dynamikbereich DRG2 und die Auflösung RSO2 des durch die Videosignalverarbeitungseinheit 17 erzeugten hochauflösenden Videosignals VVD.
  • 6 zeigt ein Beispiel, bei dem ein Unterschied so vorgesehen ist, dass ein Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 10:1 beträgt. Es ist, wie im Fall der in 5 gezeigten Empfindlichkeit GAN1, in Betracht gezogen, dass die Empfindlichkeit GAN2 gemäß einer Kennlinie (beispielsweise einer linearen Funktion) so verläuft, dass die Empfindlichkeit das Maximum ist, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist (beispielsweise das Maximum (100 %), und am hellsten, wenn das Verhältnis 0 % beträgt), und die Empfindlichkeit das Minimum ist (beispielsweise am dunkelsten bei 50 %), wenn das Verhältnis 50 % beträgt. Dies deshalb, weil ein Helligkeitsverhältnis des zweiten Videosignals V2VD für sichtbares Licht und des ersten Videosignals V1VD für sichtbares Licht erhalten ist durch ein Multiplizieren des Verhältnisses der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 von 10:1 mit einem Lichtmengenverhältnis des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts VI, und die Empfindlichkeit bestimmt ist durch die Helligkeit des helleren zweiten Videosignals V2VD für sichtbares Licht aus dem zweiten Videosignal V2VD für sichtbares Licht und dem ersten Videosignal V1VD für sichtbares Licht.
  • Wenn ein Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 beispielsweise 10:1 beträgt, verglichen mit dem Fall, wenn ihre Belichtungszeit dieselbe ist, ist in Betracht gezogen, dass der Unterschied zwischen dem hellen Bereich und dem dunklen Bereich wahrscheinlich noch deutlicher erscheint, und es somit möglich ist, mehr Dynamikbereich in dem hochauflösenden Videosignal VVD zu gewinnen. Daher ist in Betracht gezogen, dass der Dynamikbereich DRG2 gemäß einer Kennlinie verläuft, bei der sich der Dynamikbereich ähnlich erhöht, wenn das Aufteilungsverhältnis für sichtbares Licht in einem Bereich größer als Null kleiner ist (beispielsweise ungefähr +80 dB, wenn das Verhältnis 0,1 % beträgt), und der Dynamikbereich das Minimum ist (beispielsweise +20 dB), wenn das Verhältnis 50 % beträgt. Das heißt, es ist sogar mit einem Minimalwert in dem Beispiel von 6 möglich, +20 dB zu gewinnen.
  • Wenn der Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 10:1 beträgt, ist in Betracht gezogen, dass das Verhältnis Lichtmenge von auf das Bildaufnahmeelement 152 einfallendem Licht:Lichtmenge von auf das Bildaufnahmeelement 151 einfallendem Licht = 100:1 in einem Fall beträgt, wo das Aufteilungsverhältnis für sichtbares Licht 10 % beträgt (das Verhältnis zweites sichtbares Licht V2:erstes sichtbares Licht V1 = 90:10). Das heißt, der dunkle Bereich wird durch das erste sichtbare Licht V1 kaum hervorgehoben, und der helle Bereich wird durch das zweite sichtbare Licht V2 kaum hervorgehoben, und somit kann in Betracht gezogen werden, dass es fast schwierig ist, eine Auflösung zu gewinnen, wenn zwei Videosignale überlagert werden. Daher ist es in Betracht gezogen, dass die Auflösung RSO2 über kleine Werte (beispielsweise das Minimum von 1-fach bei 0 % und ungefähr 1,02-fach bei 50 %) verläuft, ungeachtet des Aufteilungsverhältnisses für sichtbares Licht.
  • 7 ist eine Grafik, die ein Beispiel einer Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit GAN2, Dynamikbereich DRG3 und Auflösung RSO3 in einem Fall zeigt, wo das Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts V1 100:1 beträgt. Die horizontale Achse von 7 ist das Aufteilungsverhältnis für sichtbares Licht, und seine Beschreibung ist weggelassen, da die Beschreibung dieselbe ist wie bei 5. Die vertikale Achse von 7 zeigt die Empfindlichkeit GAN2, den Dynamikbereich DRG3 und die Auflösung RSO3 des durch die Videosignalverarbeitungseinheit 17 erzeugten hochauflösenden Videosignals VVD.
  • 7 zeigt ein Beispiel, bei dem ein beträchtlicher Unterschied vorgesehen ist, sodass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 100:1 beträgt. Es ist, wie im Fall der in 6 gezeigten Empfindlichkeit GAN2, in Betracht gezogen, dass die Empfindlichkeit GAN2 gemäß einer Kennlinie (beispielsweise einer linearen Funktion) so verläuft, dass die Empfindlichkeit das Maximum ist, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist (beispielsweise das Maximum (100 %), und am hellsten, wenn das Verhältnis 0 % beträgt), und die Empfindlichkeit das Minimum ist (beispielsweise am dunkelsten bei 50 %), wenn das Verhältnis 50 % beträgt.
    Dies deshalb, weil ein Helligkeitsverhältnis des zweiten Videosignals V2VD für sichtbares Licht und des ersten Videosignals V1VD für sichtbares Licht erhalten ist durch ein Multiplizieren des Verhältnisses der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 von 100:1 mit einem Lichtmengenverhältnis des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts VI, und die Empfindlichkeit bestimmt ist durch die Helligkeit des helleren zweiten Videosignals V2VD für sichtbares Licht aus dem zweiten Videosignal V2VD für sichtbares Licht und dem ersten Videosignal V1VD für sichtbares Licht.
  • Wenn ein beträchtlicher Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 beispielsweise 100:1 beträgt, verglichen mit dem Fall, wenn ihre Belichtungszeit dieselbe ist, ist in Betracht gezogen, dass der Unterschied zwischen dem hellen Bereich und dem dunklen Bereich wahrscheinlich noch deutlicher erscheint, und es somit möglich ist, mehr Dynamikbereich in dem hochauflösenden Videosignal VVD zu gewinnen. Daher ist in Betracht gezogen, dass der Dynamikbereich DRG3 gemäß einer Kennlinie verläuft, bei der sich der Dynamikbereich ähnlich erhöht, wenn das Aufteilungsverhältnis für sichtbares Licht in einem Bereich größer als Null kleiner ist (beispielsweise ungefähr +80 dB, wenn das Verhältnis 1 % beträgt), und der Dynamikbereich das Minimum ist (beispielsweise +40 dB), wenn das Verhältnis 50 % beträgt. Das heißt, es ist sogar mit einem Minimalwert in dem Beispiel von 7 möglich, +40 dB zu gewinnen.
  • Wenn der Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 100:1 beträgt, ist in Betracht gezogen, dass das Verhältnis Lichtmenge von auf das Bildaufnahmeelement 152 einfallendem Licht:Lichtmenge von auf das Bildaufnahmeelement 151 einfallendem Licht = 1000: 1 in einem Fall beträgt, wo das Aufteilungsverhältnis für sichtbares Licht 10 % beträgt (das Verhältnis zweites sichtbares Licht V2:erstes sichtbares Licht V1 = 90:10). Das heißt, der dunkle Bereich wird kaum hervorgehoben, da das zweite sichtbare Licht V2 zu hell ist, und der helle Bereich wird kaum hervorgehoben, da das erste sichtbare Licht V1 zu dunkel ist, und somit kann in Betracht gezogen werden, dass es fast schwierig ist, eine Auflösung zu gewinnen, wenn zwei Videosignale überlagert werden, verglichen mit dem Beispiel von 6. Daher ist es in Betracht gezogen, dass die Auflösung RSO3 über kleine Werte (beispielsweise das Minimum von 1-fach bei 0 % und ungefähr 1,001-fach bei 50 %) verläuft, ungeachtet des Aufteilungsverhältnisses für sichtbares Licht.
  • 8 ist eine Grafik, die ein Beispiel einer Beziehung zwischen Aufteilungsverhältnis für sichtbares Licht und Empfindlichkeit GAN3, Dynamikbereich DRG4 und Auflösung RSO4 in einem Fall zeigt, wo das Verhältnis der Belichtungszeiten des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts V1 1:10 beträgt. Die horizontale Achse von 8 ist das Aufteilungsverhältnis für sichtbares Licht, und seine Beschreibung ist weggelassen, da die Beschreibung dieselbe ist wie bei 5. Die vertikale Achse von 8 zeigt die Empfindlichkeit GAN3, den Dynamikbereich DRG4 und die Auflösung RSO4 des durch die Videosignalverarbeitungseinheit 17 erzeugten hochauflösenden Videosignals VVD.
  • 8 zeigt ein Beispiel, bei dem ein Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 1:10 beträgt. Im Gegensatz zu dem Beispiel von 6 ist, wenn der Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 beispielsweise 1:10 beträgt, in Betracht gezogen, dass die Lichtmenge des auf das Bildaufnahmeelement 152 fallendem Licht und die Lichtmenge des auf das Bildaufnahmeelement 151 fallendem Licht im Wesentlichen gleich sind aufgrund der Aufhebung des Aufteilungsverhältnisses für sichtbares Licht und des Belichtungszeitverhältnisses in dem Fall, wo das Aufteilungsverhältnis für sichtbares Licht beispielsweise 10 % beträgt (zweites sichtbares Licht V2:erstes sichtbares Licht V1 = 90:10). Daher ist in Betracht gezogen, dass die Empfindlichkeit GAN3 gemäß einer Kennlinie verläuft, bei der die Empfindlichkeit im Wesentlichen konstant verläuft, sodass sie das Minimum ist, wenn das Aufteilungsverhältnis für sichtbares Licht 0 % bis 10 % beträgt (mit anderen Worten, in einem Fall, wo sich auf die Bildaufnahmeelemente 152 und 151 fallende Lichtmengen nicht viel ändern), und die Empfindlichkeit monoton in einer linearen Funktion steigt, bis das Aufteilungsverhältnis für sichtbares Licht größer als 10 % ist und 50 % erreicht. Beispielsweise ist die Helligkeit das Maximum (50 %, das heißt -6 dB), wenn das Aufteilungsverhältnis für sichtbares Licht 50 % beträgt. Dies deshalb, weil ein Helligkeitsverhältnis des zweiten Videosignals V2VD für sichtbares Licht und des ersten Videosignals V1VD für sichtbares Licht erhalten ist durch ein Multiplizieren des Verhältnisses der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 von 1:10 mit einem Lichtmengenverhältnis des zweiten sichtbaren Lichts V2 und des ersten sichtbaren Lichts VI, und die Empfindlichkeit bestimmt ist durch die Helligkeit eines helleren Videosignals aus dem zweiten Videosignal V2VD für sichtbares Licht und dem ersten Videosignal V1VD für sichtbares Licht.
  • Wenn ein Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 beispielsweise 1:10 beträgt, verglichen mit dem Fall, wenn ihre Belichtungszeit dieselbe ist, ist in Betracht gezogen, dass der Unterschied in der Helligkeit leichter zu erhalten ist, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist in einem Bereich größer als 0 %, aber der Unterschied zwischen dem hellen Bereich und dem dunklen Bereich weniger wahrscheinlich erscheint, wenn das Aufteilungsverhältnis für sichtbares Licht höher ist, und es somit schwierig ist, mehr Dynamikbereich in dem hochauflösenden Videosignal VVD zu gewinnen. Daher erhöht sich der Dynamikbereich DRG4, wenn das Aufteilungsverhältnis für sichtbares Licht kleiner ist in einem Bereich größer als 0 % (beispielsweise ungefähr +80 dB bei 0,001 %). Wenn jedoch das Aufteilungsverhältnis für sichtbares Licht 10 % beträgt, sind die Helligkeit des zweiten Videosignals V2VD für sichtbares Licht und die Helligkeit des ersten Videosignals V1VD für sichtbares Licht im Wesentlichen gleich aufgrund der Aufhebung des Aufteilungsverhältnisses für sichtbares Licht und des Verhältnisses der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 von 1:10, und der Dynamikbereich DRG4 ist das Minimum. Wenn das Aufteilungsverhältnis für sichtbares Licht 10 % überschreitet, ist die Helligkeit des zweiten Videosignals V2VD für sichtbares Licht wieder verschieden von der Helligkeit des ersten Videosignals V1VD, und der Dynamikbereich DRG4 ist groß. Wenn das Aufteilungsverhältnis für sichtbares Licht 50 % beträgt, ist das Verhältnis der Helligkeit des zweiten Videosignals V2VD für sichtbares Licht und der Helligkeit des ersten Videosignals V1VD für sichtbares Licht 1:10, durch die Multiplikation des Verhältnisses der Belichtungszeiten der Bildaufnahmeelemente 152 und 151 von 1:10, und der Dynamikbereich beträgt +20 dB.
  • Wenn der Unterschied so vorgesehen ist, dass das Verhältnis der Belichtungszeiten für die Bildaufnahmeelemente 152 und 151 durch den elektronischen Verschluss 1:10 beträgt, ist in Betracht gezogen, dass die Lichtmenge von auf das Bildaufnahmeelement 152 einfallendem Licht und die Lichtmenge von auf das Bildaufnahmeelement 151 einfallendem Licht im Wesentlichen gleich sind in dem Fall, wo das Aufteilungsverhältnis für sichtbares Licht beispielsweise 10 % beträgt (das Verhältnis zweites sichtbares Licht V2:erstes sichtbares Licht V1 = 90:10) (siehe oben). Das heißt, wenn die Aufhebung des Aufteilungsverhältnisses für sichtbares Licht und das Belichtungszeitverhältnisses (1:10) eintritt (wenn beispielsweise das Aufteilungsverhältnis für sichtbares Licht 10 % beträgt), weisen das erste Videosignal V1VD für sichtbares Licht auf Grundlage des ersten sichtbaren Lichts V1 und das zweite Videosignal V2VD für sichtbares Licht auf Grundlage des zweiten sichtbaren Lichts V2 dieselbe Helligkeit auf. Daher ist in Betracht gezogen, dass die Auflösung RSO4 gemäß einer Kennlinie verläuft, bei der die Auflösung das Maximum ist und sich die Auflösung vom Maximalwert bei einem Aufteilungsverhältnis für sichtbares Licht verringert, bei dem die Aufhebung weniger wahrscheinlich eintritt.
  • 9 ist eine Abbildung, die ein Anzeigebeispiel des kombinierten Videosignals IMVVD für sichtbares/IR-Licht, das durch die 3MOS-Kamera 1 gemäß der ersten Ausführungsform erzeugt ist, auf dem Monitor MN1 darstellt. Das in 9 gezeigte kombinierte Videosignal IMVVD für sichtbares/IR-Licht wird erzeugt auf Grundlage einer Bildgebung am Betrachtungsteil (beispielsweise um Leber und Pankreas) des Patienten, der das Objekt ist, und wird auf dem Monitor MN1 dargestellt. In 9 emittiert das fluoreszierende Reagens ICG Licht, das dem erkrankten Teil in einem Körper des Patienten vorab vor dem Eingriff oder der Untersuchung zugeführt ist, und eine Stelle, die das Licht emittiert (beispielsweise der erkrankte Teil FL1), wird gezeigt, um im kombinierten Videosignal für sichtbares/IR-Licht IMVVD erkannt zu werden. Das hochauflösende Videosignal VVD mit der hohen Auflösung wird durch die Pixelverschiebungskombinations-/Auflösungsverbesserungsverarbeitungseinheit 21 erzeugt. Daher kann ein deutliches Bild des Operationsfeldes, wie etwa eines Betrachtungsziels, mit dem kombinierten Videosignal IMVVD für sichtbares/IR-Licht erlangt werden. Auf diese Weise kann die 3MOS-Kamera 1 das kombinierte Videosignal IMVVD für sichtbares/IR-Licht erzeugen, das es dem Benutzer, wie etwa einem Arzt, ermöglicht, die Einzelheiten des Betrachtungsteils mit hoher Bildqualität zu verstehen und leicht eine Position des erkrankten Teils festzustellen, und das Signal auf dem Monitor MN1 bei dem Eingriff oder der Untersuchung anzeigen.
  • Wie oben beschrieben, sind bei der 3MOS-Kamera 1 gemäß der ersten Ausführungsform das erste Prisma (beispielsweise das IR-Prisma 31), das bewirkt, dass das Bildaufnahmeelement 153 das IR-Licht aus dem Licht L2 von dem Betrachtungsteil (beispielsweise einem erkrankten Teil in dem Objekt) empfängt, das zweite Prisma (beispielsweise das Prisma 32 für sichtbares Licht), das das sichtbare Licht von A % aus dem Licht L2 on dem Betrachtungsteil (beispielsweise dem erkrankten Teil in dem Objekt) reflektiert und bewirkt, dass das Bildaufnahmeelement 151 das verbleibende (100 - A) % davon empfängt, und das dritte Prisma (beispielsweise das Prisma 33 für sichtbares Licht) vorgesehen, das bewirkt, dass das Bildaufnahmeelement 152 das verbleibende sichtbare Licht (100 - A) % davon empfängt. Die 3MOS-Kamera 1 ist mit der Videosignalverarbeitungseinheit 17 versehen, die das Farbvideosignal auf Grundlage der Bildausgänge des Bildaufnahmeelements 151 und des Bildaufnahmeelements 152, die jeweils an den um im Wesentlichen ein Pixel optisch versetzten Positionen angeklebt sind, und das IR-Videosignal auf Grundlage des Bildausgangs des Bildaufnahmeelements 153 kombiniert und das kombinierte Signal zum Monitor MN1 ausgibt.
  • Demgemäß kann die 3MOS-Kamera 1 durch das Spektralprisma 13 beispielsweise bei dem Eingriff oder der Untersuchung das IR-Licht, das speziell in einem fluoreszierenden Bereich des fluoreszierenden Reagens auftritt, aus dem Licht von dem Betrachtungsteil (beispielsweise dem erkrankten Teil) abtrennen (abspalten), dem das fluoreszierende Reagens (beispielsweise ICG) vorab in dem Objekt, wie etwa dem Patienten, zugeführt wurde.
    Die 3MOS-Kamera 1 kann ein RGB-Farbvideosignal mit hoher Auflösung auf Grundlage der Bildausgänge der Bildaufnahmeelemente 151 und 152 erzeugen, die im Wesentlichen um ein Pixel optisch verschoben sind, erhalten durch ein Reflektieren des Teils des sichtbaren Lichts von dem Betrachtungsteil und ein Durchlassen des verbleibenden sichtbaren Lichts davon auf den Strahlteiler BSP1. Die 3MOS-Kamera 1 kann ein RGB-Farbvideosignal mit einem erweiterten Dynamikbereich durch ein Kombinieren der Bildgebungsausgänge der Bildaufnahmeelemente 151 und 152 erzeugen. Die 3MOS-Kamera 1 kann deutlichere Fluoreszenzbilder sowohl im IR-Licht als auch im sichtbaren Licht erzeugen und ausgeben und somit sowohl die Erzeugung eines deutlicheren Fluoreszenzvideos des Betrachtungsteils, dem das fluoreszierende Reagens zugeführt ist, als auch die Auflösungsverbesserung des Farbbildes des Betrachtungsteils erreichen, um den Arzt oder dergleichen beim leichten Verstehen des erkrankten Teils zu unterstützen.
  • Der erste Reflexionsbelag (beispielsweise der dichroitische Spiegel DYM1), der das IR-Licht reflektiert, ist auf dem ersten Prisma ausgebildet. Der zweite Reflexionsbelag (beispielsweise der Strahlteiler BSP1), der das sichtbare Licht von A % des durch den ersten Reflexionsbelag durchgelassenen sichtbaren Lichts reflektiert und das sichtbare Licht von (100 - A) % davon durchlässt, ist auf dem zweiten Prisma ausgebildet. Das sichtbare Licht von (100 - A) %, das durch den zweiten Reflexionsbelag hindurchtritt, fällt auf das dritte Prisma. Der dichroitische Spiegel DYM1 spaltet zuerst das IR-Licht aus dem Licht von dem Betrachtungsteil (beispielsweise dem erkrankten Teil) ab, und das durch den dichroitischen Spiegel DYM1 durchgelassene sichtbare Licht wird durch den Strahlteiler BSP1 abgespaltet. Daher ist es möglich, die Effizienz des Abspaltens im dichroitischen Spiegel DYM1 und im Strahlteiler BSP1 zu verbessern.
  • Ein Wert von A % und ein Wert der verbleibenden (100 - A) % sind im Wesentlichen gleich. Der A-Wert wird im Wesentlichen zu 50, und Licht mit gleicher Helligkeit fällt auf jedes der Farbfilter BYR1 und BYR2, die im Wesentlichen um ein Pixel optisch verschoben sind. Daher kann die 3MOS-Kamera 1 effektiv das RGB-Farbvideosignal mit der höchsten Auflösung erzeugen.
  • Das Farbfilter BYR1 mit Rot (R), Grün (G) und Blau (B) des Bildaufnahmeelements 151 und das Farbfilter BYR2 mit Rot (R), Grün (G) und Blau (B) des Bildaufnahmeelements 152 sind so angeordnet, dass sich das grüne (G) Farbfilter in jedem Pixel befindet. Die Videosignalverarbeitungseinheit 17 wählt einen Pixelwert auf Grundlage des grünen (G) Farbfilters, das so angeordnet ist, dass es sich in jedem Pixel befindet, und benutzt hauptsächlich den gewählten Pixelwert unter den Farbvideosignalen, um das Luminanzsignal zu erzeugen. Demgemäß kann die Videosignalverarbeitungseinheit 17 das hochauflösende Videosignal VVD mit hoher Auflösung erzeugen, verglichen mit einem Videosignal in einem Fall, wo die Pixelverschiebung um im Wesentlichen ein Pixel nicht durchgeführt wird, indem sie selektiv Licht verwendet, das durch das grüne (G) Farbfilter durchgelassen ist, das aus den Farbfiltern BYR1 und BYR2 der in zwei Schichten gestapelten Bayer-Matrix den höchsten Beitragsanteil zur Auflösung eines Luminanzsignals in jedem Pixel aufweist (siehe 3A). Dies beruht auf der Tatsache, dass das grüne (G) Farbfilter bekanntlich den höchsten Beitragsanteil zur Auflösung des Luminanzsignals aufweist, da der menschliche Gesichtssinn am empfindlichsten für Grün (G) ist.
  • Das Bildaufnahmeelement 152 ist so angeordnet, dass es um ein Pixel in mindestens einer aus der horizontalen Richtung und der vertikalen Richtung bezüglich des Bildaufnahmeelements 151 optisch verschoben ist. Demgemäß kann die Videosignalverarbeitungseinheit das hochauflösende Videosignal VVD durch die Pixelverschiebung auf Grundlage der Bildgebung der Bildaufnahmeelemente 151 und 152 erzeugen, die um im Wesentlichen ein Pixel optisch verschoben (siehe oben) angeordnet sind.
  • Die 3MOS-Kamera 1 steuert das Verhältnis der Belichtungszeiten der Bildaufnahmeelemente 151 und 152 so, dass sie dieselben oder verschieden sind. Demgemäß kann die 3MOS-Kamera 1 hochwertige Videosignale erzeugen, die adaptiv eine Empfindlichkeit, einen Dynamikbereich und eine Auflösung, die zu der Vorliebe des Benutzers passen, gemäß dem Verhältnis der Belichtungszeiten der Bildaufnahmeelemente 151 und 152 und dem Reflexionsgrad für sichtbares Licht durch den Strahlteiler BSP1 verwirklichen (siehe 5 bis 8).
  • Obwohl verschiedene Ausführungsformen unter Bezugnahme auf die Zeichnung beschrieben sind, ist es unnötig zu erwähnen, dass die vorliegende Offenbarung nicht auf solche Beispiele beschränkt ist. Fachleuten ist es offensichtlich, dass verschiedene Modifikationsbeispiele, Änderungsbeispiele, Ersetzungsbeispiele, Hinzufügungsbeispiele, Weglassungsbeispiele und Äquivalenzbeispiele innerhalb des Geltungsbereichs der Ansprüche ersonnen werden können. Es sollte natürlich verstanden werden, dass die verschiedenen Beispiele zum technischen Geltungsbereich der vorliegenden Offenbarung gehören. Weiter können die jeweiligen Bestandteile in den verschiedenen oben beschriebenen Ausführungsformen beliebig innerhalb des Bereichs kombiniert werden, der nicht vom Geist der Erfindung abweicht.
  • Zum Beispiel ist in der oben beschriebenen ersten Ausführungsform das IR-Prisma 31 als ein Beispiel des ersten Prismas dargestellt, aber das erste Prisma braucht nicht auf das IR-Prisma 31 beschränkt zu sein. Zum Beispiel kann in einem Fall, wo das erste Prisma kein Prisma für sichtbares Licht ist, das sichtbares Licht reflektiert, das erste Prisma ein Prisma sein, das das IR-Licht und Licht in einem anderen Wellenlängenband (beispielsweise dem Wellenlängenband von Ultraviolettstrahlen) außer dem sichtbaren Licht aus dem Licht L2 reflektiert. Demgemäß kann anstelle des IR-Videosignals ein Video an den Monitor MN1 oder dergleichen ausgegeben werden, das erhalten ist durch ein Kombinieren beispielsweise eines Videosignals auf Grundlage einer Bildgebung der Ultraviolettstrahlen und eines RGB-Farbvideosignals mit erhöhter Auflösung und erweitertem Dynamikbereich.
  • Bei dem in 2 gezeigten Spektralprisma 13 ist ein Beispiel beschrieben, bei dem das IR-Prisma 31 am weitesten auf der Objektivseite angeordnet ist, aber das IR-Prisma 31 braucht nicht am weitesten auf der Objektivseite angeordnet zu sein. Zum Beispiel kann das IR-Prisma 31 an einer beliebigen der Positionen der Prismen 32 und 33 für sichtbares Licht angeordnet sein. Mit dem Kleben der Bildaufnahmeelemente 151 und 152 an die Prismen 32 und 33 für sichtbares Licht mit der optischen Verschiebung um im Wesentlichen ein Pixel (siehe oben) ist es möglich, dieselbe Wirkung zu erhalten wie diejenige der 3MOS-Kamera 1 gemäß der oben beschriebenen ersten Ausführungsform, ungeachtet der Position des IR-Prismas 31 auf dem Spektralprisma 13.
  • Die vorliegende Offenbarung ist nutzbar als die 3MOS-Kamera, die sowohl die Erzeugung des deutlicheren Fluoreszenzvideos des Betrachtungsteils, dem das fluoreszierende Reagens zugeführt ist, als auch die Auflösungsverbesserung des Farbbildes des Betrachtungsteils erreicht, um den Arzt oder dergleichen beim leichten Verstehen des erkrankten Teils zu unterstützen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016075825 A [0002, 0003]

Claims (5)

  1. 3MOS-Kamera, umfassend: ein erstes Prisma, das bewirkt, dass ein erster Bildsensor IR-Licht aus Licht von einem Betrachtungsteil empfängt; ein zweites Prisma, das bewirkt, dass ein zweiter Bildsensor sichtbares Licht von A % (A: eine vorgegebene reelle Zahl) aus dem Licht von dem Betrachtungsteil empfängt; ein drittes Prisma, das bewirkt, dass ein dritter Bildsensor verbleibendes sichtbares Licht von (100 - A) % aus dem Licht von dem Betrachtungsteil empfängt; und einen Videosignalprozessor, der ein Farb-Videosignal auf Grundlage von Bildgebungsausgängen des zweiten Bildsensors und des dritten Bildsensors und ein IR-Videosignal auf Grundlage eines Bildgebungsausgangs des ersten Bildsensors kombiniert und das kombinierte Signal zu einem Monitor ausgibt, wobei der zweite Bildsensor und der dritte Bildsensor jeweils an Positionen geklebt sind, die im Wesentlichen um ein Pixel optisch verschoben sind.
  2. 3MOS-Kamera nach Anspruch 1, wobei ein erster Reflexionsbelag, der das IR-Licht reflektiert, auf dem ersten Prisma ausgebildet ist; wobei ein zweiter Reflexionsbelag, der das sichtbare Licht von A % des durch den ersten Reflexionsbelag durchgelassenen sichtbaren Lichts reflektiert und das sichtbare Licht von (100 - A) % des sichtbaren Lichts durchlässt, das durch den ersten Reflexionsbelag durchgelassen ist, auf dem zweiten Prisma ausgebildet ist; und wobei das sichtbare Licht von (100 - A) %, das durch den zweiten Reflexionsbelag hindurchtritt, auf das dritte Prisma fällt.
  3. 3MOS-Kamera nach Anspruch 1 oder 2, wobei ein Wert von A % und ein Wert von (100 - A) % im Wesentlichen gleich sind.
  4. 3MOS-Kamera nach einem beliebigen der Ansprüche 1 bis 3, wobei ein Farbfilter mit Rot, Grün und Blau des zweiten Bildsensors und ein Farbfilter mit Rot, Grün und Blau des dritten Bildsensors so angeordnet sind, dass sich die Farbfilter mit Grün in jedem Pixel befinden, und wobei der Videosignalprozessor einen Pixelwert auf Grundlage der Farbfilter mit Grün in jedem Pixel wählt, um das Farbvideosignal zu erzeugen.
  5. 3MOS-Kamera nach Anspruch 4, wobei der dritte Bildsensor so angeordnet ist, dass er um ein Pixel in mindestens einer aus einer horizontalen Richtung und einer vertikalen Richtung bezüglich des zweiten Bildsensors optisch verschoben ist.
DE102021119417.2A 2020-07-31 2021-07-27 3MOS-Kamera Pending DE102021119417A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020131042A JP7477158B2 (ja) 2020-07-31 3板式カメラ
JP2020-131042 2020-07-31

Publications (1)

Publication Number Publication Date
DE102021119417A1 true DE102021119417A1 (de) 2022-02-03

Family

ID=79300701

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021119417.2A Pending DE102021119417A1 (de) 2020-07-31 2021-07-27 3MOS-Kamera

Country Status (2)

Country Link
US (1) US11252382B1 (de)
DE (1) DE102021119417A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6765494B1 (ja) * 2019-10-31 2020-10-07 パナソニックi−PROセンシングソリューションズ株式会社 3板式カメラ

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016075825A (ja) 2014-10-07 2016-05-12 パナソニックIpマネジメント株式会社 色分解プリズム及び撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556944B (zh) * 2012-11-28 2019-03-08 核心光电有限公司 多孔径成像系统和方法
JP2016096430A (ja) * 2014-11-13 2016-05-26 パナソニックIpマネジメント株式会社 撮像装置及び撮像方法
US20160292506A1 (en) * 2015-04-06 2016-10-06 Heptagon Micro Optics Pte. Ltd. Cameras having an optical channel that includes spatially separated sensors for sensing different parts of the optical spectrum
WO2018235225A1 (ja) * 2017-06-22 2018-12-27 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP6765494B1 (ja) * 2019-10-31 2020-10-07 パナソニックi−PROセンシングソリューションズ株式会社 3板式カメラ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016075825A (ja) 2014-10-07 2016-05-12 パナソニックIpマネジメント株式会社 色分解プリズム及び撮像装置

Also Published As

Publication number Publication date
US20220038610A1 (en) 2022-02-03
JP2022027195A (ja) 2022-02-10
US11252382B1 (en) 2022-02-15

Similar Documents

Publication Publication Date Title
DE60122894T2 (de) Kompaktes fluorezenz endoskopisches video system
DE112017001021T5 (de) Berechnungssystem
DE102014110131A1 (de) Bildaufnahmevorrichtung und Bildaufnahmeverfahren
DE3432157C2 (de)
DE102012216021B4 (de) Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld
DE112012004493B4 (de) Steuerungsverfahren für die Farbbeleuchtung zur Verbesserung der Bildqualität in einembildgebenden System
DE112015004656T5 (de) Bildgebungsgerät
DE102006042670A1 (de) Elektronisches Endoskopsystem
DE102010045364A1 (de) Verfahren und Vorrichtung zur Erzeugung hochwertiger Fundusaufnahmen
EP1772726B1 (de) Mikroskopiesystem und Aufnahmeverfahren zur Sichtbarmachung einer Fluoreszenz
DE102006005528A1 (de) Elektronisches Endoskopsystem
DE112015003666T5 (de) Bildaufnahmeelement und Endoskopvorrichtung
WO2017036600A1 (de) Fluoreszenzlichtdetektionssystem und mikroskopiesystem
DE112011103387B4 (de) Diagnosesystem
DE112017004418T5 (de) Endoskopsystem
DE112015005326T5 (de) Endoskopvorrichtung
DE112015006389T5 (de) Bildgebungsvorrichtung
DE60016533T2 (de) Vorrichtung zur Erfassung eines Fluoreszenzbildes
DE112017004403T5 (de) Endoskopsystem und charakteristischer betrag-berechnungsverfahren
DE102010030108A1 (de) Farbbildsensor
DE102021119417A1 (de) 3MOS-Kamera
DE112015000283T5 (de) Fluoreszenzbeobachtungsvorrichtung
DE112017003367B4 (de) Analysevorrichtung
DE102011053250B4 (de) Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjektes mit einem elektronischen Bildsensor und optisches Beobachtungsgerät
DE112016005019B4 (de) Endoskopsystem

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0009090000

Ipc: H04N0023130000