DE112014007038T5 - Endoskopvorrichtung - Google Patents

Endoskopvorrichtung Download PDF

Info

Publication number
DE112014007038T5
DE112014007038T5 DE112014007038.6T DE112014007038T DE112014007038T5 DE 112014007038 T5 DE112014007038 T5 DE 112014007038T5 DE 112014007038 T DE112014007038 T DE 112014007038T DE 112014007038 T5 DE112014007038 T5 DE 112014007038T5
Authority
DE
Germany
Prior art keywords
light
filter
pixel
illumination light
wavelength band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112014007038.6T
Other languages
English (en)
Inventor
Jumpei Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE112014007038T5 publication Critical patent/DE112014007038T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/044Picture signal generators using solid-state devices having a single pick-up sensor using sequential colour illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing

Abstract

Eine Endoskopvorrichtung gemäß der vorliegenden Erfindung umfasst: eine Lichtquelleneinheit, die weißes Beleuchtungslicht oder Schmalbandbeleuchtungslicht emittiert; einen Bildsensor, der eine photoelektrische Umwandlung an empfangenem Licht durchführt, um ein elektrisches Signal zu erzeugen; einen Farbfilter, der unter Verwendung eines ersten Filters, der Licht von Luminanzkomponenten der Bildgebung mit weißem Beleuchtungslicht und Schmalbandbeleuchtungslichtbildgebung passieren lässt, eines zweiten Filters, der Licht der Luminanzkomponente der Bildgebung mit weißem Beleuchtungslicht passieren lässt, und eines dritten Filters, der Licht der Luminanzkomponente der Schmalbandbeleuchtungslichtbildgebung passiert lässt, konfiguriert ist; eine Demosaicing-Verarbeitungseinheit, die ein Farbbildsignal auf Basis der Luminanzkomponente der Bildgebung mit weißem Beleuchtungslicht bei weißem Beleuchtungslicht erzeugt und ein Farbbildsignal durch Interpolation eines Pixelwerts der Luminanzkomponente der Bildgebung mit weißem Beleuchtungslicht in einer Position eines Pixels, der dem ersten Filter entspricht, unter Verwendung eines Pixelwerts des Pixels, der dem zweiten Filter entspricht, beim Schmalbandbeleuchtungslicht und danach Interpolation eines Pixelwerts der Luminanzkomponente der Schmalbandbeleuchtungslichtbildgebung in der Position des Pixels, der dem ersten Filter entspricht, auf Basis eines Pixelwerts des Pixels, der dem ersten Filter entspricht, und des Pixelwerts der Luminanzkomponente der Bildgebung mit weißem Beleuchtungslicht erzeugt.

Description

  • Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Endoskopvorrichtung, die so konfiguriert ist, dass sie in einen lebenden Körper eingeführt wird, um Bilder im lebenden Körper zu erfassen.
  • Hintergrund
  • Endoskopvorrichtungen werden für gewöhnlich bei diversen Arten von Untersuchungen auf einem medizinischen Gebiet und einem industriellen Gebiet umfassend verwendet. Bei solchen Endoskopvorrichtungen ist eine medizinische Endoskopvorrichtung in der Lage, ein Bild im Inneren eines Körperhohlraums zu erfassen, sogar ohne ein Individuum aufzuschneiden, indem ein flexibler Einführabschnitt, der an einem distalen Ende davon mit einem Bildsensor versehen ist, der eine Mehrzahl von Pixeln umfasst, und der in einer Längsform ausgebildet ist, in einen Körperhohlraum des Individuums wie z. B. eines Patienten eingeführt wird. Somit stellt die medizinische Endoskopvorrichtung für das Individuum eine geringe Belastung dar und wird umfassend verwendet.
  • Als Beobachtungsverfahren einer solchen Endoskopvorrichtung sind auf diesem technischen Gebiet bereits ein Weißlichtbildgebungs-(WLI)-Verfahren unter Verwendung eines weißen Beleuchtungslichts (weißes Beleuchtungslicht) und ein Schmalbandbildgebungs-(NBI)-Verfahren unter Verwendung von Beleuchtungslicht (Schmalzbandbeleuchtungslicht), das aus zwei Arten von Schmalbandlicht gebildet ist, die in blauen bzw. grünen Wellenlängenbändern umfasst sind, hinlänglich bekannt. Was diese Beobachtungsverfahren der Endoskopvorrichtung betrifft, so besteht der Bedarf, eine Beobachtung durch Wechseln zwischen dem Verfahren der Bildgebung mit weißem Beleuchtungslicht (einem WLI-Modus) und dem Schmalbandbildgebungsverfahren (einem NBI-Modus) durchzuführen.
  • Ein Farbfilter, bei dem eine Mehrzahl von Filtern in einer Matrix angeordnet ist, ist auf einer Lichtaufnahmeoberfläche eines Bildsensors bereitgestellt, um das Erfassen eines von einem Einzelplattenbildsensor aufgenommenen Bilds zu ermöglichen, um ein Farbbild in den oben beschriebenen Beobachtungsverfahren zu erzeugen und anzuzeigen. Im Allgemeinen ist ein Farbfilter bekannt, bei dem eine Mehrzahl von Filtern unter Verwendung einer Filteranordnung, die Bayer-Anordnung genannt wird, als Einheit in einer Matrix angeordnet ist, die durch Anordnen von Filtern (im Folgenden als Primärfarbfilter bezeichnet), die Licht mit Wellenlängenbändern von Rot (R), Grün (G) und Blau (B) passieren lassen, wobei es sich um Primärfarben handelt, in einer 2-×-2-Matrix gebildet ist. Jeder Pixel empfängt Licht mit einem Wellenlängenband, das durch den Filter passiert ist, und der Bildsensor erzeugt ein elektrisches Signal einer Farbkomponente, die dem Licht mit dem Wellenlängenband entspricht.
  • In dieser Hinsicht wird ein Bildsensor offenbart, der mit einem Farbfilter bereitgestellt ist, wobei eine Mehrzahl von Filtern unter Verwendung von vier Filtern in einer Matrix als Einheit angeordnet ist, die aus einem G-Filter, der Licht des grünen Wellenlängenbands passieren lässt, und Filtern (im Folgenden als Komplementärfarbfilter bezeichnet), die Licht mit Wellenlängenbändern von Komplementärfarben wie z. B. Gelb (Ye) und Cyan (Cy) passieren lassen (siehe z. B. Patentliteratur 1), ausgewählt sind. Die Wellenlängenbänder von Licht, das den Komplementärfarbfilter passiert, haben einen breiteren Bereich als die Wellenlängenbänder von Licht, das den Primärfarbfilter passiert, und somit wird eine höhere Empfindlichkeit erhalten und kann Rauschen unterdrückt werden, wenn der Komplementärfarbfilter anstatt des Primärfarbfilters verwendet wird.
  • Im WLI-Modus trägt ein Signal einer grünen Komponente, mit dem ein Blutgefäß und eine duktale Struktur des lebenden Körpers deutlich angezeigt werden, d. h. ein Signal (G-Signal), das unter Verwendung eines G-Pixels (ein Pixel, in dem der G-Filter angeordnet ist, wobei eine ähnliche Definition auf ein R-Pixel, ein B-Pixel, ein Ye-Pixel und ein Cy-Pixel angewandt wird) erfasst wird, am stärksten zur Luminanz eines Bilds bei. Im NBI-Modus hingegen trägt ein Signal einer blauen Komponente, mit dem ein Blutgefäß und eine duktale Struktur einer Oberflächenschicht des lebenden Körpers deutlich angezeigt werden, d. h. ein Signal (B-Signal), das unter Verwendung des B-Pixels erfasst wird, am stärksten zur Luminanz des Bilds bei.
  • Liste der Referenzschriften
  • Patentliteratur
    • Patentliteratur 1: JP 2003-87804 A
  • Zusammenfassung
  • Technisches Problem
  • Wenn die oben beschriebene Bayer-Anordnung oder der in der Patentliteratur 1 offenbarte Farbfilter verwendet wird, tritt jedoch das Problem einer abnehmenden Auflösung eines Bilds im NBI-Modus auf, da die Dichte der B-Pixel (in der Patentliteratur 1 der Cy-Pixel) im NBI-Modus gering ist, auch wenn die Dichte der G-Pixel hoch ist und ein Farbbild mit hoher Filterauflösung im WLI-Modus erfasst werden kann. Somit besteht der Bedarf an einer Technik, die in der Lage ist, ein hochaufgelöstes Bild in den beiden Bildgebungsmodi zu erfassen.
  • Die vorliegende Erfindung wurde unter Berücksichtigung des Vorstehenden entwickelt und ein Ziel der Erfindung liegt in der Bereitstellung einer Endoskopvorrichtung, die in der Lage ist, ein hochaufgelöstes Bild sowohl in einem Weißlichtbildgebungsverfahren als auch in einem Schmalbandbildgebungsverfahren zu erzielen.
  • Lösung des Problems
  • Um das oben beschriebenen Problem zu lösen und das Ziel zu erreichen, ist eine Endoskopvorrichtung gemäß der Erfindung eine Endoskopvorrichtung zum Durchführen einer Bildgebung mit weißem Beleuchtungslicht und einer Schmalbandbeleuchtungslichtbildung. Die Endoskopvorrichtung umfasst: eine Lichtquelleneinheit, die so konfiguriert ist, dass sie eines von weißem Beleuchtungslicht und Schmalbandbeleuchtungslicht emittiert, wobei das weiße Beleuchtungslicht Licht mit rotem Wellenlängenband, Licht mit grünem Wellenlängenband und Licht mit blauem Wellenlängenband umfasst, wobei das Schmalbandbeleuchtungslicht Licht von zwei Schmalbändern umfasst, die in einem Wellenlängenband einer Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht und einem Wellenlängenband einer Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung umfasst sind; einen Bildsensor, der eine Mehrzahl von Pixeln umfasst, die in einer Matrix angeordnet sind, und der so konfiguriert ist, dass er eine photoelektrische Umwandlung von Licht durchführt, das von jedem der Mehrzahl von Pixeln empfangen wird, um ein elektrisches Signal zu erzeugen; einen Farbfilter, der auf einer Lichtaufnahmeoberfläche des Bildsensors angeordnet und durch Anordnen einer Mehrzahl von Filtereinheiten gebildet ist, wobei jede der Mehrzahl von Filtereinheiten einen ersten Filter, einen zweiten Filter und einen dritten Filter umfasst, wobei der erste Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht und dem Wellenlängenband der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt, wobei der zweite Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht passieren lässt, und wobei der dritte Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt; und eine Demosaicing-Verarbeitungseinheit, die konfiguriert ist zum: Erzeugen eines Farbbildsignals, das eine Mehrzahl von Farbkomponenten umfasst, auf Basis der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht, wenn die Lichtquelleneinheit das weiße Beleuchtungslicht emittiert; und Durchführen einer Interpolation für einen Pixelwert der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht in einer Position eines Pixels, der dem ersten Filter entspricht, unter Verwendung eines Pixelwerts eines Pixels, der dem zweiten Filter entspricht, wenn die Lichtquelleneinheit das Schmalbandbeleuchtungslicht emittiert, und danach Durchführen einer Interpolation für einen Pixelwert der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung in der Position des Pixels, der dem ersten Filter entspricht, auf Basis des Pixelwerts des Pixels, der dem ersten Filter entspricht, und des Pixelwerts der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht, wie durch die Interpolation erhalten, wodurch ein Farbbildsignal erzeugt wird, das eine Mehrzahl von Farbkomponenten umfasst.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, ein hochaufgelöstes Bild bei sowohl dem Weißlichtbildgebungsverfahren als auch dem Schmalbandbildgebungsverfahren zu erhalten.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Schaubild, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 2 ist ein schematisches Schaubild, das eine schematische Konfiguration der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 3 ist ein schematisches Schaubild, das eine Konfiguration eines Pixels gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 4 ist ein schematisches Schaubild, das eine beispielhafte Konfiguration eines Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 5 ist ein Graph, der beispielhafte Charakteristika eines G-Filters des Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht, und ist ein Graph, der eine Beziehung zwischen einer Wellenlänge von Licht und einem Durchlassgrad jedes Filters veranschaulicht.
  • 6 ist ein Graph, der beispielhafte Charakteristika eines Mg-Filters des Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht, und ist ein Graph, der eine Beziehung zwischen einer Wellenlänge von Licht und einem Durchlassgrad jedes Filters veranschaulicht.
  • 7 ist ein Graph, der beispielhafte Charakteristika eines Cy-Filters des Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht, und ist ein Graph, der eine Beziehung zwischen einer Wellenlänge von Licht und einem Durchlassgrad jedes Filters veranschaulicht.
  • 8 ist ein Graph, der beispielhafte Charakteristika eines Ye-Filters im Farbfilter gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht, und ist ein Graph, der eine Beziehung zwischen einer Wellenlänge von Licht und einem Durchlassgrad jedes Filters veranschaulicht.
  • 9 ist ein Graph, der eine Beziehung zwischen einer Wellenlänge und einer Lichtmenge von Beleuchtungslicht, das von einer Beleuchtungseinheit der Endoskopvorrichtung emittiert wird, gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 10 ist ein Graph, der eine Beziehung zwischen einer Wellenlänge und Durchlassgrad von Beleuchtungslicht aus einem Wechselfilter, der in der Beleuchtungseinheit der Endoskopvorrichtung umfasst ist, gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 11 ist eine Konfiguration des Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung und ist ein Schaubild, mit dem eine Funktion eines Pixels in einem NBI-Modus beschrieben wird.
  • 12 ist ein Ablaufplan, der eine Demosaicing-Verarbeitung im NBI-Modus, die von einer Demosaicing-Verarbeitungseinheit der Endoskopvorrichtung durchgeführt wird, gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 13 ist ein Ablaufplan, der eine Demosaicing-Verarbeitung in einem WLI-Modus, die von einer Demosaicing-Verarbeitungseinheit der Endoskopvorrichtung durchgeführt wird, gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 14 ist ein Ablaufplan, der eine Signalverarbeitung, die von einem Prozessor der Endoskopvorrichtung durchgeführt wird, gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 15 ist ein schematisches Schaubild, das eine Konfiguration eines Farbfilters gemäß einem ersten modifizierten Beispiel der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 16 ist eine Konfiguration des Farbfilters gemäß dem ersten modifizierten Beispiel der Ausführungsform der vorliegenden Erfindung und ist ein Schaubild, mit dem eine Funktion eines Pixels in einem NBI-Modus beschrieben wird.
  • 17 ist ein schematisches Schaubild, das eine Konfiguration eines Farbfilters gemäß einem dritten modifizierten Beispiel der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • Beschreibung von Ausführungsformen
  • Im Folgenden werden Modi zum Durchführen der vorliegenden Erfindung (im Folgenden als „Ausführungsform” bzw. „Ausführungsformen” bezeichnet) beschrieben. Bei den Ausführungsformen wird auf eine medizinische Endoskopvorrichtung zum Aufnehmen und Anzeigen von Bildern in einem Körperhohlraum eines Individuums wie z. B. eines Patienten Bezug genommen. Die Erfindung wird durch die Ausführungsformen nicht eingeschränkt. Die gleichen Bezugszeichen werden verwendet, um in den gesamten Zeichnungen die gleichen Elemente zu bezeichnen.
  • 1 ist ein Schaubild, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht. 2 ist ein schematisches Schaubild, das eine schematische Konfiguration der Endoskopvorrichtung gemäß der Ausführungsform veranschaulicht. Eine in den 1 und 2 veranschaulichte Endoskopvorrichtung 1 umfasst: ein Endoskop 2, das ein In-vivo-Bild einer beobachteten Region durch Einführen eines Einführabschnitts 21 in einen Körperhohlraum eines Individuums aufnimmt und ein elektrisches Signal erzeugt; eine Lichtquelleneinheit 3, die Beleuchtungslicht erzeugt, das von einem distalen Ende des Endoskops 2 zu emittieren ist; einen Prozessor 4, der eine vordefinierte Bildverarbeitung am elektrischen Signal durchführt, das vom Endoskop 2 erfasst wird, und den gesamten Betrieb der Endoskopvorrichtung 1 integral steuert; und eine Anzeigeeinheit 5, die das In-vivo-Bild anzeigt, an dem der Prozessor 4 die Bildverarbeitung durchgeführt hat. Die Endoskopvorrichtung 1 führt den Einführabschnitt 21 in den Körperhohlraum des Individuums wie z. B. eines Patienten ein und erfasst das In-vivo-Bild im Inneren des Körperhohlraums. Ein Benutzer wie z. B. ein Arzt untersucht das Vorhandensein oder Nichtvorhandensein einer Blutungsstelle oder einer Tumorstelle, bei der es sich um eine Nachweiszielregion handelt, indem er das erfasste In-vivo-Bild beobachtet. Ein Pfeil auf einer durchgehenden Linie indiziert eine Übertragung eines elektrischen Signals in Bezug auf das Bild und ein Pfeil auf einer unterbrochenen Linie indiziert die Übertragung eines elektrischen Signals in Bezug auf eine Steuerung in 2.
  • Das Endoskop 2 umfasst: den Einführabschnitt 21, der flexibel ist und länglich ausgebildet ist; eine Betriebseinheit 22, die mit einer proximalen Endseite des Einführabschnitts 21 verbunden ist und eine Eingabe diverser Arten von Betriebssignalen empfängt; und eine Universalkabel 23, das sich von der Betriebseinheit 22 in einer Richtung erstreckt, die anders als eine Erstreckungsrichtung des Einführabschnitts 21 ist, und diverse Typen von integrierten Kabeln umfasst, die mit der Lichtquelleneinheit 3 und dem Prozessor 4 verbunden sind.
  • Der Einführabschnitt 21 umfasst: einen distalen Endabschnitt 24, der einen integrierten Bildsensor 202 umfasst, in dem Pixel (Photodioden) zur Aufnahme von Licht in einer Matrix angeordnet sind und der ein Bildsignal durch Durchführen einer photoelektrischen Umwandlung an dem von den Pixeln empfangenen Licht erzeugt; einen Biegeabschnitt 25, der unter Verwendung einer Mehrzahl von Biegeelementen konfiguriert ist und frei gebogen werden kann; und einen länglichen flexiblen Röhrenabschnitt 26, der mit einer proximalen Endseite des Biegeabschnitts 25 verbunden ist und flexibel ist.
  • Die Betriebseinheit 22 umfasst: einen Biegeknopf 221 zum Biegen des Biegeabschnitts 25 in einer Rauf-Runter-Richtung und einer Rechts-und-Links-Richtung; einen Behandlungsinstrumenteinführabschnitt 222 zum Einführen eines Behandlungsinstruments wie z. B. Zangen für lebende Körper, ein elektrisches Skalpell oder eine Testsonde in den Körperhohlraum des Individuums; und eine Mehrzahl von Schaltern 223 zum Empfangen eines Befehlssignals, um die Lichtquelleneinheit 3 dazu zu veranlassen, einen Wechselbetrieb des Beleuchtungslichts durchzuführen, eines Betriebsbefehlssignals für ein externes Gerät, das mit dem Behandlungsinstrument und dem Prozessor 4 verbunden ist, eines Wasserzuführbefehlssignals zum Zuführen von Wasser, eines Absaugbefehlssignals zum Durchführen einer Absaugung und dergleichen. Das Behandlungsinstrument, das vom Behandlungsinstrumenteinführabschnitt 222 einzuführen ist, ist über einen Behandlungsinstrumentenkanal (nicht veranschaulicht), der an einem distalen Ende des distalen Endabschnitts 24 bereitgestellt ist, von einer Öffnung (nicht veranschaulicht) freigelegt. Der Schalter 223 kann so konfiguriert sein, dass er einen Beleuchtungslichtwechselschalter umfasst, der so konfiguriert ist, dass er das Beleuchtungslicht (Bildgebungsverfahren) der Lichtquelleneinheit 3 wechselt.
  • Zumindest ein Lichtleiter 203 und eine Kabelbaugruppe, die durch Zusammenfügen einer oder einer Mehrzahl von Signalleitungen gebildet ist, sind in das Universalkabel 23 integriert. Die Kabelbaugruppe ist die Signalleitung zum Senden und Empfangen von Signalen zwischen Endoskop 2, Lichtquelleneinheit 3 und Prozessor 4 und umfasst eine Signalleitung zum Senden und Empfangen von Einstelldaten, eine Signalleitung zum Senden und Empfangen eines Bildsignals, eine Signalleitung zum Senden und Empfangen eines Antriebstaktsignals zum Antreiben des Bildsensors 202 und dergleichen.
  • Außerdem umfasst das Endoskop 2 ein optisches Bildgebungssystem 201, einen Bildsensor 202, einen Lichtleiter 203, eine Beleuchtungslinse 204, einen A/D-Wandler 205 und eine Bildgebungsinformationsspeichereinheit 206.
  • Das optische Bildgebungssystem 201 ist am distalen Endabschnitt 24 bereitgestellt und sammelt Licht aus zumindest einer beobachteten Region. Das optische Bildgebungssystem 201 ist unter Verwendung einer oder einer Mehrzahl von Linsen konfiguriert. Das optische Bildgebungssystem 201 kann mit einem optischen Zoommechanismus zum Ändern eines Betrachtungswinkels und einem Fokussiermechanismus zum Ändern eines Brennpunkts bereitgestellt sein.
  • Der Bildsensor 202 ist lotrecht zu einer optischen Achse des optischen Bildgebungssystems 201 bereitgestellt, führt eine photoelektrische Umwandlung eines Bilds von Licht durch, das durch das optische Bildgebungssystem 201 erzeugt wird, und erzeugt ein elektrisches Signal (Bildsignal). Der Bildsensor 202 ist unter Verwendung eines Charge-Coupled-Device-(CCD)-Bildsensors, eines Komplementärer-Metalloxid-Halbleiter-(CMOS)-Bildsensors und dergleichen umgesetzt.
  • 3 ist ein schematisches Schaubild, das eine Konfiguration eines Pixels des Bildsensors gemäß der Ausführungsform veranschaulicht. Der Bildsensor 202 umfasst eine Mehrzahl von Pixeln, die so konfiguriert sind, dass sie Licht vom optischen Bildgebungssystem 201 empfangen, und die Mehrzahl von Pixeln ist in einer Matrix angeordnet. Ferner erzeugt der Bildsensor 202 ein Bildgebungssignal, das unter Verwendung eines elektrischen Signals erzeugt wird, das durch Durchführen einer photoelektrischen Umwandlung des von jedem Pixel empfangenen Lichts erzeugt wird. Dieses Bildgebungssignal umfasst einen Pixelwert (Luminanzwert) jedes Pixels und Positionsinformationen von Pixeln und dergleichen. In 3 ist ein Pixel, der in der i-ten Zeile und der j-ten Spalte angeordnet ist, als Pixel Pij ausgewiesen.
  • Der Bildsensor 202 ist mit einem Farbfilter 202a versehen, der zwischen dem optischen Bildgebungssystem 201 und dem Bildsensor 202 bereitgestellt ist; und der eine Mehrzahl von Filtern umfasst, wobei jeder davon so konfiguriert ist, dass er Licht mit individuell eingestellten Wellenlängenbändern passieren lässt. Der Farbfilter 202a ist auf einer Lichtaufnahmeoberfläche des Bildsensors 202 bereitgestellt.
  • 4 ist ein schematisches Schaubild, das eine beispielhafte Konfiguration des Farbfilters gemäß der Ausführungsform veranschaulicht. Der Farbfilter 202a gemäß der Ausführungsform ist durch Anordnen von Filtereinheiten U1 konfiguriert, die unter Verwendung von vier in einer 2-×-2-Matrix angeordneten Filtern gebildet wurden, die in einer Matrix gemäß einer Anordnung der Pixel Pij anzuordnen sind. Anders ausgedrückt ist der Farbfilter 202a durch wiederholtes Anordnen von Grundmustern unter Verwendung einer Filteranordnung der Filtereinheiten U1 als Grundmuster konfiguriert. Der einzelne Filter, der Licht mit einem vordefinierten Wellenlängenband passieren lässt, ist auf jeder Lichtaufnahmeoberfläche der jeweiligen Pixel angeordnet. Somit empfängt der Pixel Pij, der mit dem Filter versehen ist, Licht mit einem Wellenlängenband, das den entsprechenden Filter passiert. Beispielsweise empfängt der Pixel Pij, der mit dem Filter versehen ist, der Licht mit einem grünen (G) Wellenlängenband passieren lässt, Licht mit dem grünen Wellenlängenband. Im Folgenden wird der Pixel Pij, der Licht mit dem grünen Wellenlängenband empfängt, als G-Pixel bezeichnet. Gleichermaßen wird der Pixel, der Licht mit einem Magenta-(Mg)-Wellenlängenband empfängt, als Mg-Pixel bezeichnet, wird der Pixel, der Licht mit einem Cyan-(Cy)-Wellenlängenband empfängt, als Cy-Pixel bezeichnet und wird der Pixel, der Licht mit einem gelben (Ye) Wellenlängenband empfängt, als Ye-Pixel bezeichnet.
  • Hier lässt die Filtereinheit U1 Licht mit einem blauen (B) Wellenlängenband HB, einem grünen Wellenlängenband HG und einem roten (R) Wellenlängenband HR passieren. Außerdem ist die Filtereinheit U1 gemäß der Ausführungsform unter Verwendung eines Grünfilters (G-Filter), der Licht mit dem Wellenlängenband HG passieren lässt, eines Magentafilters (Mg-Filters), der Licht mit dem Wellenlängenband HB und dem Wellenlängenband HR passieren lässt, eines Cyanfilters (Cy-Filter), der Licht mit dem Wellenlängenband HB und dem Wellenlängenband HG passieren lässt, und eines Gelbfilters (Ye-Filter), der Licht mit dem Wellenlängenband HG und dem Wellenlängenband HR passieren lässt, konfiguriert, wie in 4 veranschaulicht. Beispielsweise sind die blauen-, grünen und roten Wellenlängenbänder HB, HG und HR derart, dass z. B. das Wellenlängenband HB 400 nm bis 500 nm ist, das Wellenlängenband HG 480 nm bis 600 nm ist und das Wellenlängenband HR 580 nm bis 700 nm ist. Im Folgenden wird, wenn der G-Filter in einer Position bereitgestellt ist, die dem Pixel Pij entspricht, dieser G-Filter als Gij bezeichnet. Gleichermaßen wird der Mg-Filter als Mgij bezeichnet, wenn er in einer Position bereitgestellt ist, die dem Pixel Pij entspricht, wird der Cy-Filter als Cyij bezeichnet, wenn er in einer Position bereitgestellt ist, die dem Pixel Pij entspricht, und wird der Ye-Filter als Yeij bezeichnet, wenn er in einer Position bereitgestellt ist, die dem Pixel Pij entspricht.
  • Die 5 bis 8 sind Graphen, die beispielhafte Charakteristika jedes Filters des Farbfilters gemäß der Ausführungsform veranschaulichen, und sind Graphen, die eine Beziehung zwischen einer Wellenlänge von Licht und einem Durchlassgrad jedes Filters veranschaulichen. In den jeweiligen Zeichnungen sind Durchlassgradkurven normalisiert, so dass der maximale Wert des Durchlassgrads jedes Filters identisch sein kann. 5 ist ein Graph, der beispielhafte Charakteristika des G-Filters des Farbfilters gemäß der Ausführungsform und eine Beziehung zwischen der Wellenlänge von Licht und dem Durchlassgrad jedes Filters veranschaulicht. Eine gekrümmte Linie Lg, die in 5 veranschaulicht ist, stellt die Durchlassgradkurve des G-Filters dar. Wie in 5 veranschaulicht, lässt der G-Filter Licht mit dem Wellenlängenband HG passieren.
  • 6 ist ein Graph, der beispielhafte Charakteristika des Mg-Filters des Farbfilters gemäß der Ausführungsform und eine Beziehung zwischen der Wellenlänge von Licht und dem Durchlassgrad jedes Filters veranschaulicht. Gekrümmte Linien Lmg1 und Lmg2, die in 6 veranschaulicht sind, stellen die Durchlassgradkurven des Mg-Filters dar. Wie in 6 veranschaulicht, lässt der Mg-Filter Licht mit dem Wellenlängenband HB und dem Wellenlängenband HR passieren.
  • 7 ist ein Graph, der beispielhafte Charakteristika des Farbfilters Cy-Filter gemäß der Ausführungsform und eine Beziehung zwischen der Wellenlänge von Licht und dem Durchlassgrad jedes Filters veranschaulicht. Eine gekrümmte Linie Lcy, die in 7 veranschaulicht ist, stellt die Durchlassgradkurve des Mg-Filters dar. Wie in 7 veranschaulicht, lässt der Cy-Filter Licht mit dem Wellenlängenband HB und dem Wellenlängenband HG passieren.
  • 8 ist ein Graph, der beispielhafte Charakteristika des Farbfilters Ye-Filter gemäß der Ausführungsform und eine Beziehung zwischen der Wellenlänge von Licht und dem Durchlassgrad jedes Filters veranschaulicht. Eine gekrümmte Linie Lye, die in 8 veranschaulicht ist, stellt die Durchlassgradkurve des Ye-Filters dar. Wie in 8 veranschaulicht, lässt der Ye-Filter Licht mit dem Wellenlängenband HG und dem Wellenlängenband HR passieren.
  • Es werden nun die 1 und 2 weiter erläutert, wobei der Lichtleiter 203 unter Verwendung einer Glasfaser oder dergleichen konfiguriert ist und einen Lichtleiterweg von Licht bildet, das aus der Lichtquelleneinheit 3 emittiert wird.
  • Die Beleuchtungslinse 204 ist an einem distalen Ende des Lichtleiters 203 bereitgestellt, diffundiert vom Lichtleiter 203 geleitetes Licht und emittiert das Licht nach außerhalb des distalen Endabschnitts 24.
  • Der A/D-Wandler 205 führt eine A/D-Umwandlung am Bildgebungssignal durch, das vom Bildsensor 202 erzeugt wird, und gibt dieses umgewandelte Bildgebungssignal an den Prozessor 4 aus.
  • Die Bildgebungsinformationsspeichereinheit 206 speichert diverse Programme, die so konfiguriert sind, dass sie das Endoskop 2 betreiben, und Daten, die diverse Parameter umfassen, die für Betriebe des Endoskops 2 erforderlich sind, Identifikationsinformationen des Endoskops 2 und dergleichen. Außerdem umfasst die Bildgebungsinformationsspeichereinheit 206 eine Identifikationsinformationsspeichereinheit 261, die die Identifikationsinformationen speichert. Die Identifikationsinformationen umfassen eindeutige Informationen (ID) des Endoskops 2, ein Modelljahr, Spezifikationsinformationen, ein Sendeverfahren, Filteranordnungsinformationen zum Farbfilter 202a und dergleichen. Die Bildgebungsinformationsspeichereinheit 206 ist unter Verwendung eines Flash-Speichers oder dergleichen umgesetzt.
  • Im Folgenden wird eine Konfiguration der Lichtquelleneinheit 3 beschrieben. Die Lichtquelleneinheit 3 umfasst eine Beleuchtungseinheit 31 und eine Beleuchtungssteuereinheit 32.
  • Die Beleuchtungseinheit 31 wechselt und emittiert eine Mehrzahl von Beleuchtungslichtstrahlen, deren Wellenlängenbänder sich voneinander unterscheiden, unter der Steuerung durch die Beleuchtungssteuereinheit 32. Die Beleuchtungseinheit 31 umfasst eine Lichtquelle 31a, einen Lichtquellentreiber 31b, einen Wechselfilter 31c, eine Antriebseinheit 31d, einen Treiber 31e und eine Sammellinse 31f.
  • Die Lichtquelle 31a emittiert weißes Beleuchtungslicht, das Licht mit roten, grünen und blauen Wellenlängenbändern HR, HG und HB umfasst, unter der Steuerung durch die Beleuchtungssteuereinheit 32. Das von der Lichtquelle 31a erzeugte weiße Beleuchtungslicht passiert den Wechselfilter 31c, die Sammellinse 31f und den Lichtleiter 203 und wird danach vom distalen Endabschnitt 24 nach außen emittiert. Die Lichtquelle 31a ist unter Verwendung einer Lichtquelle wie z. B. einer weißen LED und einer Xenonlampe umgesetzt, die weißes Licht emittiert.
  • Der Lichtquellentreiber 31b veranlasst die Lichtquelle 31a dazu, das weiße Beleuchtungslicht zu emittieren, indem ein Strom unter der Steuerung durch die Beleuchtungssteuereinheit 32 zur Lichtquelle 31a gespeist wird.
  • Der Wechselfilter 31c lässt von dem von der Lichtquelle 31a emittierten weißen Beleuchtungslicht nur blaues Schmalbandlicht und grünes Schmalbandlicht passieren. Der Wechselfilter 31c ist auf einem optischen Weg des weißen Beleuchtungslichts angeordnet, das aus der Lichtquelle 31a emittiert wird, um unter der Steuerung durch die Beleuchtungssteuereinheit 32 entfernbar zu sein. Der Wechselfilter 31c ist auf dem optischen Weg des weißen Beleuchtungslichts angeordnet, um nur Lichtstrahlen mit zwei Schmalbändern passieren zu lassen. Spezifisch gesagt lässt der Wechselfilter 31c Schmalbandbeleuchtungslicht passieren, umfassend Licht mit einem Schmalband TB (z. B. 400 nm bis 445 nm), das im Wellenlängenband HB umfasst ist, und Licht mit einem Schmalband TG (z. B. 530 nm bis 550 nm), das im Wellenlängenband HG umfasst ist. Die Schmalbänder TB und TG sind Wellenlängenbänder von blauem Licht bzw. grünen Licht, die vom Hämoglobin im Blut leicht absorbiert werden. Zumindest ein Wellenlängenband von 405 nm bis 425 nm kann als Schmalband TB umfasst sein. Das Licht, das in dem Zustand emittiert wird, der auf ein solches Band begrenzt ist, wird als Schmalbandbeleuchtungslicht bezeichnet, und eine Beobachtung eines Bilds unter Verwendung dieses Schmalbandbeleuchtungslichts wird als Schmalbandbildgebungs-(NBI)-Verfahren bezeichnet.
  • Die Antriebseinheit 31d ist unter Verwendung eines Schrittmotors, eines Gleichstrommotors oder dergleichen konfiguriert und veranlasst, dass der Wechselfilter 31c in den optischen Weg der Lichtquelle 31a eingesetzt oder aus diesem entfernt wird.
  • Der Treiber 31e speist unter der Steuerung durch die Beleuchtungssteuereinheit 32 einen vordefinierten Strom zur Antriebseinheit 31d.
  • Die Sammellinse 31f sammelt das weiße Beleuchtungslicht, das aus der Lichtquelle 31a emittiert wird, oder das Schmalbandbeleuchtungslicht, das den Wechselfilter 31c passiert hat, und emittiert das gesammelte Licht nach außerhalb (Lichtleiter 203) der Lichtquelleneinheit 3.
  • Die Beleuchtungssteuereinheit 32 steuert den Lichtquellentreiber 31b so, dass dieser den Betrieb der Lichtquelle 31a ein-/ausschaltet, und steuert den Treiber 31e so, dass dieser das Einsetzen des Wechselfilters 31c in den optischen Weg der Lichtquelle 31a oder das Entfernen dieses aus dieser veranlasst, wodurch Typen (Bänder) des aus der Beleuchtungseinheit 31 zu emittierenden Beleuchtungslicht gesteuert werden.
  • Spezifisch gesagt veranlasst die Beleuchtungssteuereinheit 32 das Einsetzen des Wechselfilters 31c in den optischen Weg der Lichtquelle 31a oder das Entfernen dieses aus dieser, um das Wechseln des aus der Beleuchtungseinheit 31 emittierten Beleuchtungslichts auf ein beliebiges Licht zwischen dem weißen Beleuchtungslicht und dem Schmalbandbeleuchtungslicht zu steuern. Anders ausgedrückt führt die Beleuchtungssteuereinheit 32 einen Wechsel auf ein beliebiges Bildgebungsverfahren zwischen dem Weißlichtbeleuchtungs-(WLI)-Verfahren, bei dem das weiße Beleuchtungslicht verwendet wird, das Licht mit den Wellenlängenbändern HB, HG und HR umfasst, und dem Schmalbandbildgebungs-(NBI)-Verfahren, bei dem das Schmalbandbeleuchtungslicht verwendet wird, das Licht mit den Schmalbändern TB und TG umfasst, durch.
  • 9 ist ein Graph, der eine Beziehung zwischen einer Wellenlänge und einer Lichtmenge des Beleuchtungslichts, das von der Beleuchtungseinheit der Endoskopvorrichtung emittiert wird, gemäß der Ausführungsform veranschaulicht. 10 ist ein Graph, der eine Beziehung zwischen einer Wellenlänge und Durchlassgrad des Beleuchtungslichts aus dem Wechselfilter, der in der Beleuchtungseinheit der Endoskopvorrichtung umfasst ist, gemäß der Ausführungsform veranschaulicht. Wenn der Wechselfilter 31c unter der Steuerung durch die Beleuchtungssteuereinheit 32 aus dem optischen Weg der Lichtquelle 31a entfernt wird, emittiert die Beleuchtungseinheit 31 das weiße Beleuchtungslicht, das Licht mit den Wellenlängenbändern HB, HG und HR umfasst (siehe 9). Wenn der Wechselfilter 31c unter der Steuerung durch die Beleuchtungssteuereinheit 32 hingegen in den optischen Weg der Lichtquelle 31a eingesetzt wird, emittiert die Beleuchtungseinheit 31 das Schmalbandbeleuchtungslicht, das Licht mit den Wellenlängenbändern TB und TG umfasst (siehe 10).
  • Die Beleuchtungseinheit 31 wurde als die Einheit zum Wechseln des Beleuchtungslichts, das aus der Beleuchtungseinheit 31 emittiert wird, je nach Einsetzen oder Entfernen des Wechselfilters 31c auf ein beliebiges Licht zwischen dem weißen Beleuchtungslicht und dem Schmalbandbeleuchtungslicht unter Bezugnahme auf das aus der Lichtquelle 31a emittierte weiße Beleuchtungslicht beschrieben. Die Beleuchtungseinheit 31 kann jedoch so konfiguriert sein, dass sie einen Rotationsfilter verwendet, um ein beliebiges Licht zwischen dem weißen Beleuchtungslicht und dem Schmalbandbeleuchtungslicht zu emittieren, indem sie zwischen zwei Lichtquellen (z. B. einer LED-Lichtquelle und einer Laserlichtquelle) wechselt, die das weiße Beleuchtungslicht bzw. das Schmalbandbeleuchtungslicht emittieren, oder dass sie eine Mehrzahl von Lichtquellen umfasst, die jeweils das Schmalbandbeleuchtungslicht emittieren, und dass sie die Lichtquellen so steuert, dass diese das weiße Beleuchtungslicht emittieren, durch Kombinieren der Mehrzahl von Lichtquellen zum Zeitpunkt der Bildgebung mit weißem Beleuchtungslicht.
  • Im Folgenden wird eine Konfiguration des Prozessors 4 beschrieben. Der Prozessor 4 umfasst eine Bildverarbeitungseinheit 41, eine Eingabeeinheit 42, eine Speichereinheit 43 und eine Steuereinheit 44.
  • Die Bildverarbeitungseinheit 41 führt eine vordefinierte Bildverarbeitung auf Basis des Bildgebungssignals aus dem Endoskop 2 (A/D-Wandler 205) durch, um ein Anzeigebildsignal zur Anzeige der Anzeigeeinheit 5 zu erzeugen. Die Bildverarbeitungseinheit 41 umfasst eine Luminanzkomponentenauswahleinheit 411, eine Demosaicing-Verarbeitungseinheit 412 und eine Anzeigebilderzeugungs-Verarbeitungseinheit 413.
  • Die Luminanzkomponentenauswahleinheit 411 ermittelt einen Wechselbetrieb des Beleuchtungslichts, der von der Beleuchtungssteuereinheit 32 durchgeführt wird, d. h., sie ermittelt, welches des weißen Beleuchtungslichts und des Schmalbandbeleuchtungslichts das von der Beleuchtungseinheit 31 emittierte Beleuchtungslicht ist. Die Luminanzkomponentenauswahleinheit 411 wählt eine Luminanzkomponente (Pixel, der Licht der Luminanzkomponente empfängt), die von der Demosaicing-Verarbeitungseinheit 412 zu verwenden ist, gemäß dem ermittelten Beleuchtungslicht aus. Beispielsweise ist ein relativer Leuchtkraftfaktor eines menschlichen Auges bei der Bildgebung mit weißem Beleuchtungslicht am höchsten und wird eine grüne Komponente, mit der ein Blutgefäß und eine duktale Struktur des lebenden Körpers deutlich angezeigt werden, zur Luminanzkomponente. Bei der Schmalbandbeleuchtungslichtbildgebung hingegen unterscheidet sich die auszuwählende Luminanzkomponente je nach Individuum. Aus diesem Grund gibt es den Fall, dass die grüne Komponente ähnlich wie bei der Bildgebung mit weißem Beleuchtungslicht ausgewählt wird, und außerdem gibt es den Fall, dass die Luminanzkomponente sich von jener der Weißlichtbildgebung unterscheidet. Spezifisch gesagt ist die oben beschriebene NBI-Beobachtung ein repräsentatives Beispiel für den Fall, dass eine blaue Komponente oder eine rote Komponente bei der Schmalbandbildgebung zur Luminanzkomponente wird. In diesem Fall wird die blaue Komponente, mit der ein Blutgefäß und eine duktale Struktur einer Oberflächenschicht eines lebenden Körpers deutlich angezeigt werden, zur Luminanzkomponente. Bei der Ausführungsform ist die grüne Komponente als Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht eingestellt und ist die blaue Komponente als Luminanzkomponente bei der Schmalbandbildgebung eingestellt. Die Luminanzkomponente wird durch Ermitteln eines Bildgebungsverfahrens automatisch eingestellt, solange die Luminanzkomponente für jedes Bildgebungsverfahren vorab eingestellt wird, und somit ist es möglich, den von der Luminanzkomponentenauswahleinheit 411 durchgeführten Auswahlprozess auszulassen.
  • Da die NBI-Beobachtung bei der Ausführungsform als Schmalbandbeleuchtungslichtbildgebung verwendet wird, entspricht der Cy-Filter einem ersten Filter, der Licht mit den Wellenlängenbändern (Wellenlängenbänder HB und HG) der jeweiligen Luminanzkomponenten bei der Bildgebung mit weißem Beleuchtungslicht passieren lässt, und bei der Schmalbandbeleuchtungslichtbildgebung entsprechen der G-Filter und der Ye-Filter zweiten Filtern, die Licht mit dem Wellenlängenband (Wellenlängenband HG) der Luminanzkomponente (grüne Komponente) bei der Bildgebung mit weißem Beleuchtungslicht passieren lassen und Licht mit dem Wellenlängenband der Luminanzkomponente (blaue Komponente) bei der Schmalbandbeleuchtungslichtbildgebung blockieren, und entspricht der Mg-Filter einem dritten Filter, der Licht mit dem Wellenlängenband (Wellenlängenband HB) der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt und Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht blockiert.
  • Die Demosaicing-Verarbeitungseinheit 412 erzeugt ein Farbbildsignal durch Unterscheiden einer Interpolationsrichtung von einer Korrelation von Farbinformationen (Pixelwerte) der Mehrzahl von Pixeln auf Basis des Bildgebungssignals aus dem Endoskop 2 (A/D-Wandler 205) und Durchführen einer Interpolation auf Basis der Farbinformationen der Pixel, die in der unterschiedenen Interpolationsrichtung angeordnet sind. Die Demosaicing-Verarbeitungseinheit 412 erzeugt das Farbbildsignal durch Durchführen einer Interpolationsverarbeitung an einer Luminanzkomponente auf Basis eines Pixels der Luminanzkomponente, wie von der Luminanzkomponentenauswahleinheit 411 ausgewählt (im Folgenden als ausgewählter Pixel bezeichnet), und danach Durchführen einer Interpolationsverarbeitung an Farbkomponenten außer der Luminanzkomponente.
  • Die Anzeigebilderzeugungs-Verarbeitungseinheit 413 führt eine Abstufungsumwandlung, eine Vergrößerungsverarbeitung, eine Optimierungsverarbeitung in Bezug auf das Blutgefäß und die duktale Struktur des lebenden Körpers und dergleichen in Hinblick auf das elektrische Signal durch, das von der Demosaicing-Verarbeitungseinheit 412 erzeugt wird. Nach Ausführen der vordefinierten Verarbeitung gibt die Anzeigebilderzeugungs-Verarbeitungseinheit 413 das verarbeitete elektrische Signal als Anzeigebildsignal zur Anzeige an die Anzeigeeinheit 5 aus.
  • Die Bildverarbeitungseinheit 41 führt neben der oben beschriebenen Demosaicing-Verarbeitung eine OB-Clamp-Verarbeitung, eine Verstärkungsanpassungsverarbeitung und dergleichen durch. Bei der OB-Clamp-Verarbeitung führt die Bildverarbeitungseinheit 41 eine Verarbeitung zum Korrigieren einer Versatzhöhe eines Schwarzpegels in Bezug auf das elektrische Signal, das vom Endoskop 2 (A/D-Wandler 205) eingegeben wird, durch. Bei der Verstärkungsanpassungsverarbeitung führt die Bildverarbeitungseinheit 41 eine Anpassungsverarbeitung einer Helligkeitsstufe in Bezug auf das Bildsignal, das der Demosaicing-Verarbeitung unterzogen wurde, durch.
  • Die Eingabeeinheit 42 ist eine Schnittstelle, die so konfiguriert ist, dass sie eine Eingabe oder dergleichen von einem Benutzer in Bezug auf den Prozessor 4 durchführt, und umfasst einen Ein/Aus-Schalter, der so konfiguriert ist, dass er eine Stromzufuhr ein- oder ausschaltet, einen Moduswechselknopf, der so konfiguriert ist, dass er einen Aufnahmemodus und andere diverse Modi wechselt, einen Beleuchtungslichtwechselknopf, der so konfiguriert ist, dass er das Beleuchtungslicht (Bildgebungsverfahren) der Lichtquelleneinheit 3 wechselt, und dergleichen.
  • Die Speichereinheit 43 zeichnet diverse Programme auf, die so konfiguriert sind, dass sie die Endoskopvorrichtung 1 betreiben, und Daten auf, die diverse Parameter und dergleichen umfassen, die für Betriebe der Endoskopvorrichtung 1 erforderlich sind. Die Speichereinheit 43 kann Informationen zum Endoskop 2 wie z. B. eine Beziehungstabelle zwischen den eindeutigen Informationen (ID) des Endoskops 2 und Informationen zur Filteranordnung des Farbfilters 202a speichern. Die Speichereinheit 43 ist unter Verwendung eines Halbleiterspeichers wie z. B. eines Flash-Speichers und eines dynamischen Direktzugriffsspeichers (DRAM) umgesetzt.
  • Die Steuereinheit 44 ist unter Verwendung einer CPU und dergleichen konfiguriert und führt eine Antriebssteuerung der jeweiligen Elemente, die das Endoskop 2 und die Lichtquelleneinheit 3 umfassen, und eine Eingabe- und Ausgabesteuerung von Informationen in Bezug auf die jeweiligen Elemente und dergleichen durch. Die Steuereinheit 44 sendet Einstelldaten (z. B. zu lesende Pixel und dergleichen) für eine Bildgebungssteuerung, die in der Speichereinheit 43 aufgezeichnet sind, ein Taktsignal zur Bildgebungstaktung und dergleichen über eine vordefinierte Signalleitung an das Endoskop 2. Die Steuereinheit 44 gibt Farbfilterinformationen (Identifikationsinformationen), die über die Bildgebungsinformationsspeichereinheit 206 erfasst wurden, an die Bildverarbeitungseinheit 41 aus und gibt Informationen zur Anordnung des Wechselfilters 31c an die Lichtquelleneinheit 3 aus, auf Basis der Farbfilterinformationen.
  • Im Folgenden wird die Anzeigeeinheit 5 beschrieben. Die Anzeigeeinheit 5 empfängt das vom Prozessor 4 erzeugte Anzeigebildsignal über ein Videokabel und zeigt ein In-vivo-Bild an, das dem Anzeigebildsignal entspricht. Die Anzeigeeinheit 5 ist unter Verwendung von Flüssigkristall- oder organischer Elektrolumineszenz (EL) konfiguriert.
  • Im Folgenden wird auf die Signalverarbeitung Bezug genommen, die von jeder Einheit des Prozessors 4 der Endoskopvorrichtung 1 durchgeführt wird. Die Luminanzkomponentenauswahleinheit 411 ermittelt ein beliebiges Bildgebungsverfahren zwischen dem Bildgebungsverfahren mit weißem Beleuchtungslicht und dem Schmalbandbildgebungsverfahren, das verwendet wird, um das Eingabebildgebungssignal zu erzeugen. Spezifisch gesagt ermittelt die Luminanzkomponentenauswahleinheit 411 ein beliebiges Bildgebungsverfahren, das z. B. verwendet wurde, um das Eingabebildsignal zu erzeugen, auf Basis eines Steuersignals (z. B. Informationen zum Beleuchtungslicht oder Informationen, die das Bildgebungsverfahren anzeigen) aus der Steuereinheit 44.
  • Wenn ermittelt wird, dass das Eingabebildgebungssignal unter Verwendung des Bildgebungsverfahrens mit weißem Beleuchtungslicht erzeugt wurde, wählt die Luminanzkomponentenauswahleinheit 411 den G-Pixel als ausgewählter Pixel aus und stellt es diesbezüglich ein und gibt Einstellinformationen, die eingestellt wurden, an die Demosaicing-Verarbeitungseinheit 412 aus. Spezifisch gesagt gibt die Luminanzkomponentenauswahleinheit 411 Positionsinformationen des G-Pixels, der als der ausgewählte Pixel ausgewählt wurde, auf Basis der Identifikationsinformationen (Informationen des Farbfilters 202a) aus, z. B. Informationen zu einer Zeile und einer Spalte des G-Pixels.
  • Wenn hingegen ermittelt wird, dass das Eingabebildgebungssignal unter Verwendung des Schmalbandbildgebungsverfahrens erzeugt wurde, wählt die Luminanzkomponentenauswahleinheit 411 das Mg-Pixel und das Cy-Pixel (Pixel, die ein Signal der B-Komponente umfassen) als ausgewählter Pixel aus und stellt sie diesbezüglich ein und gibt Einstellinformationen, die eingestellt wurden, an die Demosaicing-Verarbeitungseinheit 412 aus.
  • Im Folgenden wird die von der Demosaicing-Verarbeitungseinheit 412 durchgeführte Interpolationsverarbeitung beschrieben. Die Demosaicing-Verarbeitungseinheit 412 erzeugt das Farbbildsignal durch Unterscheiden der Interpolationsrichtung von der Korrelation der Farbinformationen (Pixelwerte) der Mehrzahl von Pixeln auf Basis eines nicht synchronisierten Bildgebungssignals aus dem Endoskop 2 (A/D-Wandler 205) und Durchführen der Interpolation auf Basis der Farbinformationen der Pixel, die in der unterschiedenen Interpolationsrichtung angeordnet sind. Die Demosaicing-Verarbeitungseinheit 412 führt unterschiedliche Typen der Signalverarbeitung zwischen dem NBI-Modus und dem WLI-Modus durch.
  • [Demosaicing-Verarbeitung im NBI-Modus]
  • 11 ist eine Konfiguration des Farbfilters gemäß der Ausführungsform und ist ein Schaubild, mit dem eine Funktion des Pixels im NBI-Modus beschrieben wird. Das aus der Lichtquelleneinheit 3 emittierte Schmalbandbeleuchtungslicht umfasst Licht mit den Schmalbändern TB und TG, wie in 10 veranschaulicht. Somit lässt der Mg-Filter nur Licht mit dem Schmalband TB passieren und demgemäß kann der Mg-Pixel als zum B-Pixel äquivalent angesehen werden. Gleichermaßen lässt der Ye-Filter nur Licht mit dem Schmalband TG passieren und demgemäß kann der Ye-Pixel als zum G-Pixel äquivalent angesehen werden. Hier entspricht der B-Pixel einem Pixel, der mit einem B-Filter bereitgestellt ist, der Licht mit einem Wellenlängenband von 400 bis 480 nm passieren lässt. Demgemäß kann eine Komplementärfarbfilteranordnung (die Filtereinheit U1), die in 4 veranschaulicht ist, als im NBI-Modus zu einer Filteranordnung (eine Filtereinheit U10), die in 11 veranschaulicht ist, äquivalent angesehen werden. Bei der in 11 veranschaulichten Filteranordnung, sind die Filter, die Licht mit dem Wellenlängenband HG passieren lassen, in einem Schachbrettmuster angeordnet. Bei der folgenden Demosaicing-Verarbeitung im NBI-Modus wird die in 11 veranschaulichte Filteranordnung verwendet, bei der der Mg-Pixel und der Ye-Pixel als B-Pixel bzw. G-Pixel angesehen werden.
  • 12 ist ein Ablaufplan, der die Demosaicing-Verarbeitung im NBI-Modus, die von der Demosaicing-Verarbeitungseinheit der Endoskopvorrichtung durchgeführt wird, gemäß der Ausführungsform veranschaulicht. Zunächst unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Interpolationsrichtung unter Verwendung eines Pixelwerts, der vom G-Pixel erzeugt wird, bei dem es sich um einen nicht ausgewählten Pixel handelt (Pixel einer Farbkomponente, die nicht die Luminanzkomponente ist), und der Luminanzkomponente der Bildgebung mit weißem Beleuchtungslicht, interpoliert die G-Komponenten im B-Pixel (Mg-Pixel) als ausgewählter Pixel und den Cy-Pixel als nicht ausgewählter Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, wobei jeder Pixel den Pixelwert oder den interpolierten Wert der G-Komponente aufweist (Schritt S101).
  • Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Randrichtung von der bestehenden G-Komponente (Pixelwert) als Interpolationsrichtung und führt die Interpolationsverarbeitung in Bezug auf den B-Pixel und den Cy-Pixel, die als zu interpolierende Objekte dienen, entlang der Interpolationsrichtung durch. Die Demosaicing-Verarbeitungseinheit 412 berechnet einen Signalwert G(x, y) der G-Komponente eines zu interpolierenden Pixels in der Koordinate (x, y) auf Basis der unterschiedenen Randrichtung unter Verwendung der folgenden Formeln (1) bis (6). Die Interpolationsrichtung wird von einer beliebigen einer vertikalen Richtung (Y-Richtung), einer horizontalen Richtung (X-Richtung), einer Richtung schräg nach unten und einer Richtung schräg nach oben unterschieden. Bei der Unterscheidung der Randrichtung wird die Rauf-und-Runter-Richtung in der in 3 veranschaulichten Pixelanordnung als vertikale Richtung eingestellt und wird die Rechts-und-Links-Richtung davon als horizontale Richtung eingestellt. Außerdem wird die Abwärtsrichtung als positive Richtung in vertikaler Richtung eingestellt und wird eine Rechtsrichtung als positive Richtung in der Rechts-und-Links-Richtung eingestellt. Wenn ein Pixel keinen benachbarten Pixel aufweist, wie z. B. ein Pixel, der an einem Außenrand positioniert ist, wird außerdem ein Signalwert eines Pixels, der in einer gefalteten Position positioniert ist, verwendet.
  • (Randrichtung: Vertikale Richtung)
  • Wenn eine Änderung der Luminanz in horizontaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (1). In Formel (1) ist ein zu interpolierender Pixel zwischen dem B-Pixel und dem Cy-Pixel gemein. G(x, y) = 1 / 2{G(x, y – 1) + G(x, y + 1)} (1)
  • (Randrichtung: Horizontale Richtung)
  • Wenn eine Änderung der Luminanz in vertikaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (2). G(x, y) = 1 / 2{G(x – 1, y) + G(x + 1, y)} (2)
  • (Randrichtung: Richtung schräg nach unten)
  • Wenn eine Änderung der Luminanz in der Richtung schräg nach oben größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die Richtung schräg nach unten als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (3), wenn ein zu interpolierender Pixel der B-Pixel ist. G(x, y) = 1 / 2{Cy(x – 1, y – 1) + Cy(x + 1, y + 1)} – B(x, y) (3)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die Richtung schräg nach unten als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (4), wenn ein zu interpolierender Pixel der Cy-Pixel ist. G(x, y) = 1 / 4{G(x, y – 1) + G(x, y + 1) + G(x – 1, y) + G(x + 1, y)} (4)
  • (Randrichtung: Richtung schräg nach oben)
  • Wenn eine Änderung der Luminanz in der Richtung schräg nach unten größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die Richtung schräg nach oben als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (5), wenn ein zu interpolierender Pixel der B-Pixel ist. G(x, y) = 1 / 2{Cy(x + 1, y – 1) + Cy(x – 1, y + 1)} – B(x, y) (5)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die Richtung schräg nach oben als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (6), wenn ein zu interpolierender Pixel der Cy-Pixel ist. G(x, y) = 1 / 4{G(x, y – 1) + G(x, y + 1) + G(x – 1, y) + G(x + 1, y)} (6)
  • Nach Durchführung der Interpolationsverarbeitung am G-Signal unter Verwendung der oben beschriebenen Formeln (1) bis (6) erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert B(x, y) der B-Komponente (Luminanzkomponente) des Cy-Pixels (Schritt S102). Im NBI-Modus fallen die Lichtstrahlen mit den Schmalbändern TB und TG auf den Cy-Pixel. Somit ist es möglich, den Signalwert B(x, y) zu erhalten, der dem Licht mit dem Schmalband TB entspricht, indem der Signalwert G(x, y), der dem Licht mit dem Schmalband TG entspricht, von einem erhaltenen Signalwert Cy(x, y) subtrahiert wird. Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) durch Subtrahieren des Signalwerts (interpolierter Wert) der G-Komponente, die unter Verwendung der folgenden Formel (7) interpoliert wurde, vom Signalwert Cy(x, y) der Cy-Komponente. B(x, y) = Cy(x, y) – G(x, y) (7)
  • Nach Erzeugen des B-Signals im Cy-Pixel unter Verwendung der oben beschriebenen Formel (7) interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente (Luminanzkomponente) des G-Pixels (Schritt S103). Spezifisch gesagt interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente (Luminanzkomponente) des G-Pixels, indem sie die Berechnung der oben beschriebenen Formeln (1) bis (6) unter Ersetzen des Signalwerts B(x, y) durch den Signalwert G(x, y) und des Signalwerts G(x, y) durch den Signalwert B(x, y) durchführt. Demgemäß wird das Bildsignal mit dem Signalwert (dem Pixelwert, dem interpolierten Wert oder einem Signalwert, der durch die Subtraktion erhalten wird) der B-Komponente (Luminanzkomponente) und der G-Komponente zumindest für den Pixel erzeugt, der das Bild erzeugt.
  • [Demosaicing-Verarbeitung im WLI-Modus]
  • 13 ist ein Ablaufplan, der die Demosaicing-Verarbeitung im WLI-Modus, die von der Demosaicing-Verarbeitungseinheit der Endoskopvorrichtung durchgeführt wird, gemäß der Ausführungsform veranschaulicht. Zunächst unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Interpolationsrichtung unter Verwendung eines Pixelwerts, der vom G-Pixel erzeugt wird, bei dem es sich um den ausgewählten Pixel handelt, interpoliert die G-Komponenten im Cy-Pixel, Mg-Pixel und Ye-Pixel als nicht ausgewählte Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, wobei jeder Pixel den Pixelwert oder den interpolierten Wert der G-Komponente aufweist (Schritt S201).
  • Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Randrichtung von der bestehenden G-Komponente (Pixelwert) als Interpolationsrichtung und führt die Interpolationsverarbeitung in Bezug auf den Cy-Pixel und den Mg-Pixel, die als zu interpolierende Objekte dienen, entlang der Interpolationsrichtung durch. Die Demosaicing-Verarbeitungseinheit 412 berechnet einen Signalwert G(x, y) der G-Komponente eines zu interpolierenden Pixels in der Koordinate (x, y) auf Basis der unterschiedenen Randrichtung unter Verwendung der folgenden Formeln (8) bis (13). Die Interpolationsrichtung im WLI-Modus wird von einer beliebigen der vertikalen Richtung und der horizontalen Richtung unterschieden.
  • (Randrichtung: Vertikale Richtung)
  • Wenn eine Änderung der Luminanz in horizontaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (8), wenn ein zu interpolierender Pixel der Cy-Pixel ist. G(x, y) = 1 / 2{G(x, y – 1) + G(x, y + 1)} (8)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (9), wenn ein zu interpolierender Pixel der Mg-Pixel ist. G(x, y) = 1 / 4{Ye(x, y – 1) + Ye(x, y + 1)} + 1 / 8{Cy(x – 1, y – 1) + Cy(x + 1, y – 1) + Cy(x – 1, y + 1) + Cy(x + 1, y + 1)} – 1 / 2Mg(x, y) (9)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (10), wenn ein zu interpolierender Pixel der Ye-Pixel ist. G(x, y) = 1 / 4{G(x – 1, y – 1) + G(x + 1, y – 1) + G(x – 1, y + 1) + G(x + 1, y + 1)} (10)
  • (Randrichtung: Horizontale Richtung)
  • Wenn eine Änderung der Luminanz in vertikaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (11), wenn ein zu interpolierender Pixel der Cy-Pixel ist. G(x, y) = 1 / 2Cy(x, y) + 1 / 4{Ye(x – 1, y) + Ye(x + 1, y)} – 1 / 8{Mg(x – 1, y – 1) + Mg(x + 1, y – 1) + Mg(x – 1, y + 1) + Mg(x + 1, y + 1)} (11)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (12), wenn ein zu interpolierender Pixel der Mg-Pixel ist. G(x, y) = 1 / 2{G(x – 1, y) + G(x + 1, y)} (12)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (13), wenn ein zu interpolierender Pixel der Ye-Pixel ist. G(x, y) = 1 / 2{G(x – 1, y – 1) + G(x + 1, y – 1) + G(x – 1, y + 1) + G(x + 1, y + 1)} (13)
  • Nach Durchführung der Interpolationsverarbeitung am G-Signal unter Verwendung der oben beschriebenen Formeln (8) bis (13) erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert R(x, y) der R-Komponente des Ye-Pixels und einen Signalwert B(x, y) der B-Komponente des Cy-Pixels (Schritt S202). Im WLI-Modus fallen die Lichtstrahlen mit den Wellenlängenbändern HR und HG auf den Ye-Pixel. Somit ist es möglich, den Signalwert R(x, y) zu erhalten, der dem Licht mit dem Wellenlängenband HR entspricht, indem der Signalwert G(x, y), der dem Licht mit dem Wellenlängenband HG entspricht, von einem erhaltenen Signalwert Ye(x, y) subtrahiert wird. Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 den Signalwert R(x, y) durch Subtrahieren des Signalwerts (interpolierter Wert) der G-Komponente, die unter Verwendung der folgenden Formel (14) interpoliert wurde, vom Signalwert Ye(x, y) der Ye-Komponente. R(x, y) = Ye(x, y) – G(x, y) (14)
  • Außerdem fallen die Lichtstrahlen mit den Wellenlängenbändern HB und HG auf den Cy-Pixel. Somit ist es möglich, den Signalwert B(x, y) zu erhalten, der dem Licht mit dem Wellenlängenband HB entspricht, indem der Signalwert G(x, y), der dem Licht mit dem Wellenlängenband HG entspricht, von einem erhaltenen Signalwert Cy(x, y) subtrahiert wird. Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) durch Subtrahieren des Signalwerts (interpolierter Wert) der G-Komponente, die unter Verwendung der folgenden Formel (15) interpoliert wurde, vom Signalwert Cy(x, y) der Cy-Komponente. B(x, y) = Cy(x, y) – G(x, y) (15)
  • Nach Erzeugen des R-Signals im Ye-Pixel und des B-Signals im Cy-Pixel unter Verwendung der oben beschriebenen Formeln (14) und (15) interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente und den Signalwert R(x, y) der R-Komponente für alle Pixelpositionen (Schritt S203). Spezifisch gesagt führt die Demosaicing-Verarbeitungseinheit 412 die Interpolation der Signalwerte R(x, y) und B(x, y) unter Verwendung der bekannten bikubischen Interpolation durch. Demgemäß wird das Bildsignal mit dem Signalwert (dem Pixelwert, dem interpolierten Wert oder einem Signalwert, der durch die Subtraktion erhalten wird) der G-Komponente (Luminanzkomponente), der B-Komponente und der R-Komponente zumindest für den Pixel erzeugt, der das Bild erzeugt.
  • Wenn jeder der Signalwerte der Farbkomponenten im NBI-Modus und im WLI-Modus erzeugt wird, synchronisiert die Demosaicing-Verarbeitungseinheit 412 die erzeugten Bildsignale der Luminanzkomponente und der Farbkomponente und erzeugt ein Farbbildsignal, das ein Farbbild (synchronisiertes Bild) umfasst, in Bezug auf welches die Signalwerte der RGB-Komponenten oder der GB-Komponenten zugelassen wurden, je nach Pixel. Die Farbbilderzeugungsverarbeitungseinheit 415c ordnet die Signale der Luminanzkomponente und der Farbkomponente jedem der RGB-Kanäle zu. Eine Beziehung zwischen dem Kanal und dem Signal im Bildgebungsmodus (WLI/NBI) ist wie nachstehend dargestellt. Bei der Ausführungsform wird das Signal der Luminanzkomponente dem G-Kanal zugeordnet.
    WLI-Modus NBI-Modus
    R-Kanal: R-Signal G-Signal
    G-Kanal: G-Signal B-Signal
    B-Kanal: B-Signal B-Signal
  • Im Folgenden wird auf die Signalverarbeitung, die von dem Prozessor 4 mit der oben beschriebenen Konfiguration durchgeführt wird, in Zusammenschau mit den Zeichnungen Bezug genommen. 14 ist ein Ablaufplan, der die Signalverarbeitung, die vom Prozessor 4 der Endoskopvorrichtung 1 durchgeführt wird, gemäß der Ausführungsform veranschaulicht. Wenn ein elektrisches Signal aus dem Endoskop 2 erfasst wird, führt die Steuereinheit 44 ein Lesen eines nicht synchronisierten Bilds durch, das im elektrischen Signal umfasst ist (Schritt S301). Das elektrische Signal aus dem Endoskop 2 ist ein Signal, das vom Bildsensor 202 erzeugt wird, und umfasst nicht synchronisierte Bilddaten, die vom A/D-Wandler 205 in ein digitales Signal umgewandelt wurden.
  • Nach Lesen des nicht synchronisierten Bilds erfasst die Steuereinheit 44 die Steuerinformationen (z. B. die Informationen zum Beleuchtungslicht (Bildgebungsverfahren) und die Anordnungsinformationen des Farbfilters 202a) unter Bezugnahme auf die Identifikationsinformationsspeichereinheit 261 und gibt die erfassten Steuerinformationen an die Luminanzkomponentenauswahleinheit 411 aus (Schritt S302).
  • Die Luminanzkomponentenauswahleinheit 411 ermittelt ein beliebiges Bildgebungsverfahren zwischen dem erfassten Bildgebungsverfahren mit weißem Beleuchtungslicht (WLI-Modus) und Schmalbandbildgebungsverfahren (NBI-Modus), das verwendet wird, um das elektrische Signal zu erzeugen (nicht synchronisiertes Bild, das gelesen wurde), auf Basis der Steuerinformationen, und wählt den ausgewählten Pixel auf Basis der Ermittlung aus (Schritt S303). Spezifisch gesagt wählt die Luminanzkomponentenauswahleinheit 411 die G-Komponente (G-Pixel) als Luminanzkomponente (ausgewählter Pixel) aus, wenn ermittelt wird, dass der WLI-Modus verwendet wird, und wählt die B-Komponente (Pixel mit der B-Komponente) als Luminanzkomponente (ausgewählter Pixel) aus, wenn ermittelt wird, dass der NBI-Modus verwendet wird. Die Luminanzkomponentenauswahleinheit 411 gibt das Steuersignal zur ausgewählten Luminanzkomponente an die Demosaicing-Verarbeitungseinheit 412 aus.
  • Wenn ein nicht synchronisiertes elektrisches Signal vom Endoskop 2 (A/D-Wandler 205) eingegeben wird, führt die Demosaicing-Verarbeitungseinheit 412 die Demosaicing-Verarbeitung auf Basis des elektrischen Signals durch (Schritt S304). Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 wie bei der oben beschriebenen Verarbeitung eine Interpolationsrichtung im zu interpolierenden Pixel (anderer Pixel als der G-Pixel) unter Verwendung des vom G-Pixel erzeugten Pixelwerts, wobei es sich im NBI-Modus um den nicht ausgewählten Pixel handelt, interpoliert die G-Komponenten in Pixelpositionen außer dem G-Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, in dem jeder Pixel den Pixelwert oder den interpolierten Wert der Luminanzkomponente aufweist. Danach wird ein Bildsignal, das ein einzelnes Bild erzeugt, das den Pixelwert oder den interpolierten Wert der B-Komponente umfasst, für jede der Farbkomponenten auf Basis des Pixelwerts und des interpolierten Werts der G-Komponente und der Pixelwerte der Pixel außer dem Pixel (ausgewählter Pixel) der Luminanzkomponente erzeugt. Die Demosaicing-Verarbeitungseinheit 412 unterscheidet hingegen eine Interpolationsrichtung im zu interpolierenden Pixel (anderer Pixel als der ausgewählte Pixel) unter Verwendung des vom G-Pixel erzeugten Pixelwerts, wobei es sich im WLI-Modus um den ausgewählten Pixel handelt, interpoliert die G-Komponenten in Pixelpositionen außer dem G-Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, in dem jeder Pixel den Pixelwert oder den interpolierten Wert der Luminanzkomponente aufweist. Danach wird ein Bildsignal, das ein einzelnes Bild erzeugt, das die Pixelwerte oder die interpolierten Werte der Farbkomponenten (der B-Komponente und der R-Komponente) außer der G-Komponente umfasst, für jede der Farbkomponenten auf Basis des Pixelwerts und des interpolierten Werts der G-Komponente und der Pixelwerte der Pixel außer dem ausgewählten Pixel erzeugt.
  • Nach Erzeugen des Bildsignals für jede der Farbkomponenten erzeugt die Demosaicing-Verarbeitungseinheit 412 ein Farbbildsignal, das ein Farbbild erzeugt, unter Verwendung der jeweiligen Bildsignale der jeweiligen Farbkomponenten (Schritt S305). Die Demosaicing-Verarbeitungseinheit 412 erzeugt im WLI-Modus ein Farbbildsignal unter Verwendung der Bildsignale der roten Komponente, der grünen Komponente und der blauen Komponente und erzeugt im NBI-Modus ein Farbbildsignal unter Verwendung der Bildsignale der grünen Komponente und der blauen Komponente.
  • Nach Erzeugen des Farbbildsignals durch die Demosaicing-Verarbeitungseinheit 412 erzeugt die Anzeigebilderzeugungs-Verarbeitungseinheit 413 das Anzeigebildsignal zur Anzeige, indem sie die Abstufungsumwandlung, die Vergrößerungsverarbeitung und dergleichen in Bezug auf das Farbbildsignal durchführt (Schritt S306). Nach Ausführen der vordefinierten Verarbeitung gibt die Anzeigebilderzeugungs-Verarbeitungseinheit 413 das verarbeitete Signal als Anzeigebildsignal an die Anzeigeeinheit 5 aus.
  • Wenn das Anzeigebildsignal von der Anzeigebilderzeugungs-Verarbeitungseinheit 413 erzeugt wird, wird eine Bildanzeigeverarbeitung gemäß dem Anzeigebildsignal durchgeführt (Schritt S307). Ein Bild gemäß dem Anzeigebildsignal wird durch die Bildanzeigeverarbeitung auf der Anzeigeeinheit 5 angezeigt.
  • Nachdem die Anzeigebilderzeugungs-Verarbeitungseinheit 413 den Prozess des Erzeugens des Anzeigebildsignals und der Bildanzeigeverarbeitung durchgeführt hat, ermittelt die Steuereinheit 44, ob dieses Bild das letzte Bild ist (Schritt S308). Die Steuereinheit 44 beendet den Prozess, wenn eine Verarbeitungsreihe in Bezug auf alle Bilder abgeschlossen wurde (in Schritt S308 „Ja”), und setzt die gleiche Verarbeitung fort, indem sie veranlasst, dass der Prozess zu Schritt S301 übergeht, wenn ein nicht verarbeitetes Bild vorhanden ist (in Schritt S308 „Nein”).
  • Auch wenn bei der Ausführungsform jede Einheit des Prozessors 4 unter Verwendung von Hardware konfiguriert ist und jede Einheit die Verarbeitung durchführt, kann eine CPU die Verarbeitung jeder Einheit durchführen und führt die CPU ein Programm zum Umsetzen der oben beschriebenen Signalverarbeitung unter Verwendung von Software aus. Beispielsweise kann die Signalverarbeitung auch umgesetzt werden, indem die CPU dazu veranlasst wird, die oben beschriebene Software in Bezug auf ein Bild auszuführen, das vorab von einem Bildsensor wie z. B. einem Kapselendoskop erfasst wird. Außerdem kann ein Teil der von jeder Einheit durchgeführten Verarbeitung unter Verwendung von Software konfiguriert werden. In diesem Fall führt die CPU die Signalverarbeitung gemäß dem oben beschriebenen Ablaufplan durch.
  • Gemäß der oben beschriebenen Ausführungsform wird im NBI-Modus zunächst das Signal der Nicht-Luminanzkomponente (G-Signal als Signal der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht) mittels der Interpolationsverarbeitung vom Richtungsunterscheidungstyp, wie in den Formeln (1) bis (6) gezeigt, interpoliert, um das Signal (B-Signal) der Luminanzkomponente in einer Cy-Pixelposition unter Verwendung des interpolierten G-Signals und Formel (7) zu erzeugen. Schließlich wird die Interpolationsverarbeitung vom Richtungsunterscheidungstyp für das B-Signal durchgeführt. Da die Interpolationsverarbeitung für das B-Signal nach Erzeugen des B-Signals in der Cy-Pixelposition durchgeführt wird, ist es möglich, die Genauigkeit der Richtungsunterscheidungsverarbeitung zu verbessern und sowohl bei dem Weißlichtbildgebungs- als auch beim Schmalbandbildungsverfahren ein hochaufgelöstes Bild zu erhalten.
  • Außerdem wird der Komplementärfarbfilter verwendet und ist die Filteranordnung derart, dass das G-Signal in allen Pixeln in der Rauf-Runter-Richtung im zu interpolierenden Pixel des G-Signals gemäß der oben beschriebenen Ausführungsform vorhanden ist. Somit ist es möglich, die G-Signale im Schachbrettmuster im NBI-Modus zu erfassen und bei der Interpolationsverarbeitung vom Richtungsunterscheidungstyp effektiv zu nutzen.
  • Bei der oben beschriebenen Ausführungsform wird die Interpolation vom Richtungsunterscheidungstyp durchgeführt. Solange die Interpolationsrichtung vorab eingestellt wird oder Interpolationsinformationen in der Speichereinheit 43 gespeichert sind, kann die Interpolationsverarbeitung jedoch auf Basis der Einstell- oder der Interpolationsinformationen durchgeführt werden.
  • (Erstes modifiziertes Beispiel einer Ausführungsform)
  • 15 ist ein schematisches Schaubild, das eine Konfiguration eines Farbfilters gemäß einem ersten modifizierten Beispiel der Ausführungsform veranschaulicht. Bei der oben beschriebenen Ausführungsform ist der Farbfilter 202a durch Anordnen der Filtereinheiten U1 konfiguriert, die unter Verwendung der vier in einer 2-×-2-Matrix angeordneten Filtern gebildet wurden, die in einer Matrix gemäß der Anordnung der Pixel Pij anzuordnen sind. Beim ersten modifizierten Beispiel ist ein Farbfilter durch Anordnen von Filtereinheiten U2, die in einer Matrix angeordnet sind, unter Verwendung von acht Filtern, die in einer 2-×-4-Matrix angeordnet sind, konfiguriert. Die Filtereinheit U2 ist unter Verwendung eines G-Filters, eines Mg-Filters, eine Cy-Filters und eines Ye-Filters konfiguriert, wie in 15 veranschaulicht. Bei der Filtereinheit U2 ist die Anzahl von Filtern jeder Farbe gleich (zwei) und sind Filter (gleichfarbige Filter), die Licht mit einem Wellenlängenband der gleichen Farbe passieren lassen, einander in Zeilenrichtung und Spaltenrichtung nicht benachbart angeordnet.
  • Im Folgenden wird eine von der Demosaicing-Verarbeitungseinheit 412 durchgeführte Interpolationsverarbeitung gemäß dem ersten modifizierten Beispiel beschrieben. Ähnlich wie bei der oben beschriebenen Ausführungsform erzeugt die Demosaicing-Verarbeitungseinheit 412 ein Farbbildsignal durch Unterscheiden einer Interpolationsrichtung von einer Korrelation von Farbinformationen (Pixelwerte) einer Mehrzahl von Pixeln auf Basis eines nicht synchronisierten Bildgebungssignals aus dem Endoskop 2 (A/D-Wandler 205) und Durchführen einer Interpolation auf Basis der Farbinformationen der Pixel, die in der unterschiedenen Interpolationsrichtung angeordnet sind. Die Demosaicing-Verarbeitungseinheit 412 führt unterschiedliche Typen der Signalverarbeitung zwischen dem NBI-Modus und dem WLI-Modus durch.
  • [Demosaicing-Verarbeitung im NBI-Modus]
  • 16 ist eine Konfiguration des Farbfilters gemäß dem ersten modifizierten Beispiel der Ausführungsform und ist ein Schaubild, mit dem eine Funktion des Pixels im NBI-Modus beschrieben wird. Ähnlich wie bei der oben beschriebenen Ausführungsform können der Mg-Filter, ein Mg-Pixel als zu einem B-Pixel äquivalent angesehen werden und können der Ye-Filter, ein Ye-Pixel als zu einem G-Pixel äquivalent angesehen werden. Demgemäß kann im NBI-Modus eine Komplementärfarbenfilteranordnung (unitäre Einheit U2), die in 15 veranschaulicht ist, als zu einer Filteranordnung (unitäre Einheit U20), die in 16 veranschaulicht ist, äquivalent angesehen werden. Bei der folgenden Demosaicing-Verarbeitung im NBI-Modus wird die in 16 veranschaulichte Filteranordnung verwendet, bei der der Mg-Pixel und der Ye-Pixel als B-Pixel bzw. G-Pixel angesehen werden.
  • In 1 führt die Demosaicing-Verarbeitungseinheit 412 die Demosaicing-Verarbeitung gemäß dem oben beschriebenen Ablaufplan durch, der in 12 veranschaulicht ist. Zunächst unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Interpolationsrichtung unter Verwendung eines Pixelwerts, der vom G-Pixel erzeugt wird, bei dem es sich um einen nicht ausgewählten Pixel handelt, interpoliert G-Komponenten im B-Pixel (Mg-Pixel) als ausgewählten Pixel und Cy-Pixel als nicht ausgewählten Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, wobei jeder Pixel einen Pixelwert oder einen interpolierten Wert der G-Komponente aufweist (Schritt S201 in 12).
  • Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Randrichtung von der bestehenden G-Komponente (Pixelwert) als Interpolationsrichtung und führt die Interpolationsverarbeitung in Bezug auf den B-Pixel und den Cy-Pixel, die als zu interpolierende Objekte dienen, entlang der Interpolationsrichtung durch. Die Demosaicing-Verarbeitungseinheit 412 berechnet einen Signalwert G(x, y) der G-Komponente eines zu interpolierenden Pixels in der Koordinate (x, y) auf Basis der unterschiedenen Randrichtung unter Verwendung der folgenden Formeln (16) bis (20). Die Interpolationsrichtung wird von einer beliebigen der vertikalen Richtung und der horizontalen Richtung unterschieden.
  • (Randrichtung: Vertikale Richtung)
  • Wenn eine Änderung der Luminanz in horizontaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (16), wenn ein zu interpolierender Pixel ein B-Pixel ist und dieser B-Pixel einem G-Pixel in vertikaler Richtung benachbart ist (z. B. B12 in 16). G(x, y) = 1 / 2{G(x, y – 1) + G(x, y + 1)} (16)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (17), wenn ein zu interpolierender Pixel ein B-Pixel ist und dieser B-Pixel einem Cy-Pixel in vertikaler Richtung benachbart ist (z. B. B31 in 16). G(x, y) = 1 / 2{Cy(x, y – 1) + Cy(x, y + 1)} – B(x, y) (17)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (18), wenn ein zu interpolierender Pixel ein Cy-Pixel ist und dieser Cy-Pixel drei G-Pixeln in der Aufwärtsrichtung (negative Richtung) und der Richtung schräg nach unten benachbart ist (z. B. Cy21 in 16). G(x, y) = 1 / 2G(x, y – 1) + 1 / 4{G(x + 1, y + 1) + G(x – 1, y + 1)} (18)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (19), wenn ein zu interpolierender Pixel ein Cy-Pixel ist und dieser Cy-Pixel drei G-Pixeln in der Abwärtsrichtung (positive Richtung) und der Richtung schräg nach oben benachbart ist (z. B. Cy41 in 16). G(x, y) = 1 / 2G(x, y + 1) + 1 / 4{G(x + 1, y – 1) + G(x – 1, y – 1)} (19)
  • (Randrichtung: Horizontale Richtung)
  • Wenn eine Änderung der Luminanz in vertikaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (20). In Formel (20) ist der zu interpolierende Pixel zwischen dem B-Pixel und dem Cy-Pixel gemein. G(x, y) = 1 / 2{G(x – 1, y) + G(x + 1, y)} (20)
  • Nach Durchführung der Interpolationsverarbeitung am G-Signal unter Verwendung der oben beschriebenen Formeln (16) bis (20) erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert B(x, y) der B-Komponente (Luminanzkomponente) des Cy-Pixels unter Verwendung von Formel (7) (Schritt S102 in 12).
  • Nach Erzeugen des B-Signals im Cy-Pixel unter Verwendung der oben beschriebenen Formel (7) interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente (Luminanzkomponente) des G-Pixels (Schritt S103 in 12).
  • [Demosaicing-Verarbeitung im WLI-Modus]
  • Bei diesem modifizierten Beispiel führt die Demosaicing-Verarbeitungseinheit 412 die Demosaicing-Verarbeitung gemäß dem oben beschriebenen Ablaufplan durch, der in 13 veranschaulicht ist, äquivalent angesehen werden. Zunächst unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Interpolationsrichtung unter Verwendung eines Pixelwerts, der vom G-Pixel erzeugt wird, bei dem es sich um den ausgewählten Pixel handelt, interpoliert die G-Komponenten im Cy-Pixel, Mg-Pixel und Ye-Pixel als nicht ausgewählte Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, wobei jeder Pixel den Pixelwert oder den interpolierten Wert der G-Komponente aufweist (Schritt S201 in 13).
  • Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Randrichtung von der bestehenden G-Komponente (Pixelwert) als Interpolationsrichtung und führt die Interpolationsverarbeitung in Bezug auf den Cy-Pixel und den Mg-Pixel, die als zu interpolierende Objekte dienen, entlang der Interpolationsrichtung durch. Die Demosaicing-Verarbeitungseinheit 412 berechnet einen Signalwert G(x, y) der G-Komponente eines zu interpolierenden Pixels in der Koordinate (x, y) auf Basis der unterschiedenen Randrichtung unter Verwendung der folgenden Formeln (21) bis (29). Die Interpolationsrichtung im WLI-Modus wird von einer beliebigen der vertikalen Richtung und der horizontalen Richtung unterschieden.
  • (Randrichtung: Vertikale Richtung)
  • Wenn eine Änderung der Luminanz in horizontaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (21), wenn ein zu interpolierender Pixel ein Cy-Pixel oder ein Ye-Pixel ist und dieser Pixel drei G-Pixeln in der Aufwärtsrichtung (negative Richtung) und der Richtung schräg nach unten benachbart ist (z. B. Cy21 oder Ye42 in 15). G(x, y) = 1 / 2G(x, y – 1) + 1 / 4{G(x – 1, y + 1) + G(x + 1, y + 1)} (21)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (22), wenn ein zu interpolierender Pixel ein Cy-Pixel oder ein Ye-Pixel ist und dieser Pixel drei G-Pixeln in der Abwärtsrichtung (positive Richtung) und der Richtung schräg nach oben benachbart ist (z. B. Cy41 oder Ye22 in 15). G(x, y) = 1 / 2G(x, y + 1) + 1 / 4{G(x – 1, y – 1) + G(x + 1, y – 1)} (22)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (23), wenn ein zu interpolierender Pixel ein Mg-Pixel ist und dieser Mg-Pixel einem Ye-Pixel in vertikaler Richtung benachbart ist und vier Cy-Pixeln in der schrägen Richtung benachbart ist (z. B. Mg12 in 15). G(x, y) = 1 / 4{Ye(x, y – 1) + Ye(x, y + 1)} + 1 / 8{Cy(x – 1, y – 1) + Cy(x + 1, y – 1) + Cy(x – 1, y + 1) + Cy(x + 1, y + 1)} – 1 / 2Mg(x, y) (23)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (24), wenn ein zu interpolierender Pixel ein Mg-Pixel ist und dieser Mg-Pixel einem Cy-Pixel in vertikaler Richtung benachbart ist und vier Ye-Pixeln in der schrägen Richtung benachbart ist (z. B. Mg31 in 15). G(x, y) = 1 / 4{Cy(x, y – 1) + Cy(x, y + 1)} + 1 / 8{Ye(x – 1, y – 1) + Ye(x + 1, y – 1) + Ye(x – 1, y + 1) + Ye(x + 1, y + 1)} – 1 / 2Mg(x, y) (24)
  • (Randrichtung: Horizontale Richtung)
  • Wenn eine Änderung der Luminanz in vertikaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (25), wenn ein zu interpolierender Pixel ein Cy-Pixel ist und dieser Cy-Pixel einem Ye-Pixel in vertikaler Richtung benachbart ist und Mg-Pixeln in der Abwärtsrichtung, in der Richtung schräg nach links oben und in der Richtung schräg nach rechts oben benachbart ist (z. B. Cy21 in 15). G(x, y) = 1 / 2Cy(x, y) + 1 / 4{Ye(x – 1, y) + Ye(x + 1, y)} – 1 / 6{Mg(x – 1, y – 1) + Mg(x + 1, y – 1) + Mg(x, y + 1)} (25)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (26), wenn ein zu interpolierender Pixel ein Cy-Pixel ist und dieser Cy-Pixel einem Ye-Pixel in vertikaler Richtung benachbart ist und Mg-Pixeln in der Aufwärtsrichtung, in der Richtung schräg nach links unten und in der Richtung schräg nach rechts unten benachbart ist (z. B. Cy41 in 15). G(x, y) = 1 / 2Cy(x, y) + 1 / 4{Ye(x – 1, y) + Ye(x + 1, y)} – 1 / 6{Mg(x – 1, y + 1) + Mg(x + 1, y + 1) + Mg(x, y – 1)} (26)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (27), wenn ein zu interpolierender Pixel ein Ye-Pixel ist und dieser Ye-Pixel einem Cy-Pixel in vertikaler Richtung benachbart ist und Mg-Pixeln in der Aufwärtsrichtung, in der Richtung schräg nach links unten und in der Richtung schräg nach rechts unten benachbart ist (z. B. Ye22 in 15). G(x, y) = 1 / 2Ye(x, y) + 1 / 4{Cy(x – 1, y) + Cy(x + 1, y)} – 1 / 6{Mg(x – 1, y + 1) + Mg(x + 1, y + 1) + Mg(x, y – 1)} (27)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (28), wenn ein zu interpolierender Pixel ein Ye-Pixel ist und dieser Ye-Pixel einem Cy-Pixel in vertikaler Richtung benachbart ist und Mg-Pixeln in der Abwärtsrichtung, in der Richtung schräg nach links oben und in der Richtung schräg nach rechts oben benachbart ist (z. B. Ye42 in 15). G(x, y) = 1 / 2Ye(x, y) + 1 / 4{Cy(x – 1, y) + Cy(x + 1, y)} – 1 / 6{Mg(x – 1, y – 1) + Mg(x + 1, y – 1) + Mg(x, y + 1)} (28)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (29), wenn ein zu interpolierender Pixel der Mg-Pixel ist. G(x, y) = 1 / 2{G(x – 1, y) + G(x + 1, y)} (29)
  • Nach Durchführung der Interpolationsverarbeitung am G-Signal unter Verwendung der oben beschriebenen Formeln (21) bis (29) erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert R(x, y) der R-Komponente des Ye-Pixels und einen Signalwert B(x, y) der B-Komponente des Cy-Pixels unter Verwendung der Formel (14) und (15) (Schritt S202 in 13).
  • Nach Erzeugen des R-Signals im Ye-Pixel und des B-Signals im Cy-Pixel unter Verwendung der oben beschriebenen Formeln (14) und (15) interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente und den Signalwert R(x, y) der R-Komponente für alle Pixelpositionen (Schritt S203 in 13).
  • Gemäß dem oben beschriebenen ersten modifizierten Beispiel wird im NBI-Modus, ähnlich der oben beschriebenen Ausführungsform, zunächst das Signal der Nicht-Luminanzkomponente (G-Signal) mittels der Interpolationsverarbeitung vom Richtungsunterscheidungstyp, wie in den Formeln (16) bis (20) gezeigt, interpoliert, um das Signal (B-Signal) der Luminanzkomponente in einer Cy-Pixelposition unter Verwendung des interpolierten G-Signals und Formel (7) zu erzeugen. Schließlich wird die Interpolationsverarbeitung vom Richtungsunterscheidungstyp für das B-Signal durchgeführt. Da die Interpolationsverarbeitung für das B-Signal nach Erzeugen des B-Signals in der Cy-Pixelposition durchgeführt wird, ist es möglich, die Genauigkeit der Richtungsunterscheidungsverarbeitung zu verbessern und sowohl bei dem Weißlichtbildgebungs- als auch beim Schmalbandbildungsverfahren ein hochaufgelöstes Bild zu erhalten.
  • (Zweites modifiziertes Beispiel einer Ausführungsform)
  • Bei der oben beschriebenen Ausführungsform wird die Interpolationsverarbeitung durch Unterscheiden der Interpolationsrichtung unter Verwendung der Formeln (8) bis (13) im WLI-Modus durchgeführt. Beim zweiten modifizierten Beispiel wird YCbCr durch Durchführen einer Additions- oder Subtraktionsverarbeitung an einem benachbarten Signal einer unterschiedlichen Farbe erzeugt und ferner wird ein Farbbild unter Verwendung einer Umwandlung von YCbCr zu RGB erzeugt, wie im internationalen Standard ITU-R BT.709 definiert.
  • Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert Y(x, y) einer Luminanzkomponente, Signalwerte Cb(x, y) und Cr(x, y) von Farbunterschiedskomponenten zwischen Farbkomponenten und der Luminanzkomponente unter Verwendung der folgenden Formeln (30) bis (32). Y(x, y) = 1 / 4{G(x, y) + Mg(x + 1, y) + Cy(x, y + 1) + Ye(x + 1, y + 1)} (30) Cb(x, y) = Mg(x + 1, y) + Cy(x, y + 1) – {G(x, y) + Ye(x + 1, y + 1)} (31) Cr(x, y) = Mg(x + 1, y) + Ye(x + 1, y + 1) – {G(x, y) + Cy(x, y + 1)} (32)
  • Danach führt die Demosaicing-Verarbeitungseinheit 412, wenn sie die Signalwerte Y(x, y), Cb(x, y) und Cr(x, y) erzeugt, die Umwandlung von YCbCr zu RGB unter Verwendung der folgenden Formel (33) durch, um Signalwerte R(x, y), G(x, y) und B(x, y) einer R-Komponente, einer G-Komponente, einer B-Komponente zu erzeugen, und erzeugt ein Farbbild auf Basis der erhaltenen Signalwerte der RGB-Komponenten. R(x, y) = Y(x, y) + 1.5748 × Cr(x, y) G(x, y) = Y(x, y) – 0.1873 × Cb(x, y) – 0.4681 × Cr(x, y) B(x, y) = Y(x, y) + 1.8556 × Cb(x, y) (33)
  • (Drittes modifiziertes Beispiel einer Ausführungsform)
  • Außerdem ist die Farbfilteranordnung nicht auf die oben beschriebene Ausführungsform und dergleichen beschränkt. 17 ist ein schematisches Schaubild, das eine Konfiguration eines Farbfilters gemäß einem dritten modifizierten Beispiel der Ausführungsform veranschaulicht. Bei der oben beschriebenen Ausführungsform ist die Filtereinheit U1 unter Verwendung des Grünfilters (G-Filter), des Magentafilters (Mg-Filter), des Cyanfilters (Cy-Filter) und des Gelbfilters (Ye-Filter) konfiguriert. Beim dritten modifizierten Beispiel umfasst eine Filtereinheit U3 anstatt des Cy-Filters der Filtereinheit U1 einen Weißfilter (W-Filter), der Licht mit dem Wellenlängenband HG, dem Wellenlängenband HB und dem Wellenlängenband HR passieren lässt. Beim dritten modifizierten Beispiel ist ein Pixel einer Luminanzkomponente in einem NBI-Modus ein W-Pixel und ist ein Pixel einer Luminanzkomponente in einem WLI-Modus ein G-Pixel.
  • Da die NBI-Beobachtung sogar bei diesem dritten modifizierten Beispiel als Schmalbandbeleuchtungslichtbildgebung verwendet wird, entspricht der W-Filter dem ersten Filter, der Licht mit den Wellenlängenbändern (Wellenlängenbänder HB und HG) der jeweiligen Luminanzkomponenten bei der Bildgebung mit weißem Beleuchtungslicht passieren lässt, und bei der Schmalbandbeleuchtungslichtbildgebung entsprechen der G-Filter und der Ye-Filter den zweiten Filtern, die Licht mit dem Wellenlängenband (Wellenlängenband HG) der Luminanzkomponente (grüne Komponente) bei der Bildgebung mit weißem Beleuchtungslicht passieren lassen und Licht mit dem Wellenlängenband der Luminanzkomponente (blaue Komponente) bei der Schmalbandbeleuchtungslichtbildgebung blockieren, und entspricht der Mg-Filter dem dritten Filter, der Licht mit dem Wellenlängenband (Wellenlängenband HB) der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt und Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht blockiert.
  • [Demosaicing-Verarbeitung im NBI-Modus]
  • Im NBI-Modus ist es möglich, die Filteranordnung (Filtereinheit U10), die in 11 veranschaulicht ist, zu erwägen. Somit ist es möglich, die Demosaicing-Verarbeitung gemäß der oben beschriebenen Ausführungsform im NBI-Modus anzuwenden.
  • [Demosaicing-Verarbeitung im WLI-Modus]
  • Bei diesem dritten modifizierten Beispiel wird die Demosaicing-Verarbeitung unter Bezugnahme auf den Ablaufplan durchgeführt, der in 13 veranschaulicht ist. Zunächst unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Interpolationsrichtung unter Verwendung eines Pixelwerts, der vom G-Pixel als ausgewählter Pixel erzeugt wird, interpoliert die G-Komponente im W-Pixel, Mg-Pixel und Ye-Pixel als nicht ausgewählte Pixel auf Basis der unterschiedenen Interpolationsrichtung und erzeugt ein Bildsignal, das ein einzelnes Bild erzeugt, wobei jeder Pixel einen Pixelwert oder einen interpolierten Wert der G-Komponente aufweist (Schritt S201).
  • Spezifisch gesagt unterscheidet die Demosaicing-Verarbeitungseinheit 412 eine Randrichtung von der bestehenden G-Komponente (Pixelwert) als Interpolationsrichtung und führt die Interpolationsverarbeitung in Bezug auf den W-Pixel und den Mg-Pixel, die als zu interpolierende Objekte dienen, entlang der Interpolationsrichtung durch. Die Demosaicing-Verarbeitungseinheit 412 berechnet einen Signalwert G(x, y) der G-Komponente eines zu interpolierenden Pixels in der Koordinate (x, y) auf Basis der unterschiedenen Randrichtung.
  • (Randrichtung: Vertikale Richtung)
  • Wenn eine Änderung der Luminanz in horizontaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der oben beschriebenen Formel (8), wenn ein zu interpolierender Pixel der W-Pixel ist.
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der folgenden Formel (34), wenn ein zu interpolierender Pixel der Mg-Pixel ist. G(x, y) = 1 / 4{W(x – 1, y – 1) + W(x + 1, y – 1) + W(x – 1, y + 1) + W(x + 1, y + 1)} – Mg(x, y) (34)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die vertikale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der oben beschriebenen Formel (10), wenn ein zu interpolierender Pixel der Ye-Pixel ist.
  • (Randrichtung: Horizontale Richtung)
  • Wenn eine Änderung der Luminanz in vertikaler Richtung größer als jede Änderung der Luminanz in den anderen drei Richtungen ist, unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung. In diesem Fall berechnet die Demosaicing-Verarbeitungseinheit 412 den Signalwert G(x, y) unter Verwendung der folgenden Formel (35), wenn ein zu interpolierender Pixel der W-Pixel ist. G(x, y) = W(x, y) – 1 / 4{Mg(x – 1, y – 1) + Mg(x + 1, y – 1) + Mg(x – 1, y + 1) + Mg(x + 1, y + 1)} (35)
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der oben beschriebenen Formel (12), wenn ein zu interpolierender Pixel der Mg-Pixel ist.
  • Außerdem unterscheidet die Demosaicing-Verarbeitungseinheit 412 die horizontale Richtung als Randrichtung und berechnet den Signalwert G(x, y) unter Verwendung der oben beschriebenen Formel (13), wenn ein zu interpolierender Pixel der Ye-Pixel ist.
  • Nach Durchführung der Interpolationsverarbeitung am G-Signal unter Verwendung der oben beschriebenen Formel erzeugt die Demosaicing-Verarbeitungseinheit 412 einen Signalwert R(x, y) der R-Komponente des Ye-Pixels und einen Signalwert B(x, y) der B-Komponente des W-Pixels (Schritt S202). Im WLI-Modus fallen die Lichtstrahlen mit den Wellenlängenbändern HR und HG auf den Ye-Pixel. Somit ist es möglich, den Signalwert R(x, y) zu erhalten, der dem Licht mit dem Wellenlängenband HR entspricht, indem der Signalwert G(x, y), der dem Licht mit dem Wellenlängenband HG entspricht, von einem erhaltenen Signalwert Ye(x, y) subtrahiert wird. Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 den Signalwert R(x, y) durch Subtrahieren des Signalwerts (interpolierter Wert) der G-Komponente, die unter Verwendung der oben beschriebenen Formel (14) interpoliert wurde, vom Signalwert Ye(x, y) der Ye-Komponente.
  • Außerdem fallen die Lichtstrahlen mit den Wellenlängenbändern HB, HG, HR auf den W-Pixel. Somit ist es möglich, den Signalwert B(x, y) zu erhalten, der dem Licht mit dem Wellenlängenband HB entspricht, indem der Signalwert G(x, y), der dem Licht mit dem Wellenlängenband HG entspricht, von einem erhaltenen Signalwert W(x, y) subtrahiert wird. Spezifisch gesagt erzeugt die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) durch Subtrahieren des Signalwerts (interpolierter Wert) der G-Komponente, die unter Verwendung der folgenden Formel (36) interpoliert wurde, vom Signalwert W(x, y) der W-Komponente. B(x, y) = W(x, y) – G(x, y) – R(x, y) (36)
  • Der Signalwert R(x, y), der dem Licht mit dem Wellenlängenband HR im W-Pixel entspricht, kann durch eine bekannte bikubische Interpolation unter Verwendung der interpolierten Signalwerte R(x, y) des Mg-Pixels und des Ye-Pixels erhalten werden. Der Signalwert B(x, y) kann durch Subtrahieren des Signalwerts R(x, y), der durch die bikubische Interpolation erhalten wird, und des Signalwerts (wobei der interpolierte Wert umfasst ist) G(x, y) der G-Komponente vom Signalwert W(w, y) erzeugt werden.
  • Nach Erzeugen des R-Signals im Ye-Pixel und des B-Signals im W-Pixel unter Verwendung der oben beschriebenen Formel interpoliert die Demosaicing-Verarbeitungseinheit 412 den Signalwert B(x, y) der B-Komponente und den Signalwert R(x, y) der R-Komponente für alle Pixelpositionen (Schritt S203). Demgemäß wird das Bildsignal mit dem Signalwert (dem Pixelwert, dem interpolierten Wert oder einem Signalwert, der durch die Subtraktion erhalten wird) der G-Komponente (Luminanzkomponente), der B-Komponente und der R-Komponente zumindest für den Pixel erzeugt, der das Bild erzeugt.
  • Die oben beschriebene Filtereinheit im Farbfilter 202a gemäß der oben beschriebenen Ausführungsform umfasst die Filter, die in einer 2-×-2-Matrix oder einer 2-×-4-Matrix angeordnet sind. Es kann jedoch eine andere Matrixanordnung verwendet werden.
  • Bei der oben beschriebenen Ausführungsform ist der Farbfilter 202a, der die Mehrzahl von Filtern umfasst, wobei jeder davon Licht mit dem vordefinierten Wellenlängenband passieren lässt, auf der Lichtaufnahmeoberfläche des Bildsensors 202 bereitgestellt. Die Filter können jedoch auch für jeden Pixel des Bildsensors 202 einzeln bereitgestellt sein.
  • Die Endoskopvorrichtung 1 gemäß der oben beschriebenen Ausführungsform führt ein Wechseln des Beleuchtungslichts, das aus der Beleuchtungseinheit 31 emittiert wird, je nach Einsetzen oder Entfernen des Wechselfilters 31c auf ein beliebiges Licht zwischen dem weißen Beleuchtungslicht und dem Schmalbandbeleuchtungslicht unter Bezugnahme auf das aus der einzelnen Lichtquelle 31a emittierte weiße Licht durch. Es können jedoch zwei Lichtquellen, die das weiße Beleuchtungslicht bzw. das Schmalbandbeleuchtungslicht emittieren, gewechselt werden, so dass ein beliebiges des weißen Beleuchtungslichts und des Schmalbandbeleuchtungslichts emittiert wird. Wenn die zwei Lichtquellen so gewechselt werden, dass sie ein beliebiges des weißen Beleuchtungslichts und des Schmalbandbeleuchtungslicht emittieren, kann die Erfindung auch auf ein Kapselendoskop angewandt werden, das z. B. eine Lichtquelleneinheit, einen Farbfilter und einen Bildsensor umfasst und in ein Individuum eingeführt wird.
  • Der A/D-Wandler 205 ist in der Endoskopvorrichtung 1 gemäß der oben beschriebenen Ausführungsform am distalen Endabschnitt 24 bereitgestellt. Der A/D-Wandler 205 kann jedoch im Prozessor 4 bereitgestellt sein. Außerdem kann die Konfiguration bezüglich der Bildverarbeitung in dem Endoskop 2, einem Steckverbinder, der das Endoskop 2 und den Prozessor 4 verbindet, der Betriebseinheit 22 und dergleichen bereitgestellt sein. Außerdem wird das Endoskop 2, das mit dem Prozessor 4 verbunden ist, in der oben beschriebenen Endoskopvorrichtung 1 unter Verwendung der Identifikationsinformationen oder dergleichen identifiziert, die in der Identifikationsinformationsspeichereinheit 261 gespeichert sind. Eine Identifikationseinheit kann jedoch in einem Verbindungsteil (Steckverbinder) zwischen dem Prozessor 4 und dem Endoskop 2 bereitgestellt sein. Beispielsweise ist ein Stift zur Identifikation (Identifikationseinheit) auf der Seite des Endoskops 2 bereitgestellt, um das mit dem Prozessor 4 verbundene Endoskop 2 zu identifizieren.
  • Auch wenn bei der oben beschriebenen Ausführungsform ein Bewegungsvektor detektiert wird, nachdem eine Synchronisation in Bezug auf die Luminanzkomponente durch eine Bewegungsdetektionsbilderzeugungseinheit 412a durchgeführt wurde, ist die vorliegende Erfindung nicht darauf beschränkt. Eine Konfiguration zum Detektieren eines Bewegungsvektors unter Verwendung eines nicht synchronisierten Luminanzsignals (Pixelwert) kann als weiteres Verfahren verwendet werden. In diesem Fall wird der Pixelwert nicht von einem anderen Pixel (nicht ausgewählter Pixel) als ein ausgewählter Pixel zum Zeitpunkt der Durchführung eines Abgleichs zwischen den gleichfarbigen Pixeln erhalten und somit ist es möglich, die für einen Blockabgleich erforderlichen Betriebskosten zu verringern, auch wenn ein Intervall des Abgleichs beschränkt ist. Hier wird der Bewegungsvektor nur anhand des ausgewählten Pixels detektiert und somit ist es erforderlich, den Bewegungsvektor im nicht ausgewählten Pixel zu interpolieren. Die bekannte bikubische Interpolation kann zu diesem Zeitpunkt als Interpolationsverarbeitung verwendet werden.
  • Gewerbliche Anwendbarkeit
  • Wie oben beschrieben, ist die Endoskopvorrichtung gemäß der vorliegenden Erfindung beim Erhalten eines hochaufgelösten Bilds in einem beliebigen eines Bildgebungsverfahrens mit weißem Beleuchtungslicht und eines Schmalbandbildgebungsverfahrens nützlich.
  • Bezugszeichenliste
  • 1
    ENDOSKOPVORRICHTUNG
    2
    ENDOSKOP
    3
    LICHTQUELLENEINHEIT
    4
    PROZESSOR
    5
    ANZEIGEEINHEIT
    21
    EINFÜHRABSCHNITT
    22
    BETRIEBSEINHEIT
    23
    UNIVERSALKABEL
    24
    DISTALER ENDABSCHNITT
    31
    BELEUCHTUNGSEINHEIT
    31a
    LICHTQUELLE
    31b
    LICHTQUELLENTREIBER
    31c
    WECHSELFILTER
    31d
    ANTRIEBSEINHEIT
    31e
    TREIBER
    31f
    SAMMELLINSE
    32
    BELEUCHTUNGSSTEUEREINHEIT
    41
    BILDVERARBEITUNGSEINHEIT
    42
    EINGABEEINHEIT
    43
    SPEICHEREINHEIT
    44
    STEUEREINHEIT
    201
    OPTISCHES BILDGEBUNGSSYSTEM
    202
    BILDSENSOR
    202a
    FARBFILTER
    203
    LICHTLEITER
    204
    BELEUCHTUNGSLINSE
    205
    A/D-WANDLER
    206
    BILDGEBUNGSINFORMATIONSSPEICHEREINHEIT
    261
    IDENTIFIKATIONSINFORMATIONSSPEICHEREINHEIT
    411
    LUMINANZKOMPONENTENAUSWAHLEINHEIT
    412
    DEMOSAICING-VERARBEITUNGSEINHEIT
    413
    ANZEIGEBILDERZEUGUNGSVERARBEITUNGSEINHEIT
    U1, U2, U3
    FILTEREINHEIT

Claims (9)

  1. Endoskopvorrichtung zum Durchführen einer Bildgebung mit weißem Beleuchtungslicht und einer Schmalbandbeleuchtungslichtbildgebung, wobei die Endoskopvorrichtung umfasst: eine Lichtquelleneinheit, die so konfiguriert ist, dass sie eines von weißem Beleuchtungslicht und Schmalbandbeleuchtungslicht emittiert, wobei das weiße Beleuchtungslicht Licht mit rotem Wellenlängenband, Licht mit grünem Wellenlängenband und Licht mit blauem Wellenlängenband umfasst, wobei das Schmalbandbeleuchtungslicht Licht von zwei Schmalbändern umfasst, die in einem Wellenlängenband einer Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht und einem Wellenlängenband einer Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung umfasst sind; einen Bildsensor, der eine Mehrzahl von Pixeln umfasst, die in einer Matrix angeordnet sind, und der so konfiguriert ist, dass er eine photoelektrische Umwandlung von Licht durchführt, das von jedem der Mehrzahl von Pixeln empfangen wird, um ein elektrisches Signal zu erzeugen; einen Farbfilter, der auf einer Lichtaufnahmeoberfläche des Bildsensors angeordnet und durch Anordnen einer Mehrzahl von Filtereinheiten gebildet ist, wobei jede der Mehrzahl von Filtereinheiten einen ersten Filter, einen zweiten Filter und einen dritten Filter umfasst, wobei der erste Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht und dem Wellenlängenband der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt, der zweite Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht passieren lässt, und wobei der dritte Filter so konfiguriert ist, dass er Licht mit dem Wellenlängenband der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung passieren lässt; und eine Demosaicing-Verarbeitungseinheit, die konfiguriert ist zum: Erzeugen eines Farbbildsignals, das eine Mehrzahl von Farbkomponenten umfasst, auf Basis der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht, wenn die Lichtquelleneinheit das weiße Beleuchtungslicht emittiert; und Durchführen einer Interpolation für einen Pixelwert der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht in einer Position eines Pixels, der dem ersten Filter entspricht, unter Verwendung eines Pixelwerts eines Pixels, der dem zweiten Filter entspricht, wenn die Lichtquelleneinheit das Schmalbandbeleuchtungslicht emittiert, und danach Durchführen einer Interpolation für einen Pixelwert der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung in der Position des Pixels, der dem ersten Filter entspricht, auf Basis eines Pixelwerts des Pixels, der dem ersten Filter entspricht, und des Pixelwerts der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht, wie durch die Interpolation erhalten, wodurch ein Farbbildsignal erzeugt wird, das eine Mehrzahl von Farbkomponenten umfasst.
  2. Endoskopvorrichtung nach Anspruch 1, bei der: die Demosaicing-Verarbeitungseinheit so konfiguriert ist, dass sie die Interpolation für den Pixelwert der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung in der Position des Pixels, der dem ersten Filter entspricht, durch Berechnen eines Unterschieds zwischen dem Pixelwert des Pixels, der dem ersten Filter entspricht, und dem Pixelwert der Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht, wie durch die Interpolation erhalten, durchführt.
  3. Endoskopvorrichtung nach Anspruch 1, bei der: der Farbfilter auf der Lichtaufnahmeoberfläche des Bildsensors angeordnet und durch Anordnen der Mehrzahl von Filtereinheiten gebildet ist, wobei jede der Mehrzahl von Filtereinheiten einen Grünfilter zum Passierenlassen des Lichts mit grünem Wellenlängenband, einen Cyanfilter zum Passierenlassen des Lichts mit grünem Wellenlängenband und des Lichts mit blauem Wellenlängenband, einen Magentafilter zum Passierenlassen des Lichts mit rotem Wellenlängenband und des Lichts mit blauem Wellenlängenband und einen Gelbfilter zum Passierenlassen des Lichts mit rotem Wellenlängenband und des Lichts mit grünem Wellenlängenband umfasst.
  4. Endoskopvorrichtung nach Anspruch 1, bei der: der Farbfilter auf der Lichtaufnahmeoberfläche des Bildsensors angeordnet und durch Anordnen der Mehrzahl von Filtereinheiten gebildet ist, wobei jede der Mehrzahl von Filtereinheiten einen Grünfilter zum Passierenlassen des Lichts mit grünem Wellenlängenband, einen Weißfilter zum Passierenlassen des Lichts mit rotem Wellenlängenband, des Lichts mit grünem Wellenlängenband und mit blauem Wellenlängenband, einen Magentafilter zum Passierenlassen des Lichts mit rotem Wellenlängenband und des Lichts mit blauem Wellenlängenband und einen Gelbfilter zum Passierenlassen des Lichts mit rotem Wellenlängenband und des Lichts mit grünem Wellenlängenband umfasst.
  5. Endoskopvorrichtung nach Anspruch 1, bei der: die Lichtquelleneinheit so konfiguriert ist, dass sie das Schmalbandbeleuchtungslicht, das das Licht der zwei Schmalbänder umfasst, die in blauen bzw. grünen Wellenlängenbändern umfasst sind, während der Schmalbandbildgebung emittiert.
  6. Endoskopvorrichtung nach Anspruch 5, bei der: die Luminanzkomponente bei der Bildgebung mit weißem Beleuchtungslicht eine grüne Komponente ist und die Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung eine blaue Komponente ist, und wenn die Lichtquelleneinheit das Schmalbandbeleuchtungslicht emittiert, die Demosaicing-Verarbeitungseinheit so konfiguriert ist, dass sie einen Pixelwert der blauen Komponente erzeugt, nachdem die Interpolation für einen Pixelwert der grünen Komponente durchgeführt wurde.
  7. Endoskopvorrichtung nach Anspruch 1, bei der: wenn die Lichtquelleneinheit das weiße Beleuchtungslicht emittiert, die Demosaicing-Verarbeitungseinheit so konfiguriert ist, dass sie eine Additions- und Subtraktionsverarbeitung unter Verwendung von Signalwerten unterschiedlicher Farbkomponenten benachbarter Pixel durchführt, wodurch das Farbbildsignal erzeugt wird, das die Mehrzahl von Farbkomponenten umfasst.
  8. Endoskopvorrichtung nach Anspruch 1, bei der: die Demosaicing-Verarbeitungseinheit so konfiguriert ist, dass sie eine Interpolationsrichtung von einem Signalwert einer gleichen Farbkomponente umgebender Pixel unterscheidet und die Interpolation entlang der unterschiedenen Interpolationsrichtung durchführt.
  9. Endoskopvorrichtung nach Anspruch 1, bei der: der erste und der dritte Filter zum Passierenlassen des Lichts mit dem Wellenlängenband der Luminanzkomponente bei der Schmalbandbeleuchtungslichtbildgebung in einem Schachbrettmuster im Farbfilter angeordnet sind.
DE112014007038.6T 2014-11-28 2014-11-28 Endoskopvorrichtung Withdrawn DE112014007038T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/081646 WO2016084257A1 (ja) 2014-11-28 2014-11-28 内視鏡装置

Publications (1)

Publication Number Publication Date
DE112014007038T5 true DE112014007038T5 (de) 2017-08-10

Family

ID=56073860

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014007038.6T Withdrawn DE112014007038T5 (de) 2014-11-28 2014-11-28 Endoskopvorrichtung

Country Status (5)

Country Link
US (1) US20170251915A1 (de)
JP (1) JPWO2016084257A1 (de)
CN (1) CN107005683A (de)
DE (1) DE112014007038T5 (de)
WO (1) WO2016084257A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015005595T5 (de) * 2015-01-20 2017-09-28 Olympus Corporation Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
CN109414158A (zh) * 2016-06-29 2019-03-01 奥林巴斯株式会社 内窥镜
JP2018192043A (ja) * 2017-05-18 2018-12-06 オリンパス株式会社 内視鏡及び内視鏡システム
JPWO2019069414A1 (ja) * 2017-10-04 2020-11-05 オリンパス株式会社 内視鏡装置、画像処理方法およびプログラム
WO2020026323A1 (ja) * 2018-07-31 2020-02-06 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7235540B2 (ja) * 2019-03-07 2023-03-08 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP2022080732A (ja) * 2020-11-18 2022-05-30 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7030917B2 (en) * 1998-10-23 2006-04-18 Hewlett-Packard Development Company, L.P. Image demosaicing and enhancement system
CA2581656A1 (en) * 2003-09-26 2005-04-07 Tidal Photonics, Inc. Apparatus and methods relating to color imaging endoscope systems
DE602005026825D1 (de) * 2004-08-30 2011-04-21 Olympus Co Endoskop
US8274715B2 (en) * 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
JP4501855B2 (ja) * 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP4847250B2 (ja) * 2006-08-03 2011-12-28 オリンパスメディカルシステムズ株式会社 内視鏡装置
KR100818987B1 (ko) * 2006-09-19 2008-04-04 삼성전자주식회사 이미지 촬상 장치 및 상기 이미지 촬상 장치의 동작 방법
US8498695B2 (en) * 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy
JP4895834B2 (ja) * 2007-01-23 2012-03-14 Hoya株式会社 画像処理装置
KR101441432B1 (ko) * 2008-02-11 2014-09-17 삼성전자주식회사 이미지 센서
KR101534547B1 (ko) * 2008-11-24 2015-07-08 삼성전자주식회사 이미지 센서 및 이를 포함하는 시스템
US20100165087A1 (en) * 2008-12-31 2010-07-01 Corso Jason J System and method for mosaicing endoscope images captured from within a cavity
CN101785655B (zh) * 2009-01-23 2012-02-01 北京大学 一种生物体内的图像采集装置
EP2441374B1 (de) * 2009-06-10 2016-11-16 Olympus Corporation Kapselendoskopvorrichtung
JP5454075B2 (ja) * 2009-10-20 2014-03-26 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5452242B2 (ja) * 2010-01-15 2014-03-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
JP5346856B2 (ja) * 2010-03-18 2013-11-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法及び撮像装置
WO2011162099A1 (ja) * 2010-06-24 2011-12-29 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5550574B2 (ja) * 2011-01-27 2014-07-16 富士フイルム株式会社 電子内視鏡システム
US8698885B2 (en) * 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
JP2012170639A (ja) * 2011-02-22 2012-09-10 Fujifilm Corp 内視鏡システム、および粘膜表層の毛細血管の強調画像表示方法
JP5709131B2 (ja) * 2011-05-11 2015-04-30 国立大学法人東京工業大学 画像処理システム
JP5784383B2 (ja) * 2011-06-20 2015-09-24 オリンパス株式会社 電子内視鏡装置
US9277205B2 (en) * 2012-05-14 2016-03-01 Intuitive Surgical Operations, Inc. Single-chip sensor multi-function imaging
JP5847017B2 (ja) * 2012-05-28 2016-01-20 富士フイルム株式会社 電子内視鏡装置及びその作動方法
JP5932748B2 (ja) * 2013-09-27 2016-06-08 富士フイルム株式会社 内視鏡システム
JP5881658B2 (ja) * 2013-09-27 2016-03-09 富士フイルム株式会社 内視鏡システム及び光源装置

Also Published As

Publication number Publication date
WO2016084257A1 (ja) 2016-06-02
JPWO2016084257A1 (ja) 2017-10-05
CN107005683A (zh) 2017-08-01
US20170251915A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
DE112014007038T5 (de) Endoskopvorrichtung
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
JP5968944B2 (ja) 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
DE102004006260B4 (de) Videoendoskopeinrichtung
WO2014125724A1 (ja) 内視鏡装置
DE112015005531T5 (de) Bildverarbeitungsvorrichtung, Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, Programm zum Betreiben einer Bildverarbeitungsvorrichtung und Endoskopeinrichtung
DE112015005595T5 (de) Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
WO2015093295A1 (ja) 内視鏡装置
JPWO2016114231A1 (ja) 内視鏡システム
JP2015116328A (ja) 内視鏡装置
DE112016000094B4 (de) Vorrichtung zur Berechnung von Analysewerten und elektronisches Endoskopsystem
CN107205629A (zh) 图像处理装置和摄像系统
JPWO2019069414A1 (ja) 内視鏡装置、画像処理方法およびプログラム
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
DE112017002933B4 (de) Elektronische Endoskopverarbeitungseinrichtung und elektronisches Endoskopsystem
DE112015002169T5 (de) Endoskopvorrichtung
DE112016007230T5 (de) Endoskopsonde, Endoskopprozessor und Endoskopadapter
US20200037865A1 (en) Image processing device, image processing system, and image processing method
DE112016001722T5 (de) Endoskopsystem und Bewertungswert-Berechnungsvorrichtung
JP2015047440A (ja) プロセッサ
JPWO2019175991A1 (ja) 画像処理装置、内視鏡システム、画像処理方法およびプログラム
WO2021192644A1 (ja) 内視鏡及び内視鏡システム
JP6681971B2 (ja) プロセッサ及び内視鏡システム

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee