DE102004006260A1 - Videoendoskopeinrichtung - Google Patents

Videoendoskopeinrichtung Download PDF

Info

Publication number
DE102004006260A1
DE102004006260A1 DE102004006260A DE102004006260A DE102004006260A1 DE 102004006260 A1 DE102004006260 A1 DE 102004006260A1 DE 102004006260 A DE102004006260 A DE 102004006260A DE 102004006260 A DE102004006260 A DE 102004006260A DE 102004006260 A1 DE102004006260 A1 DE 102004006260A1
Authority
DE
Germany
Prior art keywords
image data
color
image
light
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102004006260A
Other languages
English (en)
Other versions
DE102004006260B4 (de
Inventor
Hiroyuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Publication of DE102004006260A1 publication Critical patent/DE102004006260A1/de
Application granted granted Critical
Publication of DE102004006260B4 publication Critical patent/DE102004006260B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Eine Videoendoskopeinrichtung umfasst eine Lichtquelleneinheit (3), die abwechselnd Weißlicht und Anregungslicht abgibt, ein Videoendoskop (1), das einen Farbbildsensor (15) und einen Lichtleiter (13) hat, der das Licht von der Lichtquelleneinheit (3) zum distalen Ende eines Endoskopeinführrohrs leitet, einen Datenerfassungsteil (21, 22), der Normalbilddaten während der Abgabe des Weißlichtes und Anregungsbilddaten während der Abgabe des Anregungslichtes erfasst, einen ersten (31, 32, 33, 34, 35) und einen zweiten Bildprozessor (41, 42, 43, 44) sowie einen Datenerzeugungsteil (51). Der erste Bildprozessor (31, 32, 33, 34, 35) verarbeitet nur die Normalbilddaten. Der zweite Bildprozessor (31, 32, 33, 34) extrahiert Referenzbilddaten aus den Normalbilddaten, extrahiert Fluoreszenzbilddaten aus den Anregungsbilddaten und erzeugt eine Zielinformation. Der Datenerzeugungsteil (51) erzeugt Bilddaten zur Darstellung eines Spezialbildes, indem er die Normalbilddaten an Hand der Zielinformation umwandelt.

Description

  • Die Erfindung betrifft eine Videoendoskopeinrichtung, mit der das Innere von Körperkavitäten, z.B. des Magens, des Darms oder des Bronchus betrachtet werden kann.
  • Durch Bestrahlen mit Licht einer bestimmten Wellenlänge wird lebendes Gewebe zur Abgabe von Fluoreszenzstrahlung veranlasst. Die Intensität von Fluoreszenzstrahlung, die von abnormem Gewebe, das von einer Schädigung wie einem Tumor oder Krebs befallen ist, abgegeben wird, ist kleiner als die von normalen Gewebe abgegebene Fluoreszenzstrahlung. Dieses Phänomen tritt auch in subkutanem Gewebe auf, das unter der Körperkavitätwand legt.
  • Die Japanische Patentveröffentlichung P2000-023903A, offenbart eine Videoendoskopeinrichtung, die das oben beschriebene Phänomen nutzt, um Abnormalitäten in subkutanem Gewebe unter einer Körperkavitätwand aufzufinden. Eine Videoendoskopeinrichtung dieser Art stellt ein zu betrachtendes Normalbild und ein zu berachtendes Spezialbild auf einem Sichtgerät oder Monitor dar. Das Normalbild ist ein Farbbild der Körperkavitätwand. Das Spezialbild zeigt auf einem einfarbigen Bild (Schwarz/Weiß-Bild) der Körperkavitätwand einen befallenen Bereich in einer vorbestimmten Farbe, z.B. rot.
  • Um das Normalbild auf dem Monitor darzustellen, bestrahlt die Videoendoskopeinrichtung die Körperkavitätwand durch das Videoendoskop mit Weißlicht und nimmt mit dem Videoendoskop Farbbilder der Körperkavitätwand auf, um Farbbilddaten des Normalbildes zu erzeugen. Wird dagegen die Videoendoskopeinrichtung so betrieben, dass das Spezialbild auf dem Monitor dargestellt wird, so gibt die Einrichtung abwechselnd sichtbares Licht (Referenzlicht) innerhalb eines vorbestimmten schmalen Wellenlängenbandes und Anregungslicht aus, um das lebende Gewebe anzuregen. Die Videoendoskopeinrichtung spezifiziert die Positionen der Pixel, die als befallene Bereiche dargestellt werden sollen, indem sie Fluoreszenzbilddaten, die während der Bestrahlung mit Anregungslicht aufgenommen werden, und Referenzbilddaten, die während der Beleuchtung mit Referenzlicht aufgenommen werden, miteinander vergleicht. Die Videoendoskopeinrichtung erzeugt dann Farbbilddaten, um auf Grundlage der Referenzbilddaten ein einfarbiges Bild (Schwarz/Weiß-Bild) darzustellen.
  • Da das Referenzlicht einen schmalen Wellenlängenbereich aufweist, zeigen die auf Grundlage der Referenzbilddaten erzeugten Farbbilddaten ein einfarbiges Bild, nicht ein Vollfarbbild. In diesem Prozess werden die Referenzbilddaten in ein Farbbildformat, z.B. in Form von RGB-Komponentenbilddaten gewandelt.
  • Daraufhin wandelt die Videoendoskopeinrichtung die Farbe der spezifizierten Pixel in den Farbbilddaten in die Farbe Rot, wodurch Spezialbilddaten erzeugt werden. Das erzeugte Spezialbild liegt in Form von zwei Farbbilddaten vor, bei denen die roten Teile auf dem einfarbigen Schwarz/Weiß-Hintergrund vorhanden sind.
  • Unterdessen ist es erforderlich geworden, das Bild einer Körperkavitätwand, d.h. den Hintergrund, in dem Spezialbild als Vollfarbbild und nicht nur als einfarbiges Bild betrachten zu können. Um diesem Erfordernis zu genügen, können die die befallenen Bereiche darstellenden Pixel auf dem normalen Beobachtungsbild angezeigt werden.
  • Da jedoch die Referenzbilddaten und die Fluoreszenzbilddaten die befallenen Bereiche spezifizieren müssen und es für die Normalbilddaten berforderlich ist, Farbbilddaten nach dem herkömmlichen Verfahren aufzunehmen, müssen das Referenzlicht, das Anregungslicht und das Weißlicht die Körperkavität sequenziell innerhalb eines Zyklus beleuchten, um ein einziges Einzelbild der Spezialbilddaten in Form von Farbbilddaten zu erzeugen. Dies bedeutet, dass der Zyklus in drei Zeitabschnitte unterteilt werden muss.
  • Da die auf das einfarbige Spezialbild bezogenen Bilddaten durch Vergleich der Referenzbilddaten und der Fluoreszenzbilddaten erzeugt wird, beleuchten das Referenzlicht und das Anregungslicht sequenziell die Körperkavität innerhalb eines Zyklus. Dies bedeutet, dass der Zyklus in zwei Zeitabschnitte unterteilt ist. Da der auf ein Einzelbild bezogene Zyklus fest ist, reicht die Akkumulationszeit des Bildsensors für die jeweiligen Lichttypen nicht aus, wenn der Zyklus in drei Zeitabschnitte unterteilt ist.
  • Infolgedessen nehmen die Helligkeitswerte der Normalbilddaten, der Referenzbilddaten und der Fluoreszenzbilddaten insgesamt ab.
  • Die reduzierten Helligkeitswerte führen zu einem Fehler beim Vergleich der Referenzbilddaten und der Fluoreszenzbilddaten, wodurch das Problem auftritt, dass es zu einer Ungleichheit zwischen den tatsächlichen befallenen Bereichen und den dargestellten befallenen Bereichen kommt.
  • Aufgabe der Erfindung ist es, eine verbesserte Videoendoskopeinrichtung anzugeben, mit der das Spezialbild einer Körperkavitätwand, das abnorme Teile in einer speziellen Farbe auf einem Hintergrundbild darstellt, als Farbbild betrachtet werden kann, ohne dass es zu einer Abnahme an Helligkeit von auf Normalbilddaten, Referenzbilddaten und Fluoreszenzbilddaten bezogenen Pixeln kommt.
  • Die Erfindung löst diese Aufgabe durch den Gegenstand des Anspruchs 1. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Die Normalbilddaten werden von dem ersten und dem zweiten Bildverarbeitungsteil empfangen, und der zweite Bildverarbeitungsteil extrahiert Referenzbilddaten zum Erzeugen der Zielinformation aus den Normalbilddaten. Dadurch wird es überflüssig, einen Zeitabschnitt zur Beleuchtung mit Referenzlicht in einem Zyklus bereitzustellen, der der Erfassung eines Einzelbildes (Frame) des Spezialbildes bestimmt ist. Dadurch steht genügend Akkumulationszeit für das an der Körperkavitätwand reflektierte Weißlicht und das von der Körperkavitätwand ausgesendete Fluoreszenzlicht an dem Bildsensor zur Verfügung. Dadurch kann verhindert werden, dass die Helligkeitswerte der Pixel in dem von dem ersten Verarbeitungsteil ausgegebenen Normalbilddaten und der von dem zweiten Verarbeitungsteil ausgegebenen Referenzbilddaten herabgesetzt werden. Dadurch können Fehler vermieden werden, die bei dem zur Erfassung der Zielinformation angestellten Vergleich der Referenzbilddaten mit den Fluoreszenzbilddaten auftreten.
  • Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
  • 1 ein Blockdiagramm einer erfindungsgemäßen Videoendoskopeinrichtung als Ausführungsbeispiel,
  • 2 ein Blockdiagramm eines in der Einrichtung nach 1 enthaltenen Bildprozessors, und
  • 3 einen Graphen, der die spektrale Empfindlichkeit eines als Farbbereichsensor arbeitenden Bildsensors zeigt.
  • Im Folgenden wird unter Bezugnahme auf die Figuren ein Ausführungsbeispiel der Erfindung beschrieben.
  • 1 zeigt ein Blockdiagramm einer Videoendoskopeinrichtung als Ausführungsbeispiel. Die Videoendoskopeinrichtung hat ein Videoendoskop 1, eine Systemsteuerung 2, eine Lichtquelleneinheit 3, einen Video- oder Bildprozessor 4 und einen Monitor 5.
  • Das Videoendoskop 1, das in 1 nicht in allen seinen Einzelheiten gezeigt ist, hat ein flexibles Einführrohr, das in einen lebenden Körper eingeführt werden kann. Am distalen Ende des flexiblen Einführrohrs des Videoendoskops 1 ist ein Biegemechanismus montiert. Am proximalen Ende des flexiblen Einführrohrs sind Winkelknöpfe zur Fernbetätigung des Biegemechanismus sowie verschiedenartige Schalter montiert. An der Stirnfläche des flexiblen Einführrohrs sind mindestens zwei Durchgangslöcher ausgebildet, in denen eine Zerstreuungslinse 11 bzw. eine Objektivlinse 12 eingebaut sind.
  • Durch das flexible Einführrohr des Videoendoskops 1 ist ein Lichtleiter 13 geführt. Der Lichtleiter 13 besteht aus einer großen Zahl an flexiblen Lichtleitfasern, die eine Übertragung von sichtbarem Licht und ultraviolettem Licht ermöglichen. Die distale Stirnfläche des Lichtleiters 13 ist der Zerstreuungslinse 11 zugewandt, während sein proximales Ende in die Lichtquelleneinheit 3 eingesetzt ist.
  • Durch das flexible Einführrohr ist ferner eine Signalleitung 14 geführt. Das proximale Ende der Signalleitung 14 ist an den Bildprozessor 4 angeschlossen, während ihr distales Ende an einen Bildsensor 15 angeschlossen ist, der in einer Bildebene der Objektivlinse 12 angeordnet ist. Das von dem Bildsensor 15 ausgegebene Ausgangssignal wird von dem Bildprozessor 4 über die Signalleitung 14 empfangen.
  • Der Bildsensor 15 ist ein aus einer einzelnen Platte bestehender Farbbereichsensor, der ein auf seiner Bildaufnahmefläche erzeugtes Bild in Bildsignale wandelt. Der Bildsensor 15 ist eine weitläufig einsetzbare Vorrichtung, die im Folgenden kurz beschrieben wird. Der Bildsensor 15 hat eine große Zahl an Fotodioden oder Pixeln, die eine zweidimensionale Anordnung bilden, eine ladungsgekoppelte Vorrichtung (CCD) zur Übertragung der in den jeweiligen Fotodioden akkumulier ten elektrischen Ladung, eine Ladungserfassungsvorrichtung zum Wandeln der empfangenen elektrischen Ladung in eine Spannung, die als Signal ausgegeben wird, und eine Ausgabeschaltung, die u.a. eine Korrelations-Doppelabtastungs-Schaltung enthält. Ferner hat der Bildsensor 15 eine große Zahl an Farbfiltern des Komplementärfarbsystems, die unmittelbar vor den Lichtempfangsflächen der jeweiligen Pixel angeordnet sind. Die Farbfilter bestehen aus vier Arten von monochromatischen Filtern, die Licht der Farbe Magenta (Mg), Licht der Farbe Cyan (Cy), Licht der Farbe Gelb (Ye) bzw. Licht der Farbe Grün (G) durchlassen. Eine solche aus vier Farbfiltern bestehende Filtereinheit ist jeweils einer aus vier einander benachbarten Pixeln bestehenden Gruppe zugeordnet. Ein System aus derart angeordneten Farbfiltern wird auch als sequenzielles Teilbild-Farbdifferenz-System bezeichnet. Bei diesem System ist die CCD des Bildsensors 15 ausgebildet, die Ladung in der Weise zu übertragen, dass die Ladungen zweier benachbarter, in einer vorbestimmten Richtung angeordneter Pixel addiert werden. Der Bildsensor 15 gibt demnach sequenziell ein Signal aus, dessen Pegel gleich der Summe der Helligkeitspegel zweier Pixel ist.
  • Der Bildsensor 15 gibt dabei zwei Arten von zusammengesetzten Signalen aus. Das erste zusammengesetzte Signal stellt abwechselnd die Summe der Helligkeitspegel eines Magenta-Pixels (Pixel hinter dem das Magenta-Licht durchlassenden Filter) und eines Gelb-Pixels (Pixel hinter dem das Gelb-Licht durchlassenden Filter) und die Summe der Helligkeitspegel eines Grün-Pixels (Pixel hinter dem das Grün-Licht durchlassenden Filter) und eines Cyan-Pixels (Pixel hinter dem das Cyan-Licht durchlassenden Filter) dar. Das zweite zusammengesetzte Signal stellt abwechselnd die Summe der Helligkeitspegel eines Magenta-Pixels und eines Cyan-Pixels und die Summe der Helligkeitspegel eines Grün-Pixels und eines Gelb-Pixels dar. Nimmt man an, dass die Helligkeitspegel der Magenta-, Gelb-, Grün- und Cyan-Pixel durch die Größen Bmg, BYe, BG bzw. BCy dargestellt sind, so ergibt sich das erste zusammengesetzte Signal aus (Bmg + BYe, BG + BCy, Bmg + BYe, BG + BCy,...) und das zweite zusammengesetzte Signal aus (Bmg + BCy, BG + BYe, Bmg + BCy, BG + BYe,...).
  • Die Systemsteuerung 2 erzeugt verschiedene Referenzsignale und steuert die Lichtquelleneinheit 3 und den Bildprozessor 4 durch diese Referenzsignale.
  • Die Systemsteuerung 2 wechselt den Beobachtungsmodus zwischen einem Normalmodus und einem Spezialmodus, wenn die Bedienperson einen an einem Bedienfeld (nicht gezeigt) montierten Wähler umschaltet. Die Systemsteuerung 2 sendet entsprechend dem gerade gewählten Beobachtungsmodus ein Signal an die Lichtquelleneinheit 3, das den Normalmodus oder den Spezialmodus angibt.
  • Die Lichtquelleneinheit 3 hat eine Lampe zur Ausgabe von Licht, das Weißlicht umfasst, welches den Bereich sichtbaren Lichtes und den Bereich zur Anregung von lebendem Gewebe bestimmten Anregungslichtes (ultraviolettes Licht) vollständig abdeckt. Ferner hat die Lichtquelleneinheit 3 eine Kondensorlinse zum Sammeln des von der Lampe auf die proximale Stirnfläche des Lichtleiters 13 ausgegebenen Lichtes und einen Umschaltmechanismus, der eine Blende sowie Filter enthält, um aus dem von der Lampe abgegebenen Licht abwechselnd das Weißlicht und das Anregungslicht zu extrahieren.
  • Empfängt die Lichtquelleneinheit 3 das den Normalmodus angebende Signal von der Systemsteuerung 2, so gibt sie kontinuierlich das Weißlicht auf die proximale Stirnfläche des Lichtleiters 13 aus. Das einfallende Weißlicht wird durch den Lichtleiter 13 geführt und durch die Zerstreuungslinse 11 zerstreut, um ein vor dem Ende des Videoendoskops 1 angeordnetes Objekt zu beleuchten. Anschließend wird auf der Bildaufnahmefläche des Bildsensors 15 ein Bild des mit dem Weißlicht beleuchteten Objektes erzeugt. Der Bildsensor 15 erzeugt ein Bildsignal und gibt dies als analoges Signal an den Bildprozessor 4 aus. Im Folgenden werden diejenigen Bilddaten, die bei der Ausgabe von Weißlicht aus dem Ende des Videoendoskops 1 aufgenommen werden, als Normalbilddaten bezeichnet.
  • Empfängt die Lichtquelleneinheit 3 das den Spezialmodus angebende Signal von der Systemsteuerung 2, so gibt sie abwechselnd das Weißlicht und das Anregungslicht auf die proximale Stirnfläche des Lichtleiters 13 aus. Das Weißlicht und das Anregungslicht werden durch den Lichtleiter 13 geführt und durch die Zer streuungslinse 11 zerstreut, um abwechselnd das vor dem Ende des Videoendoskops 1 angeordnete Objekt zu beleuchten. Dann erzeugt die Objektivlinse 12 auf der Bildaufnahmefläche des Bildsensors 15 Bilder des mit dem Weißlicht und mit dem Anregungslicht beleuchteten Objektes. Der Bildsensor 15 erzeugt ein Bildsignal und gibt dieses als analoges Signal an den Bildprozessor 4 aus. Im Folgenden werden diejenigen Bilddaten, die bei Ausgabe des Weißlichtes aus dem Ende des Videoendoskops 1 in dem Spezialmodus aufgenommen werden, ebenfalls als Normalbilddaten bezeichnet. Diejenigen Bilddaten, die bei Ausgabe des Anregungslichtes aus dem Ende des Videoendoskops in dem Spezialmodus aufgenommen werden, sind im Folgenden als Anregungsbilddaten bezeichnet.
  • Mit Empfang des den Normalmodus angebenden Signals aus der Systemsteuerung 2 empfängt der Bildprozessor 4 die Normalbilddaten von dem Bildsensor 15. Der Bildprozessor 4 verarbeitet die empfangenen Normalbilddaten in der Weise, dass ein Farbabgleich eingestellt wird oder dergleichen, und gibt die so verarbeiteten Normalbilddaten als analoges Videosignal, z.B. als PAL-Signal oder als NTSC-Signal, an den Monitor 5 aus. Der Monitor 5 stellt das Normalbild auf Grundlage des ihm zugeführten Signals dar.
  • Mit Empfang des den Spezialmodus angebenden Signals von der Systemsteuerung 2 empfängt der Bildprozessor 4 abwechselnd die Normalbilddaten und die Anregungsbilddaten von dem Bildsensor 15. Wie unten beschrieben, erzeugt der Bildprozessor 4 Bilddaten, um das Spezialbild auf Grundlage der Normalbilddaten und der Anregungsbilddaten darzustellen. Dann gibt der Bildprozessor 4 die erzeugten Bilddaten als analoges Videosignal, z.B. als PAL-Signal oder als NTSC-Signal, an den Monitor 5 aus. Der Monitor 5 stellt das Spezialbild auf Grundlage des ihm zugeführten Signals dar.
  • Im Folgenden wird der Bildprozessor 4 unter Bezugnahme auf 2 beschrieben, der ein Blockdiagramm des Bildprozessors 4 zeigt. Der Bildprozessor 4 enthält einen Analog/Digital-Wandler (A/D-Wandler) 21, eine Farbseparationsschaltung 22, eine erste Farbmatrixschaltung 31, eine Farbabgleichsschaltung 32, einen R-Bildspeicher 33, einen G-Bildspeicher 34, einen B-Bildspeicher 35, eine zweite Farbmatrixschaltung 41, einen Referenzbildspeicher 42, einen Fluoreszenzbildspeicher 43, eine Zielinformationsschaltung 44, eine Zusammensetzschaltung 51, einen D/A-Wandler 52 und einen Codierer 53.
  • Unabhängig vom eingestellten Beobachtungsmodus wird das von dem Bildsensor 15 ausgegebene Bildsignal durch den A/D-Wandler 21 aus einem analogen Signalformat in ein digitales Signalformat gewandelt. Das auf die Bilddaten bezogene digitale Signal wird in zwei Farbdifferenzsignale und ein Helligkeitssignal separiert, indem in der Farbseparationsschaltung 22 ein an sich bekannter Additionsprozess und ein an sich bekannter Subtraktionsprozess durchgeführt werden. Da das Verfahren zum Erzeugen dieser drei Signale ein weitläufig eingesetztes Verfahren ist, wird es im Folgenden kurz beschrieben. Die beiden Farbdifterenzsignale (Bmg + BYe – BG – BCy) und (Bmg + BCy – BG – BYe) werden erzeugt, indem die Differenz zweier benachbarter Werte in einem ersten und einem zweiten Teilbildsignal erfasst wird. Das Helligkeitssignal (Bmg + BYe + BG + BCy) wird erzeugt, indem die Summe zweier benachbarter Werte in dem ersten und dem zweiten Teilbildsignal erfasst wird. Auf diese Weise werden die auf die Bilddaten bezogenen digitalen Signale in die beiden Farbdifferenzsignale und das eine Helligkeitssignal separiert. Diese auf die von der Farbseparationsschaltung 22 ausgegebenen Bilddaten bezogenen Signale empfängt die Zusammensetzschaltung 51 in unterschiedlichen Abläufen entsprechend dem gewählten Beobachtungsmodus.
  • In dem Normalmodus gelangen die beiden Farbdifferenzsignale und das eine Helligkeitssignal, die auf die Normalbilddaten bezogen sind und von der Farbseparationsschaltung 22 ausgegeben werden, in die erste Farbmatrixschaltung 31 und nicht in die zweite Farbmatrixschaltung 41. Dagegen gelangen in dem Spezialmodus die beiden Farbdifferenzsignale und das eine Helligkeitssignal, die auf die Normabeobachtungsbilddaten bezogen sind und von der Farbseparationsschaltung 22 ausgegeben werden, sowohl in die erste Farbmatrixschaltung 31 als auch in die zweite Farbmatrixschaltung 41, und die beiden Farbdifferenzsignale und das eine Helligkeitssignal, die auf die Anregungsbilddaten bezogen sind und von der Farbseparationsschaltung 22 ausgegeben werden, gelangen in die zweite Farbmatrixschaltung 41 und nicht in die erste Farbmatrixschaltung 31.
  • Im Folgenden werden die Funktionen der in dem Bildprozessor 4 vorgesehenen Schaltungen in der Reihenfolge der in dem Normalmodus vorgenommenen Bilddatenverarbeitung und anschließend die Funktionen in dem Spezialmodus beschrieben.
  • In dem Normalmodus werden die beiden Farbdifferenzsignale und das Helligkeitssignal, die auf die Normalbilddaten bezogen sind und von der Farbseparationsschaltung 22 ausgegeben werden, der ersten Farbmatrixschaltung 31 zugeführt. Die erste Farbmatrixschaltung 31 erzeugt ein Rot-Komponentensignal (R-Signal), ein Grün-Komponentensignal (G-Signal) und ein Blau-Komponentensignal (B-Signal) auf Grundlage der beiden Farbdifferenzsignale und des Helligkeitssignals. Da das Verfahren zum Erzeugen dieser drei Signale ein weitläufig angewendetes Verfahren ist, wird es im Folgenden kurz beschrieben. Die beiden Farbdifferenzsignale und das Helligkeitssignal werden gemäß der in der vorliegenden Formel (1) angegebenen Umwandlungsdeterminante (Matrix) umgewandelt, um drei Farbkomponentensignale R, G und B zu erzeugen.
  • Figure 00100001
  • In Formel (1) bezeichnet R' ein Farbdifferenzsignal (Bmg + BYe – BG – BCy) und G' das andere Farbdifferenzsignal (Bmg + BCy – BG – BYe) sowie B' das Helligkeitssignal (Bmg + BYe + BG + BCy). In Formel (1) bezeichnet α einen Farbmatrixkoeffizienten, der allgemein durch folgende Formel (2) ausgedrückt werden kann.
  • Figure 00100002
  • In der ersten Farbmatrixschaltung 31 des beschriebenen Ausführungsbeispiels ist der Farbmatrixkoeffizient α z.B. gemäß folgender Formel (3) festgelegt, um drei geeignete Farbkomponentensignale R, G und B auf Grundlage der beiden Farbdifferenzsignale und des Helligkeitssignals zu erzeugen.
  • Figure 00110001
  • Die Farbabgleichsschaltung 32 nimmt an den Normalbilddaten, die von der ersten Farbmatrixschaltung 31 in Form der drei Farbkomponentensignale R, G und B ausgegeben werden, einen Farbabgleich vor. Dieser Farbabgleich ist ein weitläufig eingesetzter Prozess, mit dem das Farbgleichgewicht des mit den Normalbilddaten dargestellten Farbbildes eingestellt wird.
  • Der R-, der G- und der B-Bildspeicher 33, 34 und 35 speichern temporär das R-, das G- bzw. das B-Signal, wenn die Farbabgleichsschaltung 32 die Normalbilddaten in Form der R-, G- und B-Komponentensignale ausgibt. Die Bilddaten der drei Farbkomponenten R, G und B, die in dem R-, dem G- bzw. dem B-Bildspeicher 33, 34, 35 gespeichert sind, werden gleichzeitig in Form der drei Farbkomponentensignale R, G und B ausgegeben, die über die Zusammensetzschaltung 51 in den D/A-Wandler 52 gelangen. Die Zusammensetzschaltung 51 ist in dem Normalmodus nicht in Betrieb, während sie in dem Spezialmodus in Betrieb ist.
  • Gelangen die drei die Normalbilddaten bildenden Farbkomponentensignale in den D/A-Wandler 52, so wandelt dieser das digitale Signal in ein analoges Signal, das dem Codierer 53 zugeführt wird. Der Codierer 53 wandelt die drei auf die Normalbilddaten bezogenen Farbkomponentensignale R, G und B in ein Videosignal, z.B. ein PAL-Signal oder ein NTSC-Signal. Der Codierer 53 gibt das Videosignal an den Monitor 5 aus. Der Monitor 5 stellt das Normalbild auf Grundlage des ihm zugeführten Videosignals dar.
  • In dem Spezialmodus gelangen die Normalbilddaten und die Anregungsbilddaten abwechselnd in die zweite Farbmatrixschaltung 41, und die Normalbilddaten gelangen auch in die erste Farbmatrixschaltung 31. Die beiden Farbdifferenzsignale und das Helligkeitssignal, die auf die Normalbilddaten bezogen sind und der ersten Farbmatrixschaltung 31 zugeführt werden, werden von letzterer verarbeitet. Die Farbkomponentensignale R, G und B, die von der ersten Farbmatrixschaltung 31 ausgegeben werden, werden von der Farbabgleichsschaltung 32 verarbeitet und über den R-, den G- und den B-Bildspeicher 33, 34 und 35 von der Zusammensetzschaltung 51 empfangen, wie dies auch für die Normalbilddaten in dem Normalmodus der Fall ist.
  • Dagegen wandelt die zweite Farbmatrixschaltung 41 die beiden Farbdifterenzsignale und das Helligkeitssignal, die auf die Normalbilddaten bezogen sind, in die drei Farbkomponentensignale R, G und B. Die zweite Farbmatrixschaltung 41 wandelt auch die beiden Farbdifferenzsignale und das Helligkeitssignal, die auf die Anregungsbilddaten bezogen sind, in die drei Farbkomponentensignale R, G und B. Jedoch unterscheidet sich die von der zweiten Farbmatrixschaltung 41 vorgenommene Berechnung für die Normalbilddaten von der für die Anregungsbilddaten.
  • Die zweite Farbmatrixschaltung 41 nimmt an den beiden Farbdifferenzsignalen und dem Helligkeitssignal, die auf die Normalbilddaten bezogen sind, die Berechung an Hand der Umwandlungsdeterminante nach Formel (1) vor, in der der Farbmatrixkoeffizient α beispielsweise nach folgender Formel (4) eingestellt ist.
  • Figure 00120001
  • In diesem Prozess hat von den von der zweiten Farbmatrixschaltung 41 ausgegebenen drei Farbkomponentensignalen R, G und B lediglich das R-Signal einen Wert größer als 0 für die Normalbilddaten. Deshalb gibt die zweite Farbmatrixschaltung 41 das R-Signal aus, wenn die Normalbilddaten verarbeitet werden.
  • Das ausgegebene R-Signal wird in dem Referenzbildspeicher 42 gespeichert. Im Folgenden werden diejenigen Bilddaten, die von dem R-Signal getragen werden und auf das Normalbild bezogen sind, als Referenzbilddaten bezeichnet.
  • Die zweite Farbmatrixschaltung 41 nimmt die Berechnung an den beiden Farbdifferenzsignalen und dem Helligkeitssignal, die auf die Anregungsbilddaten bezogen sind, an Hand der Umwandlungsdeterminante nach Formel (1) vor, in der der Farbmatrixkoeffizient α beispielsweise nach folgender Formel (5) eingestellt ist.
  • Figure 00130001
  • In diesem Prozess hat von den von der zweiten Farbmatrixschaltung 41 ausgegebenen drei Farbkomponentensignalen R, G und B lediglich das G-Signal einen Wert größer als 0 für die Anregungsbilddaten. Deshalb gibt die zweite Farbmatrixschaltung 41 lediglich das G-Signal aus, wenn die Anregungsbilddaten verarbeitet werden. Das ausgegebene G-Signal wird in dem Fluoreszenzbildspeicher 43 gespeichert. Im Folgenden werden diejenigen Bilddaten, die von dem G-Signal getragen und auf die Anregungsbilddaten bezogen sind, als Fluoreszenzbilddaten bezeichnet.
  • Die in dem Referenzbildspeicher 42 gespeicherten Referenzbilddaten und die in dem Fluoreszenzbildspeicher 43 gespeicherten Fluoreszenzbilddaten werden gleichzeitig ausgelesen und der Zielinformationsschaltung 44 zugeführt.
  • Die Zielinformationsschaltung 44 spezifiziert diejenigen Pixel, die in dem Bild als befallene Bereiche, im Folgenden auch als Zielbereiche bezeichnet, dargestellt werden sollen, um die auf die Position dieser Pixel bezogene Information zu erfassen. Diese Information wird im Folgenden auch als Zielinformation bezeichnet. Sind die Referenzbilddaten und die Fluoreszenzbilddaten für ein Einzelbild erfasst, so extrahiert die Zielinformationsschaltung 44 sowohl für die Referenzbilddaten als auch für die Fluoreszenzbilddaten jeweils den maximalen Hellig keitswert und den minimalen Helligkeitswert. Anschließend normiert die Zielinformationsschaltung 44 die Referenzbilddaten und die Fluoreszenzbilddaten über die extrahierten maximalen und minimalen Helligkeitswerte derart, dass der Gradationsbereich und der Pegel der Referenzbilddaten mit den entsprechenden Größen der Fluoreszenzbilddaten übereinstimmen. Daraufhin berechnet die Zielinformationsschaltung 44 für jede Koordinate die Differenz zwischen dem Helligkeitswert eines in den Referenzbilddaten vorhandenen Pixels und dem Helligkeitswert des unter der gleichen Koordinate in den Fluoreszenzbilddaten vorhandenen Pixels, d.h. es wird die Differenz berechnet, indem ein Pixelwert der Fluoreszenzbilddaten von einem Pixelwert der Referenzbilddaten subtrahiert wird. Dann spezifiziert die Zielinformationsschaltung 44 aus sämtlichen Koordinaten diejenigen Koordinaten, deren Differenzen größer als ein vorbestimmter Schwellenwert sind. Die Zielinformationsschaltung 44 gibt die erfasste Zielinformation an die Zusammensetzschaltung 51 aus.
  • Die Zusammensetzschaltung 51 setzt die aus dem R-, G- und B-Bildspeicher 33, 34, 35 ausgelesenen Normalbilddaten und die von der Zielinformationsschaltung 44 ausgegebene Zielinformation zusammen. Dabei wandelt die Zusammensetzschaltung 51 die Werte derjenigen Pixel in den Normalbilddaten, deren Koordinaten durch die Zielinformation angegeben sind, beispielsweise in der Weise um, dass diese Pixel als grün dargestellt werden (für die Gradationswerte dieser Pixel gilt in diesem Fall (R, G, B) = (0, 255, 0)). Die Zusammensetzschaltung 51 gibt die Bilddaten, die durch Zusammensetzen der Normalbilddaten mit der Zielinformation erfasst worden sind, an den D/A-Wandler 52 aus, um auf Grundlage dieser Bilddaten das Spezialbild in dem Format der drei Farbkomponentensignale R, G und B darzustellen.
  • Der D/A-Wandler 52 wandelt die digitalen Spezialbilddaten in das Format eines analogen Signals um. Die so umgewandelten Bilddaten werden dem Codierer 53 zugeführt. Der Codierer 53 wandelt die drei Farbkomponentensignale R, G und B, die auf die Spezialbilddaten bezogen sind, in ein Videosignal um, z.B. in ein PAL-Signal oder ein NTSC-Signal. Das Videosignal wird von dem Codierer 53 an den Monitor 5 ausgegeben. Der Monitor 5 stellt das Spezialbild entsprechend dem zugeführten Videosignal dar.
  • Mit der wie oben aufgebauten Videoendoskopeinrichtung des vorliegenden Ausführungsbeispiels kann eine Bedienperson das Innere einer Körperkavität des Objektes nach folgendem Verfahren betrachten.
  • Zunächst führt die Bedienperson das distale Ende des Videoendoskops 1 in die Körperkavität des Objektes ein und stellt den Normalmodus ein, indem sie einen nicht gezeigten Schalter an einem Bedienfeld entsprechend betätigt. Anschließend wird das Weißlicht kontinuierlich von dem Ende des Videoendoskops 1 abgegeben, und der Bildsensor 15 fängt ein Bild der mit dem Weißlicht beleuchteten Wand der Körperkavität ein. Die Farbseparationsschaltung 22 separiert die so erfassten Normalbilddaten in zwei Farbdifferenzsignale und ein Helligkeitssignal. Die erste Farbmatrixschaltung 31 wandelt die separierten Signale in drei Farbkomponentensignale R, G und B. Die Farbabgleichsschaltung 32 nimmt an den separierten Signalen einen Farbabgleich vor. Die Farbkomponentensignale werden in dem R-, dem G- bzw. dem B-Bildspeicher 33, 34, 35 gespeichert, um deren Zeitgabe, d.h. deren zeitliche Festlegung einzustellen. Der Codierer 53 wandelt die aus den Bildspeichern 33, 34 und 35 ausgelesenen Farbkomponentensignale in das Videosignal und gibt dieses an den Monitor 5 aus. Der Monitor 5 stellt so das farbige Normalbild dar, das den Bereich zeigt, dem das Ende des Videoendoskops 1 zugewandt ist. Die Bedienperson kann so den Zustand der Wand der Körperkavität betrachten, indem sie auf das Normalbild blickt.
  • Weiterhin nutzt die Bedienperson das Spezialbild, um den Teil der Wand der Körperkavität zu betrachten, den sie im Rahmen der Betrachtung des Normalbildes ausgewählt hat. Dabei stellt die Bedienperson durch eine entsprechende Betätigung des an dem Bedienfeld gezeigten Schalters (nicht gezeigt) den Spezialmodus ein. Daraufhin werden das Weißlicht und das Anregungslicht abwechselnd aus dem Ende des Videoendoskops 1 abgegeben, und der Bildsensor 15 fängt abwechselnd ein Bild der mit dem Weißlicht beleuchteten Körperkavitätwand und ein Bild der die Fluoreszenzstrahlungen aussendenden Körperkavitätwand ein. Die Farbseparationsschaltung 22 separiert sowohl die eingefangenen Normalbilddaten als auch die eingefangenen Anregungsbilddaten jeweils in zwei Farbdifferenzsignale und ein Helligkeitssignal. Die erste Farbmatrixschaltung 31 wandelt die zwei Farbdifferenzsignale und das Helligkeitssignal, die auf die Normalbilddaten bezogen sind, in drei Farbkomponentensignale R, G und B. Die Farbabgleichsschaltung 43 nimmt an den Farbkomponentensignalen den Farbabgleich vor. Die Farbkomponentensignale werden in dem R-, dem G- bzw. dem B-Bildspeicher 33, 34, 35 gespeichert. Dagegen extrahiert die zweite Farbmatrixschaltung 41 die Referenzbilddaten aus den beiden Farbdifferenzsignalen und dem Helligkeitssignal, die auf die Normalbilddaten bezogen sind. Der Referenzbildspeicher 42 speichert die extrahierten Referenzbilddaten. Die zweite Farbmatrixschaltung 41 extrahiert die Fluoreszenzbilddaten aus den beiden Farbdifterenzsignalen und dem Helligkeitssignal, die auf die Anregungsbilddaten bezogen sind. Der Fluoreszenzbildspeicher 43 speichert die extrahierten Fluoreszenzbilddaten.
  • Die Zielinformationsschaltung 44 erzeugt die Zielinformation, indem sie die aus dem Referenzbildspeicher 42 ausgelesenen Referenzbilddaten und die aus dem Fluoreszenzbildspeicher 43 ausgelesenen Fluoreszenzbilddaten miteinander vergleicht. Dann setzt die Zusammensetzschaltung 51 das R-, das G- und das B-Signal, das aus dem R-, dem G- bzw. dem B-Bildspeicher 33, 34, 35 ausgelesen wird, mit der Zielinformation zusammen, um Spezialbilddaten zur Darstellung des Spezialbildes zu erzeugen. Die Spezialbilddaten werden von dem D/A-Wandler 52 in ein analoges Signal gewandelt. Dieses analoge Signal wird von dem Codierer 53 in ein Videosignal gewandelt. Der Monitor 5 stellt das Spezialbild desjenigen Bereichs, dem das Ende des Videoendoskops 1 zugewandt ist, als Farbbild dar.
  • Die Bedienperson kann die Kontur und die Unregelmäßigkeit der Körperkavitätwand durch das RGB-Farbbild in dem Spezialbild erkennen. Sie kann diejenigen Bereiche, die mit hoher Wahrscheinlichkeit von einer Schädigung wie einem Tumor oder Krebs befallen sind, an Hand der fleckigen und/oder blockartigen grünen Bereiche in dem Spezialbild erkennen, die dem Gewebe entsprechen, das vergleichsweise schwache Fluoreszenzstrahlung abgibt.
  • Wie oben beschrieben, hat die Videoendoskopeinrichtung in diesem Ausführungsbeispiel einen ersten Kanal zum Verarbeiten der Normalbilddaten und einen zweiten Kanal zum Erzeugen der Zielinformation. Der erste Kanal umfasst die Farbmatrixschaltung 31, die Farbabgleichsschaltung 32 sowie die Bildspeicher 33, 34 und 35 und entspricht dem ersten Bildverarbeitungsteil. Der zweite Kanal umfasst die zweite Farbmatrixschaltung 41, den Referenzbildspeicher 42, den Fluoreszenzbildspeicher 43 sowie die Zielinformationsschaltung 44 und entspricht dem zweiten Bildverarbeitungsteil. In dem Spezialmodus werden die Normalbilddaten beiden Kanälen zugeführt, und der zweite Kanal extrahiert die Referenzbilddaten, die zur Erzeugung der Zielinformation genutzt werden, aus den Normalbilddaten. Dadurch wird es überflüssig, einen Zeitabschnitt für die Beleuchtung mit Referenzlicht in einem Zyklus zur Erfassung eines Einzelbildes oder Frames des Spezialbildes bereitzustellen, wodurch genügend Akkumulationszeit für das an der Körperkavitätwand reflektierte Weißlicht und das von der Körperkavitätwand abgegebene Fluoreszenzlicht an dem Bildsensor 15 zur Verfügung steht. Dadurch kann vermieden werden, dass der Helligkeitswert des jeweiligen Pixels in den Normalbilddaten und den Referenzbilddaten insgesamt herabgesetzt wird. Dadurch können wiederum Fehler vermieden werden, die in dem zur Erfassung der Zielinformation bestimmten Vergleich der Referenzbilddaten mit den Fluoreszenzbilddaten auftreten.
  • Da in dem beschriebenen Ausführungsbeispiel der in das Videoendoskop 1 eingebaute Bildsensor ein Farbbereichssensor ist, ist er in der Lage, das Anregungslicht zu erfassen, das einen die Wellenlänge 365 nm enthaltenden Wellenlängenbereich von einigen Nanometern abdeckt, wie in 3 gezeigt ist. In 3 ist die spektrale Empfindlichkeit des Farbbereichssensors gezeigt. Werden die beiden Farbdifferenzsignale und das Helligkeitssignal in die drei Farbkomponentensignale R, G und B umgewandelt, indem die Berechnung unter Anwendung eines normalen Farbmatrixkoeffizienten α, wie er in der obigen Formel (4) angegeben ist, vorgenommen wird, so mischt sich ein durch das Anregungslicht verursachter Falschanteil in die Farbkomponentensignale, der eine korrekte Wiedergabe der durch das Grün-Komponentensignal übertragenen Fluoreszenzbilddaten erschwert.
  • Da jedoch in dem beschriebenen Ausführungsbeispiel die Werte der Matrixelemente des Farbmatrixkoeffizienten α geeignet eingestellt sind, weist das G-Signal nur die Fluoreszenzkomponente auf, wodurch der Einfluss des durch das Anregungslicht verursachten Falschanteils aus den Fluoreszenzbilddaten beseitigt werden kann. Es ist deshalb nicht erforderlich, ein Bandpassfilter unmittelbar vor der Bildaufnahmefläche des Bildsensors 15 anzuordnen, um das Anregungslicht zu beseitigen.
  • In dem vorliegenden Ausführungsbeispiel bildet die Videoendoskopeinrichtung, welche die Systemsteuerung 2, die Lichtquelleneinheit 3 und den Bildprozessor 4 umfasst, eine Einheit. Die Erfindung ist jedoch nicht auf eine solche Ausführungsform beschränkt. Beispielsweise kann eine Vorrichtung, die die Systemsteuerung 2, die Lichtquelleneinheit 3 und den Bildprozessor 4 enthält, neben einer herkömmlichen Endoskopeinrichtung vorgesehen werden. In diesem Fall ändert die hinzugefügte Systemsteuerung 2 nicht den Beobachtungsmodus, sondern sorgt stets für einen Modus, der dem Spezialmodus entspricht. Außerdem kann an der hinzugefügten Lichtquelleneinheit ein Lichtwellenleiter angebracht werden, der das Weißlicht und das Anregungslicht leitet. Dieser Lichtleiter wird durch einen Instrumentenkanal so eingeführt, dass seine Spitze im Betrieb aus der distalen Stirnfläche des Endoskops heraussteht. Außerdem empfängt der hinzugefügte Bildprozessor 4 von der herkömmlichen Endoskopeinrichtung ausgegebene Bilddaten und führt die Prozesse aus, die den von dem A/D-Wandler 21 und den stromabwärts angeordneten Schaltungen des beschriebenen Ausführungsbeispiels durchgeführten Prozessen entsprechen. In diesem Fall kann das von dem hinzugefügten Videoprozessor 4 ausgegebene Signal von einem Monitor, der an die herkömmliche Endoskopeinrichtung angeschlossen ist, oder von einem anderen Monitor empfangen werden. Im ersten Fall ist eine Umschaltvorrichtung erforderlich, um von dem von dem ursprünglichen Bildprozessor ausgegeben Videosignal der herkömmlichen Endoskopeinrichtung auf das von dem hinzugefügten Bildprozessor 4 ausgegebene Videosignal umzuschalten. Im zweiten Fall kann die Bedienperson zwei Monitore während der Beobachtung nutzen.
  • Wie oben beschrieben, erlaubt es die Erfindung einer Bedienperson, ein Farbbild einer Körperkavitätwand in dem Spezialbild zu betrachten, ohne dass die Helligkeitswerte der Pixel in den Normalbilddaten, den Referenzbilddaten und den Fluoreszenzbilddaten herabgesetzt sind. Außerdem kann der Einfluss eines durch das Anregungslicht verursachten Falschanteils aus den Fluoreszenzbilddaten beseitigt werden, ohne hierzu ein Bandpassfilter vor der Bildaufnahmefläche des Bildsensors zur Beseitigung des Anregungslichtes anordnen zu müssen.

Claims (3)

  1. Videoendoskopeinrichtung, umfassend eine Lichtquelleneinheit (3), die abwechselnd Weißlicht, das den sichtbaren Wellenlängenbereich abdeckt, und Anregungslicht abgibt, das lebendes Gewebe zur Aussendung von Fluoreszenzstrahlung anregt, ein Videoendoskop (1) mit einem Einführrohr, einem Farbbildsensor (15) und einem Lichtleiter (13), der das Weißlicht und das Anregungslicht von der Lichtquelleneinheit (3) zum distalen Ende des Einführrohrs leitet, einen Datenerfassungsteil 21, 22), der Normalbilddaten, die von dem Farbbildsensor (15) bei Abgabe des Weißlichtes aufgenommen werden, und Anregungsbilddaten erfasst, die von dem Farbbildsensor (15) bei Abgabe des Anregungslichtes aufgenommen werden, einen ersten Bildverarbeitungsteil (31, 32, 33, 34, 35), der nur die von dem Datenerfassungsteil erfassten Normalbilddaten verarbeitet, und einen zweiten Bildverarbeitungsteil (41, 42, 43, 44), der auf eine Farbkomponente bezogene Bilddaten als Referenzbilddaten aus den von dem Datenerfassungsteil erfassten Normalbilddaten extrahiert, der auf eine Farbkomponente bezogene Bilddaten als Fluoreszenzbilddaten aus den von dem Datenerfassungsteil erfassten Anregungsbilddaten extrahiert, der die Differenz zwischen einem Helligkeitswert eines Pixels in den Referenzbilddaten und dem Helligkeitswert des auf die gleiche Koordinate bezogenen Pixels in den Fluoreszenzbilddaten für jedes Pixel berechnet und der eine Zielinformation erzeugt, indem er diejenigen Koordinaten spezifiziert, deren Differenzen größer als ein vorbestimmter Schwellenwert ist, einen Datenerzeugungsteil (51), der zur Darstellung eines Spezialbildes bestimmte Bilddaten erzeugt, indem er die Normalbilddaten auf Grundlage der Zielinformation so umwandelt, dass die Werte der durch die Zielinformation spezifizierten Pixel in den Normalbilddaten in einen vorbestimmten Pegelwert umgewandelt werden, der einer vorbestimmten Farbe entspricht, und einen Ausgabeteil (52, 53), der die von dem Erzeugungsteil (51) erzeugten Bilddaten ausgibt.
  2. Videoendoskopeinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der zweite Bildverarbeitungsteil (41, 42, 43, 44) drei Farbkomponentensignale R, G und B an Hand einer Umwandlungsdeterminante berechnet, die in folgender Formel angegeben ist:
    Figure 00210001
    worin R' das eine Farbdifferenzsignal, G' das andere Farbdifterenzsignal, und B' ein Helligkeitssignal ist.
  3. Videoendoskopeinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der zweite Verarbeitungsteil (41, 42, 43, 44) drei Farbkomponentensignale R, G und B an Hand einer Umwandlungsdeterminante berechnet, die in folgender Formel angegebenen ist:
    Figure 00210002
    worin R' das eine Farbdifferenzsignal, G' das andere Farbdifferenzsignal, und B' ein Helligkeitssignal ist.
DE102004006260.9A 2003-02-07 2004-02-09 Videoendoskopeinrichtung Expired - Lifetime DE102004006260B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003030899A JP4394356B2 (ja) 2003-02-07 2003-02-07 電子内視鏡装置
JP2003-030899 2003-02-07

Publications (2)

Publication Number Publication Date
DE102004006260A1 true DE102004006260A1 (de) 2004-08-19
DE102004006260B4 DE102004006260B4 (de) 2015-08-06

Family

ID=32732898

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004006260.9A Expired - Lifetime DE102004006260B4 (de) 2003-02-07 2004-02-09 Videoendoskopeinrichtung

Country Status (3)

Country Link
US (1) US7289140B2 (de)
JP (1) JP4394356B2 (de)
DE (1) DE102004006260B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4151139A1 (de) * 2021-09-16 2023-03-22 XION GmbH Verfahren und vorrichtung zur videoendoskopie mit fluoreszenzlicht

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008110004A (ja) * 2006-10-30 2008-05-15 Pentax Corp 電子内視鏡装置
JP5072404B2 (ja) * 2007-03-28 2012-11-14 Hoya株式会社 蛍光観察電子内視鏡装置
ATE555711T1 (de) * 2007-12-19 2012-05-15 Kantonsspital Aarau Ag Verfahren zur analyse und bearbeitung von fluoreszenzbildern
US8593513B2 (en) 2008-04-02 2013-11-26 Fujifilm Corporation Image capturing apparatus having first and second light reception sections, image capturing method, and computer-readable medium
JP5079576B2 (ja) * 2008-04-02 2012-11-21 富士フイルム株式会社 電子内視鏡システム
US20090316144A1 (en) * 2008-06-20 2009-12-24 Hoya Corporation Device for detecting the condition of an optical filter and illumination device
WO2010044432A1 (ja) * 2008-10-17 2010-04-22 オリンパスメディカルシステムズ株式会社 内視鏡システムおよび内視鏡画像処理装置
JP5283545B2 (ja) * 2009-03-18 2013-09-04 富士フイルム株式会社 内視鏡システムおよび内視鏡用プロセッサ装置
JP5289120B2 (ja) * 2009-03-18 2013-09-11 富士フイルム株式会社 内視鏡システムおよび内視鏡用プロセッサ装置
US9237839B2 (en) * 2009-12-17 2016-01-19 Given Imaging Ltd. Device, system and method for activation, calibration and testing of an in-vivo imaging device
JP5591570B2 (ja) * 2010-03-23 2014-09-17 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP5245022B1 (ja) * 2011-08-15 2013-07-24 オリンパスメディカルシステムズ株式会社 撮像装置
JP6067264B2 (ja) * 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
JP6535435B2 (ja) * 2013-09-04 2019-06-26 Hoya株式会社 プロセッサ及び内視鏡システム
US10117563B2 (en) * 2014-01-09 2018-11-06 Gyrus Acmi, Inc. Polyp detection from an image
DE112015006176T5 (de) 2015-03-19 2017-10-26 Olympus Corporation Endoskopvorrichtung
CN106687023B (zh) 2015-08-13 2018-12-18 Hoya株式会社 评价值计算装置以及电子内窥镜系统
JP6113386B1 (ja) 2015-08-13 2017-04-12 Hoya株式会社 評価値計算装置及び電子内視鏡システム
JP6270967B2 (ja) * 2016-11-17 2018-01-31 Hoya株式会社 画像処理装置及び内視鏡装置
JP6739542B2 (ja) 2016-12-02 2020-08-12 オリンパス株式会社 内視鏡用画像処理装置および内視鏡用画像処理方法
CA2991349C (en) 2017-01-09 2020-07-14 Verathon Inc. Upgradable video laryngoscope system exhibiting reduced far end dimming
TWI653885B (zh) * 2017-03-03 2019-03-11 宏碁股份有限公司 影像輸出方法及影像擷取裝置
DE102017117428B4 (de) * 2017-08-01 2024-07-25 Schölly Fiberoptic GmbH Bildgebendes Verfahren unter Ausnutzung von Fluoreszenz sowie zugehörige Bildaufnahmevorrichtung
JP6681971B2 (ja) * 2018-12-27 2020-04-15 Hoya株式会社 プロセッサ及び内視鏡システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4930516B1 (en) 1985-11-13 1998-08-04 Laser Diagnostic Instr Inc Method for detecting cancerous tissue using visible native luminescence
US5421337A (en) 1989-04-14 1995-06-06 Massachusetts Institute Of Technology Spectral diagnosis of diseased tissue
DE19535114B4 (de) 1994-09-21 2013-09-05 Hoya Corp. Endoskopsystem mit Fluoreszenzdiagnose
DE69938493T2 (de) * 1998-01-26 2009-05-20 Massachusetts Institute Of Technology, Cambridge Endoskop zur erfassung von fluoreszenzbilder
US6371908B1 (en) 1998-05-01 2002-04-16 Asahi Kogaku Kogyo Kabushiki Kaisha Video endoscopic apparatus for fluorescent diagnosis
NZ529432A (en) * 1999-01-26 2005-07-29 Newton Lab Inc Autofluorescence imaging system for endoscopy
JP4317297B2 (ja) * 1999-09-30 2009-08-19 フジノン株式会社 電子内視鏡装置
JP4199510B2 (ja) 2002-09-30 2008-12-17 Hoya株式会社 診断補助用装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4151139A1 (de) * 2021-09-16 2023-03-22 XION GmbH Verfahren und vorrichtung zur videoendoskopie mit fluoreszenzlicht

Also Published As

Publication number Publication date
US20040155957A1 (en) 2004-08-12
US7289140B2 (en) 2007-10-30
JP2004236952A (ja) 2004-08-26
JP4394356B2 (ja) 2010-01-06
DE102004006260B4 (de) 2015-08-06

Similar Documents

Publication Publication Date Title
DE102004006260B4 (de) Videoendoskopeinrichtung
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE102014110131B4 (de) Bildaufnahmevorrichtung
DE602004008376T2 (de) Elektronische Vorrichtung für Endoskop
DE10055725B4 (de) Elektronisches Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE102006001647B4 (de) Bilddatenprozessor und elektronisches Endoskopsystem
DE10141527B4 (de) Videoendoskopsystem
DE112017001021T5 (de) Berechnungssystem
DE10351024B4 (de) Elektronische Endoskopeinrichtung
DE102005045961B4 (de) Verfahren und Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes
DE4136034A1 (de) Endoskopvorrichtung mit einer vielzahl von synchronisierten beleuchtungseinrichtungen
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE10140839A1 (de) Bildaufnahmeelement für ein elektronisches Endoskop
DE102006042670A1 (de) Elektronisches Endoskopsystem
EP1116473A2 (de) Vorrichtung zur Fluoreszensbildgebung
DE102009056428A1 (de) Endoskopsystem mit Abtastfunktion
DE112016004454T5 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE102006038814A1 (de) Elektronisches Endoskop, Endoskoplichtquelleneinheit, Endoskopprozessor und elektronisches Endoskopsystem
EP2932892A1 (de) Bildgebungssystem und verfahren zur fluoreszenz-optischen visualisierung eines objektes
DE112019004880T5 (de) Elektronisches endoskopsystem
DE19919943A1 (de) Videovorrichtung für ein Endoskop zur Fluoreszenzdiagnostik
DE112016004455T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Operationssystem und chirurgischer Faden
DE102013108919A1 (de) Elektronisches Endoskopsystem und Lichtquelle für ein Endoskop
DE112011100495T5 (de) Elektronisches Endoskopsystem

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE MBB, DE

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

R020 Patent grant now final
R071 Expiry of right