DE102007022958A1 - Endoskopprozessor, Computerprogrammprodukt, Endoskopsystem und Endoskopbild-Wiedergabegerät - Google Patents

Endoskopprozessor, Computerprogrammprodukt, Endoskopsystem und Endoskopbild-Wiedergabegerät Download PDF

Info

Publication number
DE102007022958A1
DE102007022958A1 DE102007022958A DE102007022958A DE102007022958A1 DE 102007022958 A1 DE102007022958 A1 DE 102007022958A1 DE 102007022958 A DE102007022958 A DE 102007022958A DE 102007022958 A DE102007022958 A DE 102007022958A DE 102007022958 A1 DE102007022958 A1 DE 102007022958A1
Authority
DE
Germany
Prior art keywords
signal
pixel
image
unit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007022958A
Other languages
English (en)
Inventor
Yosuke Ikemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Publication of DE102007022958A1 publication Critical patent/DE102007022958A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)

Abstract

Ein Endoskopprozessor (20) umfasst eine Signalempfangseinheit, eine Mittelungseinheit (33), eine Differenzeinheit (34), eine Hervorhebungseinheit (35), eine Syntheseeinheit (36) und einen Ausgabeblock (37). Die Signalempfangseinheit empfängt ein von einer Abbildungsvorrichtung (42) erzeugtes Bildsignal. Das Bildsignal beinhaltet mehrere Pixelsignale. Die Mittelungseinheit (33) berechnet einen Signalmittelwert. Die Differenzeinheit (34) berechnet einen Signaldifferenzwert. Die Hervorhebungseinheit (35) berechnet einen Hervorhebungswert, indem sie den Signaldifferenzwert mit einem vorbestimmten Verstärkungsfaktor multipliziert. Die Syntheseeinheit (36) erzeugt ein Bildhervorhebungssignal, in dem das auf ein einzelnes Pixel bezogene Pixelsignal ersetzt ist durch die Summe aus dem auf ein einzelnes Pixel bezogenen Hervorhebungswert und dem Signalmittelwert.

Description

  • Die Erfindung betrifft eine Bildsignalverarbeitung, die es dem Benutzer ermöglicht, ein Zielobjekt in einem mit einem elektronischen Endoskop aufgenommenen Gesamtbild leichter zu erkennen.
  • Ein elektronisches Endoskop, das eine Abbildungsvorrichtung am Ende eines Einführrohrs aufweist, wird zu medizinischen Untersuchungen, industriellen Untersuchungen und dergleichen eingesetzt. Dabei wird Licht aus dem Ende des Einführrohrs ausgesendet, um das zu betrachtende Objekt zu beleuchten. Die Abbildungsvorrichtung nimmt dann ein durch das reflektierte Licht erzeugtes optisches Bild auf, das auf einem Monitor dargestellt wird.
  • Ein medizinisches Endoskop wird häufig dazu eingesetzt, abnormes Gewebe oder eine krankhafte Veränderung innerer Organe zu erkennen. So sieht abnormes Gewebe oder eine krankhafte Veränderung anders aus als gesundes Gewebe. Indem der Benutzer das Gewebe betrachtet, kann er abnormes Gewebe oder eine krankhafte Veränderung identifizieren.
  • Dagegen ist das äußere Erscheinungsbild einer krankhaften Veränderung, die tief unter der Oberfläche eines Organs sitzt, nicht klar gegenüber dem Erscheinungsbild von gesundem Gewebe abgrenzbar. Deshalb ist es häufig schwierig, solch eine Veränderung zu erkennen.
  • Aufgabe der Erfindung ist es, einen Endoskopprozessor, ein Computerprogrammprodukt und Endoskopsystem anzugeben, die es ermöglichen, an einem Bildsignal, das von einem elektronischen Endoskop erzeugt wird, eine Signalverarbeitung in der Weise vorzunehmen, dass eine krankhafte Veränderung in dem dargestellten Bild, das dem Bildsignal entspricht, leicht erkennbar ist.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Weitere Wirkungen und Vorteile der vorliegenden Erfindung werden im Folgenden anhand der Figuren erläutert. Darin zeigen:
  • 1 ein Blockdiagramm, das den inneren Aufbau eines Endoskopsystems mit einem Endoskopprozessor zeigt, der ein Ausführungsbeispiel darstellt;
  • 2 ein Blockdiagramm, das den inneren Aufbau des Bildsignalverarbeitungsblocks zeigt; und
  • 3 ein Flussdiagramm, das einen Prozess zur Bildhervorhebung zeigt, der von dem Bildsignalverarbeitungsblock durchgeführt wird.
  • Beschreibung bevorzugter Ausführungsbeispiele
  • Die Erfindung wird im Folgenden anhand der in den Figuren gezeigten Ausführungsbeispiele beschrieben.
  • 1 zeigt ein Endoskopsystem 10, das einen Endoskopprozessor 20, ein elektronisches Endoskop 40 und einen Monitor 50 enthält. Der Endoskopprozessor 20 ist über nicht gezeigte Verbindungsstücke an das elektronische Endoskop 40 und den Monitor 50 angeschlossen.
  • Im Folgenden wird der Gesamtaufbau des Endoskopsystems 10 kurz dargestellt. In dem Endoskopprozessor 20 ist eine Lichtquelle 21 zum Beleuchten eines nicht gezeigten Objektes untergebracht. Das von der Lichtquelle 21 ausgesendete Licht wird über einen Lichtleiter 41, der in dem elektronischen Endoskop 40 untergebracht ist, auf das Objekt gestrahlt.
  • In dem elektronischen Endoskop 40 ist eine Abbildungsvorrichtung 42, z.B. ein CCD-Bildsensor, montiert. Die Abbildungsvorrichtung 42 nimmt ein Bild des mit dem Beleuchtungslicht bestrahlten Objektes auf. Anschließend erzeugt die Abbildungsvorrichtung 42 ein Bildsignal, das dem eingefangenen Objektbild entspricht. Das Bildsignal wird an den Endoskopprozessor 20 gesendet, in dem an dem Bildsignal eine vorbestimmte Signalverarbeitung vorgenommen wird. Das dieser vorbestimmten Signalverarbeitung unterzogene Bildsignal wird in ein Video-Mischsignal gewandelt und an den Monitor 50 gesendet, auf dem das resultierende Bild dargestellt wird.
  • Im Folgenden werden die einzelnen Komponenten des Endoskopsystems 10 genauer beschrieben. In dem Strahlengang, der von der Lichtquelle 21 zu einer Eintrittsfläche 41a des Lichtleiters 41 führt, sind eine Blende 22 und eine Kondensorlinse 23 montiert. Das Licht, das nahezu vollständig aus parallelen, von der Lichtquelle 21 ausgesendeten Lichtstrahlen besteht, fällt durch die Kondensorlinse 23 gebündelt auf die Eintrittsfläche 41a des Lichtleiters 41.
  • Die Intensität des Lichtes, die auf das Eintrittsende 41a fällt, wird durch Einstellen der Blende 22 gesteuert. Die Blende 22 wird von einem Motor 25 eingestellt. Der Motor 25 wird wiederum von einer Blendenschaltung 24 gesteuert. Die Blendenschaltung 24 ist über eine Systemsteuerung 26 mit einem Bildsignalverarbeitungsblock 30 verbunden. Der Bildsignalverarbeitungsblock 30 erfasst die Größe des in dem eingefangenen Objektbild empfangenen Lichtes anhand des von der Abbildungsvorrichtung 42 erzeugten Bildsignals. Die Blendenschaltung 24 berechnet anhand der Lichtstärke die erforderliche Stellgröße für den Motor 25.
  • Eine Stromversorgungsschaltung 27, welche die Lichtquelle 21 mit Energie speist, ist mit der Systemsteuerung 26 elektrisch verbunden. Die Systemsteuerung 26 gibt an die Stromversorgungsschaltung 27 ein Steuersignal zum Ein- und Ausschalten der Lichtquelle 21 aus. So wird der Beleuchtungszustand (Ein- und Aus-Zustand) der Lichtquelle 21 von der Systemsteuerung 26 eingestellt.
  • Die Systemsteuerung 26 gibt an eine Treiberschaltung 28 ein Treibersignal aus, das zur Ansteuerung der Abbildungsvorrichtung 42 benötigt wird. Die Abbildungsvorrichtung 42, die von der Treiberschaltung 28 angesteuert wird, erzeugt ein Bildsignal, das dem eingefangenen Objektbild entspricht.
  • Die Systemsteuerung 26 steuert den Betrieb des gesamten Endoskopprozessors 20. Auch der Bildsignalverarbeitungsblock 30 wird von der Systemsteuerung 26 in später beschriebener Weise gesteuert.
  • Das Licht, das auf das Eintrittsende 41a fällt, wird über den Lichtleiter 41 an ein Austrittsende 41b übertragen. Das so übertragene Licht beleuchtet einen um das Kopfende des Einführrohrs des Endoskops 40 liegenden Bereich, nachdem es durch eine Zerstreuungslinse 43 getreten ist. Eine Objektivlinse 44 fokussiert ein optisches Bild des beleuchteten Objektes auf die Lichtempfangsfläche der Abbildungsvorrichtung 42.
  • Auf der Lichtempfangsfläche der Abbildungsvorrichtung 42 ist in zwei Dimensionen eine Vielzahl von Pixeln (nicht gezeigt) angeordnet. Jedes Pixel ist von einem Rot-, einem Grün- oder einem Blau-Farbfilter bedeckt. Durch das jeweilige Rot-, Grün- bzw. Blau-Farbfilter kann nur eine rote, eine grüne bzw. eine blaue Lichtkomponente treten. Die Lichtkomponente, die von dem jeweiligen Farbfilter erzeugt wird, fällt auf das Pixel, das von diesem Farbfilter bedeckt ist. Jedes Pixel erzeugt ein Pixelsignal entsprechend der Größe der erfassten Lichtkomponente.
  • Das Bildsignal entsprechend einem einzigen Vollbild (Frame) oder einem einzigen Halb- oder Teilbild (Field), das von der Abbildungsvorrichtung 42 erzeugt wird, umfasst eine Vielzahl von Pixelsignalen, die von den auf der Lichtempfangsfläche angeordneten Pixeln erzeugt werden.
  • Das von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird an den Bildsignalverarbeitungsblock 30 gesendet, der in dem Endoskopprozessor 20 untergebracht ist. Der Bildsignalverarbeitungsblock 30 nimmt an dem Bildsignal eine Normalbildverarbeitung (Standardbildverarbeitung) oder eine zur Bildhervorhebung bestimmte Bildverarbeitung vor, so dass auf dem Monitor 50 ein Normalbild (Standardbild) oder ein hervorgehobenes Bild dargestellt wird. Dabei ist das Normalbild gleich dem aufgenommenen Bild, während das hervorgehobene Bild ein hervorgehobener Teil des Normalbildes ist.
  • Wie in 2 gezeigt, enthält der Bildsignalverarbeitungsblock 30 einen ersten Verarbeitungsblock 31, einen Extraktionsblock 32, einen Mittelungsblock 33, einen Differenzblock 34, einen Hervorhebungsblock 35, einen Syntheseblock 36 und einen zweiten Verarbeitungsblock 37.
  • Bei der Durchführung der hervorhebenden Bildverarbeitung sind der erste Verarbeitungsblock 31, der Extraktionsblock 32, der Mittelungsblock 33, der Differenzblock 34, der Hervorhebungsblock 35, der Syntheseblock 36 und der zweite Verarbeitungsblock 37 in Betrieb, wie später beschrieben wird. Bei der Durchführung der Normalbildverarbeitung sind dagegen nur der erste und der zweite Verarbeitungsblock 31, 37 in Betrieb.
  • Das von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird an den ersten Verarbeitungsblock 31 gesendet. Der erste Verarbeitungsblock 31 führt eine vorbestimmte Signalverarbeitung durch, die eine Farbseparation und eine Farbinterpolation beinhalten.
  • Bei der Farbseparation wird das Bildsignal in Rot-, Grün- und Blau-Signalkomponenten separiert. Diese Signalkomponenten sind Pixelsignale, die entsprechend ihrer jeweiligen spezifischen Stärke an rotem, grünem bzw. blauem Licht eingeordnet sind. Dabei besteht jedes einzelne Pixelsignal nur aus einer einzigen Signalkomponente, nämlich einer Rot-, Grün- oder Blau-Signalkomponente, da jedes Pixel entsprechend dem Farbfilter, von dem es bedeckt ist, direkt nur eine einzige Farbsignalkomponente erzeugen kann.
  • Während der Farbinterpolation werden zusätzlich zu der erzeugten Farbsignalkomponente zwei weitere Farbsignalkomponenten, die jedem Pixelsignal vor der Farbinterpolation inhärent sind, synthetisiert. Beispielsweise werden in einem Pixelsignal, das von einem von einem Grün-Farbfilter bedeckten Pixel erzeugt wird und einer Grün-Signalkomponente besteht, die Rot- und die Blau-Signalkomponente, die zu dem Pixel gehören, synthetisiert, d.h. künstlich erzeugt. Jedes Pixelsignal besteht dann aus allen drei Farbsignalkomponenten.
  • Das analoge Bildsignal wird dann in digitale Bilddaten gewandelt.
  • Bei Durchführung der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an den zweiten Verarbeitungsblock 37 gesendet. Bei der hervorhebenden Bildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an den Extraktionsblock 32 und den Differenzblock 34 gesendet.
  • Der Extraktionsblock 32 ermittelt, ob für ein Gesamtbild die Datenpegel der Rot-, Grün- und Blau-Datenkomponenten für jedes Pixel innerhalb des vorbestimmten Bereichs liegen oder nicht. Die Rot-, Grün- und Blau-Datenkomponenten sind aus den Rot-, Grün- bzw. Blau-Signalkomponenten gewandelte digitale Daten. Der Datenpegel einer jeden Farbdatenkomponente entspricht dem Signalpegel der zugehörigen Farbsignalkomponente.
  • Es werden ein oberer und ein unterer Grenzwert eines vorbestimmten Bereichs für die Rot-Datenkomponente, im Folgenden als HLr bzw. LLr bezeichnet, vorgegeben und in einem nicht gezeigten ROM gespeichert. Entsprechend werden für die Grün-Datenkomponente ein oberer und ein unterer Grenzwert eines vorbestimmten Bereichs, im Folgenden als HLg bzw. LLg bezeichnet, vorgegeben und in dem ROM gespeichert. Schließlich werden für die Blau-Datenkomponente ein oberer und ein unterer Grenzwert eines vorbestimmten Bereichs, im Folgenden als HLb bzw. LLb bezeichnet, vorgegeben und in dem ROM gespeichert. Der Extraktionsblock 32 liest die Werte HLr, LLr, HLg, LLg, HLb und LLb aus dem ROM aus.
  • Der Extraktionsblock 32 extrahiert oder erfasst eine Rot-Datenkomponente, deren Datenpegel in dem Bereich zwischen HLr und LLr liegt. Diese erfasste Rot-Datenkomponente wird an den Mittelungsblock 33 gesendet. Entsprechend erfasst der Extraktionsblock 32 eine Grün-Datenkomponente, deren Datenpegel in dem Bereich zwischen HLg und LLg liegt. Die erfasste Grün-Datenkomponente wird an den Mittelungsblock 33 gesendet. Schließlich erfasst der Extraktionsblock 32 eine Blau-Datenkomponente, deren Datenpegel in dem Bereich zwischen HLb und LLb liegt. Die erfasste Blau-Datenkomponente wird an den Mittelungsblock 33 gesendet.
  • Der Mittelungsblock 33 berechnet den Mittelwert mehrerer Rot-Datenkomponenten, die innerhalb von Bilddaten entsprechend einem einzigen Teilbild oder Vollbild empfangen werden. Dieser Mittelwert wird im Folgenden als Rot-Mittelwert bezeichnet. Entsprechend berechnet der Mittelungsblock 33 den Mittelwert mehrerer Grün-Datenkomponenten, die innerhalb von Bilddaten entsprechend einem einzigen Teilbild oder Vollbild empfangen werden. Dieser Wert wird im Folgenden als Grün-Mittelwert bezeichnet. Schließlich berechnet der Mittelungsblock 33 den Mittelwert mehrerer Blau-Datenkomponenten, die innerhalb von Bilddaten entsprechend einem einzigen Teilbild oder Vollbild empfangen werden. Dieser Mittelwert wird im Folgenden als Blau-Mittelwert bezeichnet. Die dem Rot-, dem Grün- und dem Blau-Mittelwert entsprechenden Daten werden an den Differenzblock 34 und den Syntheseblock 36 gesendet.
  • Wie oben beschrieben, empfängt der Differenzblock 34 auch die Bilddaten. Der Differenzblock 34 berechnet für jedes einzelne Pixel einen Rot-Differenzwert, indem er den empfangenen Rot-Mittelwert von jedem einzelnen sämtlicher Datenpegel der Rot-Datenkomponenten subtrahiert, die in einem diesem Rot-Mittelwert zugehörigen Bilddaten-Vollbild oder -Teilbild enthalten sind. Entsprechend berechnet der Differenzblock 34 für jedes einzelne Pixel den Grün-Differenzwert, indem er den empfangenen Grün-Mittelwert von jedem einzelnen sämtlicher Datenpegel der Grün-Datenkomponenten subtrahiert, die in einem zu dem Grün-Mittelwert zugehörigen Bilddaten-Vollbild oder -Teilbild enthalten sind. Schließlich berechnet der Differenzblock 34 für jedes einzelne Pixel einen Blau-Differenzwert, indem er den empfangenen Blau-Mittelwert von jedem einzelnen sämtlicher Datenpegel der Blau-Datenkomponenten subtrahiert, die in einem zu dem Blau-Mittelwert zugehörigen Bilddaten-Vollbild oder -Teilbild Bilddaten enthalten sind.
  • Die den Rot-, Grün- und Blau-Differenzwerten entsprechenden Daten werden an den Hervorhebungsblock 35 gesendet. Der Hervorhebungsblock 35 berechnet für jedes Pixel einen Rot-, einen Grün- und einen Blau-Hervorhebungswert, indem er den Rot-, den Grün- und den Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor von größer als eins multipliziert. Die den Rot-, Grün- und Blau-Hervorhebungswerten entsprechenden Daten werden an den Syntheseblock 36 gesendet. Zusätzlich werden auch die Rot-, Grün- und Blau-Mittelwerte an den Syntheseblock 36 gesendet, wie oben beschrieben wurde.
  • Der Syntheseblock 36 erzeugt Bildhervorhebungsdaten, die dem hervorgehobenen Bild entsprechen. Die Bildhervorhebungsdaten werden anhand der Rot-, Grün- und Blau-Hervorhebungswerte sowie der Rot-, Grün- und Blau-Mittelwerte erzeugt. Wie die Bildsynthesedaten erzeugt werden, wird weiter unten genauer beschrieben.
  • Der Syntheseblock 36 berechnet für jedes Pixel die Summe aus dem Rot-Mittelwert und dem Rot-Hervorhebungswert. Die Summe aus dem Rot-Mittelwert und dem Rot-Hervorhebungswert wird für jedes Pixel bestimmt als Stärke der Rot-Lichtkomponente in dem hervorgehobenen Bild. Entsprechend berechnet der Syntheseblock 36 für jedes Pixel die Summe aus dem Grün-Mittelwert und dem Grün-Hervorhebungswert. Die Summe aus dem Grün-Mittelwert und dem Grün-Hervorhebungswert wird jedes Pixel bestimmt als Stärke der Grün-Lichtkomponente in dem hervorgehobenen Bild. Schließlich berechnet der Syntheseblock 36 für jedes Pixel die Summe aus dem Blau-Mittelwert und dem Blau-Hervorhe bungswert. Die Summe aus dem Blau-Mittelwert und dem Blau-Hervorhebungswert wird für jedes Pixel bestimmt als Größe der Blau-Lichtkomponente in dem hervorgehobenen Bild.
  • Die Bildhervorhebungsdaten, d.h. die auf das hervorgehobene Bild bezogenen Bilddaten, werden dann an den zweiten Verarbeitungsblock 37 gesendet. Der zweite Verarbeitungsblock 37 unterzieht die auf das Bildhervorhebungsdaten einer vorbestimmten Signalverarbeitung, z.B. einer Kontrasteinstellung und einer Verstärkung. Außerdem werden die Bildhervorhebungsdaten einer D/A-Wandlung unterzogen und damit in ein analoges Signal gewandelt. Ferner wird ein Video-Mischsignal, das ein Bildsignal und ein Synchronisationssignal erzeugt, das ein Bildsignal und ein Synchronisationssignal enthält.
  • Bei Durchführung der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 direkt an den zweiten Verarbeitungsblock 37 gesendet, der die empfangenen Bilddaten einer vorbestimmten Datenverarbeitung unterzieht und ein dem Normalbild entsprechendes Video-Mischsignal erzeugt.
  • Das Video-Mischsignal wird an den Monitor 50 gesendet, auf dem ein diesem Video-Mischsignal entsprechendes Bild dargestellt wird.
  • Die bildhervorhebende Signalverarbeitung wird in dem Bildsignalverarbeitungsblock 30 in der Weise durchgeführt, wie weiter unten unter Bezugnahme auf das Flussdiagramm nach 3 erläutert wird. Die bildhervorhebende Signalverarbeitung beginnt, wenn der Benutzer einen entsprechenden Startbefehl eingibt.
  • In Schritt S100 empfängt der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal entsprechend einem einzigen Vollbild oder Teilbild. In Schritt S101 führt die erste Verarbeitungsschaltung 31 eine vorbestimmte Signalverarbeitung durch, die eine Farbseparation und eine Farbinterpolation beinhaltet. Dabei werden für jedes Pixel eine Rot-, eine Grün- und eine Blau-Datenkomponente erzeugt. Nach Beendigung dieser vorbestimmten Signalverarbeitung fährt der Prozess mit Schritt S102 fort.
  • In Schritt S102 ermittelt der Extraktionsblock 32, ob die Datenpegel der Rot-, der Grün- und der Blau-Datenkomponenten, welche die Bilddaten entsprechend einem einzigen Vollbild oder Teilbild enthalten, innerhalb des vorbestimmten Bereichs liegen oder nicht. Der Extraktionsblock 32 extrahiert die Rot-, die Grün- und die Blau-Datenkomponenten, die innerhalb des vorbestimmten Bereichs liegen. Nach diesem Extraktionsschritt fährt der Prozess mit Schritt S103 fort.
  • In Schritt S103 berechnet der Mittelungsblock 33 die Rot-, die Grün- und die Blau-Mittelwerte anhand der extrahierten Rot-, Grün- bzw. Blau-Datenkomponenten. Nach Berechnung der Mittelwerte fährt der Prozess mit Schritt S104 fort.
  • In Schritt S104 berechnet der Differenzblock 34 für jedes Pixel den Rot-, den Grün- und den Blau-Differenzwert anhand der in Schritt S103 berechneten Mittelwerte und der Datenpegel der Rot-, Grün- und Blau-Datenkomponenten. Nach Berechnung dieser Differenzwerte fährt der Prozess mit Schritt S105 fort.
  • In Schritt S105 berechnet der Hervorhebungsblock 35 für jedes Pixel den Rot-, den Grün- und den Blau-Hervorhebungswert durch Multiplizieren des Rot-, des Grün- bzw. des Blau-Differenzwertes mit dem vorbestimmten Verstärkungsfaktor. Nach Berechnung der Hervorhebungswerte fährt der Prozess mit Schritt S106 fort.
  • In Schritt S106 erzeugt der Syntheseblock 36 Bildhervorhebungsdaten anhand der Rot-, der Grün- und der Blau-Mittelwerte, die in Schritt S103 berechnet werden, und der Rot-, der Grün- und der Blau-Hervorhebungswerte, die in Schritt S105 berechnet werden. In den Bildhervorhebungsdaten wird die Summe aus dem auf jedes einzelne Pixel bezogenen Rot-Hervorhebungswert und dem Rot-Mittelungswert als Stärke der auf jedes Pixel bezogenen Rot-Lichtkomponente festgelegt. Entsprechend wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne Pixel bezogenen Grün-Hervorhebungswert und dem Grün-Mittelwert als Stärke der auf jedes bezogenen Grün-Lichtkomponente festgelegt. Schließlich wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne Pixel bezogenen Blau-Hervorhebungswert und dem Blau-Mittelungswert als Stärke der auf jedes Pixel bezogenen Blau-Lichtkomponente festgelegt. Nach Erzeugung der Bildhervorhebungsdaten fährt der Prozess mit Schritt S107 fort.
  • In Schritt S107 nimmt der zweite Verarbeitungsblock 37 an den Bildhervorhebungsdaten eine vorbestimmte Signalverarbeitung vor, die eine Kontrasteinstellung und eine Verstärkung beinhaltet, und erzeugt ein Video-Mischsignal. Der zweite Verarbeitungsblock 37 sendet dann das Video-Mischsignal an den Monitor 50, auf dem ein dem Video-Mischsignal entsprechendes Bild dargestellt wird.
  • In Schritt S108 wird ermittelt, ob ein Eingabebefehl zur Beendigung der hervorhebenden Bildverarbeitung vorhanden ist. Ist dies der Fall, so wird die Verarbeitung des Bildsignals, die der Bildhervorhebung dient, beendet. Ist dies dagegen nicht der Fall, so kehrt der Prozess zu Schritt S100 zurück. Die Schritte S100 bis S108 werden so lange wiederholt, bis ein Eingabebefehl zur Beendigung der der Bildhervorhebung dienenden Bildverarbeitung vorliegt.
  • In obigem Ausführungsbeispiel kann also ein undeutliches Bild in ein deutliches Bild umgewandelt werden. Eine krankhafte Veränderung, die in einem Normalbild nicht erkennbar ist, kann so deutlicher dargestellt werden, wie im Folgenden erläutert wird.
  • Man betrachtet zum Beispiel einen Fall, in dem sich unter der Oberfläche einer krankhaften Veränderung, z.B. eines Polypen, eine Masse an Kapillargefäßen oder ein Adenom ausgebildet hat. Der Arzt identifiziert eine solche krankhafte Veränderung anhand des Aussehens der Kapillargefäßmasse bzw. des Adenoms. Jedoch ist die Kapillargefäßmasse nur schwer zu sehen, da sowohl die Oberfläche des inneren Organs als auch die Kapillargefäße rötlich sind. Außerdem bereitet die Identifizierung einer Ausbeulung Schwierigkeiten, die ein Charakteristikum eines Adenoms ist, da eine solche Ausbeulung nur eine geringe Farb- oder Helligkeitsvariation aufweist.
  • Der Endoskopprozessor 20 erzeugt jedoch ein hervorgehobenes Bild, in dem geringe Helligkeits- und Farbunterschiede in dem Normalbild dadurch hervorgehoben werden, dass für jedes Pixel die Differenz zwischen den Mittelwerten der Rot-, der Grün- und der Blau-Signalkomponente einerseits und der Rot-, der Grün- und der Blau-Signal komponente andererseits vergrößert wird. Der Arzt ist so im Stande, eine krankhafte Veränderung wie einen Polypen vergleichsweise einfach zu identifizieren, ohne dass er in besonderem Maße auf seine Erfahrung vertrauen müsste.
  • In einem mit einem Endoskop aufgenommenen Bild ist eine solche krankhafte Veränderung üblicherweise deutlich kleiner als ein normales Organ, so dass die Zahl an Pixeln, die auf die krankhafte Veränderung bezogen ist, deutlich kleiner als die Zahl an Pixeln ist, die auf ein normales Organ bezogen sind. In obigem Ausführungsbeispiel sind deshalb die Rot-, die Grün- und die Blau-Mittelwerte im Wesentlichen gleich den Mittelwerten der Rot-, der Grün- bzw. der Blau-Datenkomponenten der auf das normale Organ bezogenen Pixel. Der jeweilige Mittelwert kann deshalb als Standardwert der auf das normale Organ bezogenen Farbdatenkomponenten angesehen werden. Indem in dem oben beschriebenen Ausführungsbeispiel die Bildhervorhebungsdaten anhand solcher Mittelwerte erzeugt werden, ist es leichter, eine krankhafte Veränderung von einem normalen Organ zu unterscheiden.
  • Zusätzlich kann die Farbe des Organs geändert werden, indem die vorbestimmten Verstärkungsfaktoren, mit denen die Rot-, die Grün- und die Blau-Differenzwerte multipliziert werden, eingestellt werden. Im Stand der Technik wird ein Pigment einer bestimmten Farbe, z.B. Indigo, eingesetzt, um eine Färbung vorzunehmen und so die Konturen des Gesamtbildes zu verstärken. Vorliegend ist es jedoch möglich, ein Bild darzustellen, in dem eine Kontur durch Änderung eines Farbpegels in dem Bild verstärkt wird, ohne ein Pigment verwenden zu müssen.
  • In obigem Ausführungsbeispiel werden die Bildhervorhebungsdaten erzeugt, indem eine Berechnung angestellt wird, die Mittelwerte, Differenzwerte und Hervorhebungswerte für sämtliche der Rot-, der Grün- und der Blau-Datenkomponenten beinhaltet. Eine technische Wirkung, die ähnlich der in dem oben beschriebenen Ausführungsbeispiel ist, wird jedoch auch dann erzielt, wenn die Bildhervorhebungsdaten durch eine Berechnung erzeugt werden, die die entsprechenden Werte für zumindest eine Farbdatenkomponente beinhaltet.
  • In obigem Ausführungsbeispiel ist jedes einzelne Pixel der Abbildungsvorrichtung 42 von einem Rot-, einem Grün- oder einem Blau-Farbfilter bedeckt. Die Bildhervorhebungsdaten werden auf Grundlage der Rot-, der Grün- und der Blau-Datenkomponenten erzeugt. Es ist jedoch ebenso möglich, dass jedes einzelne Pixel der Abbildungsvorrichtung 42 von einem anderen Farbfilter bedeckt ist und dass die Bildhervorhebungsdaten auf Grundlage derjenigen Farb-Datenkomponenten erzeugt werden, die diesem das jeweilige Pixel bedeckenden Farbfilter entsprechen.
  • In obigem Ausführungsbeispiel werden die Bildhervorhebungsdaten auf Grundlage der Rot-, der Grün- und der Blau-Datenkomponenten erzeugt. Die Bildhervorhebungsdaten können jedoch auch anhand von anderen Datenkomponenten erzeugt werden, die genutzt werden, eine an dem jeweiligen Pixel empfangene Farbe zu synthetisieren. Beispielsweise können für jedes Pixel eine Luminanz-Datenkomponente und eine Farbdifferenz-Datenkomponente anhand der Rot-, der Grün- und der Blau-Signalkomponente erzeugt werden. Die Bildhervorhebungsdaten können dann erzeugt werden, indem die Mittelwerte, die Differenzwerte und die Hervorhebungswerte für die Luminanz-Signalkomponente und die Farbdifferenz-Signalkomponente berechnet werden.
  • In obigem Ausführungsbeispiel wird der Rot-Mittelwert nur anhand von Rot-Datenkomponenten berechnet, deren Datenpegel innerhalb des Bereichs zwischen HLr und LLr liegt. Entsprechend wird der Grün-Mittelwert nur anhand von Grün-Datenkomponenten berechnet, deren Datenpegel innerhalb des Bereichs zwischen HLg und LLg liegt, und der Blau-Mittelwert nur anhand von Blau-Datenkomponenten, deren Datenpegel innerhalb des Bereichs zwischen HLb und LLb liegt. Es ist jedoch ebenso möglich, den Rot-, den Grün- und den Blau-Mittelwert anhand von Rot-, Grün- bzw. Blau-Datenkomponenten zu berechnen, die unter Anwendung eines oberen oder eines unteren Grenzwertes im Hinblick auf ihren Signalpegel gefiltert sind oder die überhaupt nicht gefiltert sind.
  • Vorzugsweise wird der jeweilige Mittelwert jedoch in der Weise berechnet, dass Datenkomponenten ausgeschlossen werden, deren Datenpegel größer als ein oberer Grenzwert oder kleiner als ein unterer Grenzwert ist. So kann man allgemein sagen, dass ein Pixel, das eine äußerst dunkle oder eine äußerst helle Komponente erfasst, nicht zu einem Objekt gehört, das beobachtet werden muss. Außerdem könnte der Mittelwert zu klein oder zu groß sein, wenn es viele Pixel gibt, die sehr dunkel oder sehr hell sind. Ein hervorgehobenes Bild, das auf dem Mittelwert sämtlicher erfasster Datenkomponenten basiert, könnte deshalb im Vergleich zu einem hervorgehobenen Bild, das auf einem Mittelwert von innerhalb eines vorbestimmten Bereichs liegenden Datenkomponenten liegt, zu dunkel oder zu hell sein, um eine korrekte Objektbetrachtung zu ermöglichen.
  • Obiges Ausführungsbeispiel kann implementiert werden, indem ein Computerprogramm zur Bildhervorhebung auf einem Allzweck-Endoskopprozessor installiert wird. Ein solches Programm zur Bildhervorhebung umfasst ein Steuerungs-Codesegment, das dem Empfang dient, ein Mittelungsblock-Codesegment, ein Differenz-Codesegment, ein Hervorhebungsblock-Codesegment, ein Syntheseblock-Codesegment sowie ein Treiber-Codesegment zur Ausgabe.
  • In obigem Ausführungsbeispiel verarbeitet der Endoskopprozessor 20 ein Bildsignal, das von dem elektronischen Endoskop 40 erzeugt wird, welches ein von außen einführbares Einführrohr aufweist. Der Endoskopprozessor kann jedoch auch ein Bildsignal verarbeiten, das von einem elektronischen Endoskop anderen Typs, z.B. einem Kapselendoskop, erzeugt wird.
  • In obigem Ausführungsbeispiel empfängt der Endoskopprozessor 20 das Bildsignal und nimmt an diesem empfangenen Bildsignal die oben beschriebene Signalverarbeitung in Echtzeit vor. Es kann jedoch auch ein Endoskopbild-Wiedergabegerät vorgesehen werden, das ein auf einem internen oder einem externen Speicher gespeichertes Bildsignal empfangt und dann oben beschriebene Signalverarbeitung einschließlich der Bildhervorhebung an dem gespeicherten Bildsignal vornimmt.

Claims (6)

  1. Endoskopprozessor (20), umfassend: – eine Signalempfangseinheit, die ein Bildsignal empfängt, das aus einem optischen Bild erzeugt wird, das auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (42) aufgenommen wird, wobei das Bildsignal mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; – eine Mittelungseinheit (33), die einen Signalmittelwert berechnet, der gleich dem Mittelwert der Signalpegel der Pixelsignale ist, die das Bildsignal entsprechend einem Vollbild oder einem Teilbild enthält; – eine Differenzeinheit (34), die einen Signaldifferenzwert berechnet, der gleich der Differenz zwischen dem Signalpegel des auf jedes Pixel bezogenen Pixelsignals und dem Signalmittelwert ist; – eine Hervorhebungseinheit (35), die einen Hervorhebungswert durch Multiplizieren des Signaldifferenzwertes mit einem vorbestimmten Verstärkungsfaktor berechnet; – eine Syntheseeinheit (36), die ein Bildhervorhebungssignal erzeugt, in dem das auf jedes Pixel bezogene Pixelsignal ersetzt ist durch die Summe aus dem auf jedes Pixel bezogenen Hervorhebungswert und dem Signalmittelwert; und – einen Ausgabeblock (37), der das Bildhervorhebungssignal ausgibt.
  2. Endoskopprozessor (20) nach Anspruch 1, bei dem die Mittelungseinheit (33) den Signalmittelwert anhand der Pixelsignale berechnet, die unter Anwendung eines oberen und/oder eines unteren Grenzwertes nach ihrem Signalpegel gefiltert sind.
  3. Endoskopprozessor (20) nach Anspruch 1, bei dem – jedes Pixel von einem ersten oder einem zweiten Farbfilter bedeckt ist, – ein erstes und ein zweites Pixel, die von dem ersten bzw. dem zweiten Farbfilter bedeckt sind, ein erstes bzw. ein zweites Pixelsignal erzeugen, – die Mittelungseinheit (33) einen ersten und einen zweiten Signalmittelwert berechnet, die die zu dem ersten bzw. zweiten Pixelsignal gehörenden Signalmittelwerte sind, – die Differenzeinheit (34) einen ersten und einen zweiten Signaldifferenzwert berechnet, die die zu dem ersten bzw. dem zweiten Pixelsignal gehörenden Signaldifferenzwerte sind, – die Hervorhebungseinheit (35) einen ersten und einen zweiten Hervorhebungswert berechnet, die die zu dem ersten bzw. dem zweiten Pixelsignal gehörenden Hervorhebungswerte sind, und – die Syntheseeinheit das Bildhervorhebungssignal erzeugt, in dem das erste und das zweite Pixelsignal ersetzt sind durch die Summe aus dem auf jedes Pixel bezogenen ersten bzw. zweiten Hervorhebungswert und dem ersten bzw. dem zweiten Signalmittelwert.
  4. Computerprogrammprodukt, umfassend: – eine erste Steuerungseinheit, die eine Signalempfangseinheit so ansteuert, dass diese ein Bildsignal aus einem optischen Bild empfängt, das auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (42) aufgenommen wird, wobei das Bildsignal mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; – eine Mittelungseinheit, die einen Signalmittelwert berechnet, der gleich dem Mittelwert der Signalpegel der Pixelsignale ist, die das Bildsignal entsprechend einem Vollbild oder einem Teilbild enthält; – eine Differenzeinheit, die einen Signaldifferenzwert berechnet, der gleich der Differenz zwischen dem Signalpegel des auf jedes Pixel bezogenen Pixelsignals und dem Signalmittelwert ist; – eine Hervorhebungseinheit, die einen Hervorhebungswert durch Multiplizieren des Signaldifferenzwertes mit einem vorbestimmten Verstärkungsfaktor berechnet; – eine Syntheseeinheit, die ein Bildhervorhebungssignal erzeugt, in dem das auf jedes Pixel bezogene Pixelsignal ersetzt ist durch die Summe aus dem auf jedes Pixel bezogenen Hervorhebungswert und dem Signalmittelwert; und – eine zweite Steuerungseinheit, die einen Ausgabeblock so ansteuert, dass dieser das Bildhervorhebungssignal ausgibt.
  5. Endoskopsystem (10), umfassend: – ein elektronisches Endoskop (40) mit einer Abbildungsvorrichtung (42), die ein Bildsignal auf Grundlage eines auf ihrer Lichtempfangsfläche aufgenommenen optischen Bildes erzeugt, wobei das Bildsignal mehrere Pixelsignale enthält, die von mehreren Pixeln, die an der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; – eine Mittelungseinheit (33), die einen Signalmittelwert berechnet, der gleich dem Mittelwert der Signalpegel der Pixelsignale ist, die das Bildsignal entsprechend einem Vollbild oder einem Teilbild enthält; – eine Differenzeinheit (34), die einen Signaldifferenzwert berechnet, der gleich der Differenz zwischen dem Signalpegel des auf jedes Pixel bezogenen Pixelsignals und dem Signalmittelwert ist; – eine Hervorhebungseinheit (35), die einen Hervorhebungswert durch Multiplizieren des Signaldifferenzwertes mit einem vorbestimmten Verstärkungsfaktor berechnet; – eine Syntheseeinheit (36), die ein Bildhervorhebungssignal erzeugt, in dem das auf jedes Pixel bezogene Pixelsignal ersetzt ist durch die Summe aus dem auf jedes Pixel bezogenen Hervorhebungswert und dem Signalmittelwert; und – einen Monitor (50), der ein dem Bildhervorhebungssignal entsprechendes hervorgehobenes Bild darstellt.
  6. Gerät zur Wiedergabe eines Endoskopbildes, umfassend: – einen Speicher, der ein Bildsignal empfängt und speichert, das von einem elektronischen Endoskop (40) gesendet wird, das eine Abbildungsvorrichtung (42) und einen Ausgabeblock aufweist, wobei die Abbildungsvorrichtung (42) aus einem auf ihrer Lichtempfangsfläche aufgenommenen optischen Bild ein Bildsignal erzeugt, das mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; – eine Mittelungseinheit, die einen Signalmittelwert berechnet, der gleich dem Mittelwert der Signalpegel der Pixelsignale ist, die das Bildsignal entsprechend einem Vollbild oder einem Teilbild enthält; – eine Differenzeinheit, die einen Signaldifferenzwert berechnet, der gleich der Differenz zwischen dem Signalpegel des auf jedes Pixel bezogenen Pixelsignals und dem Signalmittelwert ist; – eine Hervorhebungseinheit, die einen Hervorhebungswert durch Multiplizieren des Signaldifferenzwertes mit einem vorbestimmten Verstärkungsfaktor berechnet; – eine Syntheseeinheit, die ein Bildhervorhebungssignal erzeugt, in dem das auf jedes Pixel bezogene Pixelsignal ersetzt ist durch die Summe aus dem auf jedes Pixel bezogenen Hervorhebungswert und dem Signalmittelwert; und – ein Bildabspielgerät, das einen Monitor anweist, ein dem Bildhervorhebungssignal entsprechendes Bild darzustellen.
DE102007022958A 2006-05-16 2007-05-16 Endoskopprozessor, Computerprogrammprodukt, Endoskopsystem und Endoskopbild-Wiedergabegerät Withdrawn DE102007022958A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006136541A JP2007306974A (ja) 2006-05-16 2006-05-16 内視鏡プロセッサ、内視鏡プログラム、画像処理システム、及び内視鏡画像記録再生装置
JP2006-136541 2006-05-16

Publications (1)

Publication Number Publication Date
DE102007022958A1 true DE102007022958A1 (de) 2007-11-22

Family

ID=38608320

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007022958A Withdrawn DE102007022958A1 (de) 2006-05-16 2007-05-16 Endoskopprozessor, Computerprogrammprodukt, Endoskopsystem und Endoskopbild-Wiedergabegerät

Country Status (3)

Country Link
US (1) US7822247B2 (de)
JP (1) JP2007306974A (de)
DE (1) DE102007022958A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148835A (ja) * 2006-12-15 2008-07-03 Hoya Corp 画像信号伝送システム、電子内視鏡、内視鏡プロセッサ
JP2012003584A (ja) * 2010-06-18 2012-01-05 Hoya Corp 動画像強調処理システムおよび方法
US9412155B2 (en) 2012-12-31 2016-08-09 Karl Storz Imaging, Inc. Video system with dynamic contrast and detail enhancement
US10939801B2 (en) 2017-03-31 2021-03-09 Hoya Corporation Electronic endoscope system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154248A (en) * 1996-05-24 2000-11-28 Asahi Kogaku Kogyo Kabushiki Kaisha Electronic endoscope
JP4274590B2 (ja) * 1997-01-20 2009-06-10 オリンパス株式会社 画像処理装置
US7050086B2 (en) * 2001-06-26 2006-05-23 Pentax Corporation Electronic endoscope system with color-balance alteration process
JP2003000536A (ja) * 2001-06-26 2003-01-07 Pentax Corp 電子内視鏡装置
JP4512294B2 (ja) * 2001-06-26 2010-07-28 Hoya株式会社 電子内視鏡装置
JP3869698B2 (ja) * 2001-10-23 2007-01-17 ペンタックス株式会社 電子内視鏡装置
US7469160B2 (en) * 2003-04-18 2008-12-23 Banks Perry S Methods and apparatus for evaluating image focus
JP4199510B2 (ja) * 2002-09-30 2008-12-17 Hoya株式会社 診断補助用装置
JP4598182B2 (ja) * 2005-01-05 2010-12-15 Hoya株式会社 電子内視鏡システム

Also Published As

Publication number Publication date
US20070269087A1 (en) 2007-11-22
JP2007306974A (ja) 2007-11-29
US7822247B2 (en) 2010-10-26

Similar Documents

Publication Publication Date Title
DE19619734C2 (de) Elektronisches Endoskopsystem
DE19535114B4 (de) Endoskopsystem mit Fluoreszenzdiagnose
DE3715859C2 (de) Farbbildverarbeitungssystem
DE10055725B4 (de) Elektronisches Endoskopsystem
DE69125146T2 (de) Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE10059577B4 (de) Elektronisches Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE102009022331B4 (de) Endoskopprozessor und Endoskopsystem
DE4136034C2 (de)
DE10351024B4 (de) Elektronische Endoskopeinrichtung
DE602005003628T2 (de) Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung
DE102006039932A1 (de) Elektronisches Endoskopsystem
DE102006042670A1 (de) Elektronisches Endoskopsystem
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE10359996A1 (de) Elektronisches Endoskop
DE102007022957A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem
DE102006049856A1 (de) Elektronisches Endoskop
DE102006001647A1 (de) Bilddatenprozessor, Computerprogrammprodukt und elektronisches Endoskopsystem
DE10345418A1 (de) Diagnoseunterstützungsvorrichtung
DE102008056921A1 (de) Endoskopprozessor und Endoskopsystem
DE102009032249A1 (de) Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem
DE10059662B4 (de) Elektronisches Endoskopsystem
DE102013108919A1 (de) Elektronisches Endoskopsystem und Lichtquelle für ein Endoskop
DE102006007295A1 (de) Bilddatenprozessor, Computerprogrammprodukt und elektronisches Endoskopsystem

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
R120 Application withdrawn or ip right abandoned

Effective date: 20111028