-
Die
Erfindung betrifft eine Bildsignalverarbeitung, die es dem Benutzer
ermöglicht,
ein Zielobjekt in einem mit einem elektronischen Endoskop aufgenommenen
Gesamtbild leichter zu erkennen.
-
Ein
elektronisches Endoskop, das eine Abbildungsvorrichtung am Ende
eines Einführrohrs
aufweist, wird zu medizinischen Untersuchungen, industriellen Untersuchungen
und dergleichen eingesetzt. Dabei wird Licht aus dem Ende des Einführrohrs
ausgesendet, um das zu betrachtende Objekt zu beleuchten. Die Abbildungsvorrichtung
nimmt dann ein durch das reflektierte Licht erzeugtes optisches
Bild auf, das auf einem Monitor dargestellt wird.
-
Ein
medizinisches Endoskop wird häufig dazu
eingesetzt, abnormes Gewebe oder eine krankhafte Veränderung
innerer Organe zu erkennen. So sieht abnormes Gewebe oder eine krankhafte
Veränderung
anders aus als gesundes Gewebe. Indem der Benutzer das Gewebe betrachtet,
kann er abnormes Gewebe oder eine krankhafte Veränderung identifizieren.
-
Dagegen
ist das äußere Erscheinungsbild
einer krankhaften Veränderung,
die tief unter der Oberfläche
eines Organs sitzt, nicht klar gegenüber dem Erscheinungsbild von
gesundem Gewebe abgrenzbar. Deshalb ist es häufig schwierig, solch eine
Veränderung
zu erkennen.
-
Aufgabe
der Erfindung ist es, einen Endoskopprozessor, ein Computerprogrammprodukt
und Endoskopsystem anzugeben, die es ermöglichen, an einem Bildsignal,
das von einem elektronischen Endoskop erzeugt wird, eine Signalverarbeitung
in der Weise vorzunehmen, dass eine krankhafte Veränderung
in dem dargestellten Bild, das dem Bildsignal entspricht, leicht
erkennbar ist.
-
Die
Erfindung löst
diese Aufgabe durch die Gegenstände
der unabhängigen
Ansprüche.
Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
-
Weitere
Wirkungen und Vorteile der vorliegenden Erfindung werden im Folgenden
anhand der Figuren erläutert.
Darin zeigen:
-
1 ein
Blockdiagramm, das den inneren Aufbau eines Endoskopsystems mit
einem Endoskopprozessor zeigt, der ein Ausführungsbeispiel darstellt;
-
2 ein
Blockdiagramm, das den inneren Aufbau des Bildsignalverarbeitungsblocks
zeigt; und
-
3 ein
Flussdiagramm, das einen Prozess zur Bildhervorhebung zeigt, der
von dem Bildsignalverarbeitungsblock durchgeführt wird.
-
Beschreibung
bevorzugter Ausführungsbeispiele
-
Die
Erfindung wird im Folgenden anhand der in den Figuren gezeigten
Ausführungsbeispiele
beschrieben.
-
1 zeigt
ein Endoskopsystem 10, das einen Endoskopprozessor 20,
ein elektronisches Endoskop 40 und einen Monitor 50 enthält. Der
Endoskopprozessor 20 ist über nicht gezeigte Verbindungsstücke an das
elektronische Endoskop 40 und den Monitor 50 angeschlossen.
-
Im
Folgenden wird der Gesamtaufbau des Endoskopsystems 10 kurz
dargestellt. In dem Endoskopprozessor 20 ist eine Lichtquelle 21 zum
Beleuchten eines nicht gezeigten Objektes untergebracht. Das von
der Lichtquelle 21 ausgesendete Licht wird über einen
Lichtleiter 41, der in dem elektronischen Endoskop 40 untergebracht
ist, auf das Objekt gestrahlt.
-
In
dem elektronischen Endoskop 40 ist eine Abbildungsvorrichtung 42,
z.B. ein CCD-Bildsensor, montiert. Die Abbildungsvorrichtung 42 nimmt
ein Bild des mit dem Beleuchtungslicht bestrahlten Objektes auf.
Anschließend
erzeugt die Abbildungsvorrichtung 42 ein Bildsignal, das
dem eingefangenen Objektbild entspricht. Das Bildsignal wird an
den Endoskopprozessor 20 gesendet, in dem an dem Bildsignal
eine vorbestimmte Signalverarbeitung vorgenommen wird. Das dieser
vorbestimmten Signalverarbeitung unterzogene Bildsignal wird in
ein Video-Mischsignal gewandelt und an den Monitor 50 gesendet,
auf dem das resultierende Bild dargestellt wird.
-
Im
Folgenden werden die einzelnen Komponenten des Endoskopsystems 10 genauer
beschrieben. In dem Strahlengang, der von der Lichtquelle 21 zu
einer Eintrittsfläche 41a des
Lichtleiters 41 führt, sind
eine Blende 22 und eine Kondensorlinse 23 montiert.
Das Licht, das nahezu vollständig
aus parallelen, von der Lichtquelle 21 ausgesendeten Lichtstrahlen
besteht, fällt
durch die Kondensorlinse 23 gebündelt auf die Eintrittsfläche 41a des
Lichtleiters 41.
-
Die
Intensität
des Lichtes, die auf das Eintrittsende 41a fällt, wird
durch Einstellen der Blende 22 gesteuert. Die Blende 22 wird
von einem Motor 25 eingestellt. Der Motor 25 wird
wiederum von einer Blendenschaltung 24 gesteuert. Die Blendenschaltung 24 ist über eine
Systemsteuerung 26 mit einem Bildsignalverarbeitungsblock 30 verbunden.
Der Bildsignalverarbeitungsblock 30 erfasst die Größe des in dem
eingefangenen Objektbild empfangenen Lichtes anhand des von der
Abbildungsvorrichtung 42 erzeugten Bildsignals. Die Blendenschaltung 24 berechnet
anhand der Lichtstärke
die erforderliche Stellgröße für den Motor 25.
-
Eine
Stromversorgungsschaltung 27, welche die Lichtquelle 21 mit
Energie speist, ist mit der Systemsteuerung 26 elektrisch
verbunden. Die Systemsteuerung 26 gibt an die Stromversorgungsschaltung 27 ein
Steuersignal zum Ein- und Ausschalten der Lichtquelle 21 aus.
So wird der Beleuchtungszustand (Ein- und Aus-Zustand) der Lichtquelle 21 von
der Systemsteuerung 26 eingestellt.
-
Die
Systemsteuerung 26 gibt an eine Treiberschaltung 28 ein
Treibersignal aus, das zur Ansteuerung der Abbildungsvorrichtung 42 benötigt wird.
Die Abbildungsvorrichtung 42, die von der Treiberschaltung 28 angesteuert
wird, erzeugt ein Bildsignal, das dem eingefangenen Objektbild entspricht.
-
Die
Systemsteuerung 26 steuert den Betrieb des gesamten Endoskopprozessors 20.
Auch der Bildsignalverarbeitungsblock 30 wird von der Systemsteuerung 26 in
später
beschriebener Weise gesteuert.
-
Das
Licht, das auf das Eintrittsende 41a fällt, wird über den Lichtleiter 41 an
ein Austrittsende 41b übertragen.
Das so übertragene
Licht beleuchtet einen um das Kopfende des Einführrohrs des Endoskops 40 liegenden
Bereich, nachdem es durch eine Zerstreuungslinse 43 getreten
ist. Eine Objektivlinse 44 fokussiert ein optisches Bild
des beleuchteten Objektes auf die Lichtempfangsfläche der
Abbildungsvorrichtung 42.
-
Auf
der Lichtempfangsfläche
der Abbildungsvorrichtung 42 ist in zwei Dimensionen eine Vielzahl
von Pixeln (nicht gezeigt) angeordnet. Jedes Pixel ist von einem
Rot-, einem Grün-
oder einem Blau-Farbfilter bedeckt. Durch das jeweilige Rot-, Grün- bzw.
Blau-Farbfilter kann nur eine rote, eine grüne bzw. eine blaue Lichtkomponente
treten. Die Lichtkomponente, die von dem jeweiligen Farbfilter erzeugt
wird, fällt
auf das Pixel, das von diesem Farbfilter bedeckt ist. Jedes Pixel
erzeugt ein Pixelsignal entsprechend der Größe der erfassten Lichtkomponente.
-
Das
Bildsignal entsprechend einem einzigen Vollbild (Frame) oder einem
einzigen Halb- oder Teilbild (Field), das von der Abbildungsvorrichtung 42 erzeugt
wird, umfasst eine Vielzahl von Pixelsignalen, die von den auf der
Lichtempfangsfläche
angeordneten Pixeln erzeugt werden.
-
Das
von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird
an den Bildsignalverarbeitungsblock 30 gesendet, der in
dem Endoskopprozessor 20 untergebracht ist. Der Bildsignalverarbeitungsblock 30 nimmt
an dem Bildsignal eine Normalbildverarbeitung (Standardbildverarbeitung)
oder eine zur Bildhervorhebung bestimmte Bildverarbeitung vor, so
dass auf dem Monitor 50 ein Normalbild (Standardbild) oder
ein hervorgehobenes Bild dargestellt wird. Dabei ist das Normalbild
gleich dem aufgenommenen Bild, während
das hervorgehobene Bild ein hervorgehobener Teil des Normalbildes
ist.
-
Wie
in 2 gezeigt, enthält der Bildsignalverarbeitungsblock 30 einen
ersten Verarbeitungsblock 31, einen Extraktionsblock 32,
einen Mittelungsblock 33, einen Differenzblock 34,
einen Hervorhebungsblock 35, einen Syntheseblock 36 und
einen zweiten Verarbeitungsblock 37.
-
Bei
der Durchführung
der hervorhebenden Bildverarbeitung sind der erste Verarbeitungsblock 31,
der Extraktionsblock 32, der Mittelungsblock 33, der
Differenzblock 34, der Hervorhebungsblock 35, der
Syntheseblock 36 und der zweite Verarbeitungsblock 37 in
Betrieb, wie später
beschrieben wird. Bei der Durchführung
der Normalbildverarbeitung sind dagegen nur der erste und der zweite
Verarbeitungsblock 31, 37 in Betrieb.
-
Das
von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird
an den ersten Verarbeitungsblock 31 gesendet. Der erste
Verarbeitungsblock 31 führt
eine vorbestimmte Signalverarbeitung durch, die eine Farbseparation
und eine Farbinterpolation beinhalten.
-
Bei
der Farbseparation wird das Bildsignal in Rot-, Grün- und Blau-Signalkomponenten
separiert. Diese Signalkomponenten sind Pixelsignale, die entsprechend
ihrer jeweiligen spezifischen Stärke
an rotem, grünem
bzw. blauem Licht eingeordnet sind. Dabei besteht jedes einzelne
Pixelsignal nur aus einer einzigen Signalkomponente, nämlich einer
Rot-, Grün-
oder Blau-Signalkomponente, da jedes Pixel entsprechend dem Farbfilter,
von dem es bedeckt ist, direkt nur eine einzige Farbsignalkomponente
erzeugen kann.
-
Während der
Farbinterpolation werden zusätzlich
zu der erzeugten Farbsignalkomponente zwei weitere Farbsignalkomponenten,
die jedem Pixelsignal vor der Farbinterpolation inhärent sind,
synthetisiert. Beispielsweise werden in einem Pixelsignal, das von
einem von einem Grün-Farbfilter
bedeckten Pixel erzeugt wird und einer Grün-Signalkomponente besteht, die Rot- und
die Blau-Signalkomponente, die zu dem Pixel gehören, synthetisiert, d.h. künstlich
erzeugt. Jedes Pixelsignal besteht dann aus allen drei Farbsignalkomponenten.
-
Das
analoge Bildsignal wird dann in digitale Bilddaten gewandelt.
-
Bei
Durchführung
der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an
den zweiten Verarbeitungsblock 37 gesendet. Bei der hervorhebenden
Bildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an
den Extraktionsblock 32 und den Differenzblock 34 gesendet.
-
Der
Extraktionsblock 32 ermittelt, ob für ein Gesamtbild die Datenpegel
der Rot-, Grün-
und Blau-Datenkomponenten für
jedes Pixel innerhalb des vorbestimmten Bereichs liegen oder nicht.
Die Rot-, Grün-
und Blau-Datenkomponenten
sind aus den Rot-, Grün-
bzw. Blau-Signalkomponenten gewandelte digitale Daten. Der Datenpegel
einer jeden Farbdatenkomponente entspricht dem Signalpegel der zugehörigen Farbsignalkomponente.
-
Es
werden ein oberer und ein unterer Grenzwert eines vorbestimmten
Bereichs für
die Rot-Datenkomponente, im Folgenden als HLr bzw. LLr bezeichnet,
vorgegeben und in einem nicht gezeigten ROM gespeichert. Entsprechend
werden für
die Grün-Datenkomponente
ein oberer und ein unterer Grenzwert eines vorbestimmten Bereichs,
im Folgenden als HLg bzw. LLg bezeichnet, vorgegeben und in dem
ROM gespeichert. Schließlich
werden für
die Blau-Datenkomponente ein oberer und ein unterer Grenzwert eines
vorbestimmten Bereichs, im Folgenden als HLb bzw. LLb bezeichnet,
vorgegeben und in dem ROM gespeichert. Der Extraktionsblock 32 liest die
Werte HLr, LLr, HLg, LLg, HLb und LLb aus dem ROM aus.
-
Der
Extraktionsblock 32 extrahiert oder erfasst eine Rot-Datenkomponente,
deren Datenpegel in dem Bereich zwischen HLr und LLr liegt. Diese
erfasste Rot-Datenkomponente wird an den Mittelungsblock 33 gesendet.
Entsprechend erfasst der Extraktionsblock 32 eine Grün-Datenkomponente, deren
Datenpegel in dem Bereich zwischen HLg und LLg liegt. Die erfasste
Grün-Datenkomponente
wird an den Mittelungsblock 33 gesendet. Schließlich erfasst
der Extraktionsblock 32 eine Blau-Datenkomponente, deren Datenpegel in
dem Bereich zwischen HLb und LLb liegt. Die erfasste Blau-Datenkomponente
wird an den Mittelungsblock 33 gesendet.
-
Der
Mittelungsblock 33 berechnet den Mittelwert mehrerer Rot-Datenkomponenten,
die innerhalb von Bilddaten entsprechend einem einzigen Teilbild oder
Vollbild empfangen werden. Dieser Mittelwert wird im Folgenden als
Rot-Mittelwert bezeichnet. Entsprechend berechnet der Mittelungsblock 33 den Mittelwert
mehrerer Grün-Datenkomponenten,
die innerhalb von Bilddaten entsprechend einem einzigen Teilbild
oder Vollbild empfangen werden. Dieser Wert wird im Folgenden als
Grün-Mittelwert
bezeichnet. Schließlich
berechnet der Mittelungsblock 33 den Mittelwert mehrerer
Blau-Datenkomponenten, die innerhalb von Bilddaten entsprechend
einem einzigen Teilbild oder Vollbild empfangen werden. Dieser Mittelwert
wird im Folgenden als Blau-Mittelwert bezeichnet. Die dem Rot-,
dem Grün-
und dem Blau-Mittelwert entsprechenden Daten werden an den Differenzblock 34 und
den Syntheseblock 36 gesendet.
-
Wie
oben beschrieben, empfängt
der Differenzblock 34 auch die Bilddaten. Der Differenzblock 34 berechnet
für jedes
einzelne Pixel einen Rot-Differenzwert, indem er den empfangenen
Rot-Mittelwert von jedem einzelnen sämtlicher Datenpegel der Rot-Datenkomponenten
subtrahiert, die in einem diesem Rot-Mittelwert zugehörigen Bilddaten-Vollbild oder
-Teilbild enthalten sind. Entsprechend berechnet der Differenzblock 34 für jedes
einzelne Pixel den Grün-Differenzwert,
indem er den empfangenen Grün-Mittelwert
von jedem einzelnen sämtlicher
Datenpegel der Grün-Datenkomponenten
subtrahiert, die in einem zu dem Grün-Mittelwert zugehörigen Bilddaten-Vollbild
oder -Teilbild enthalten sind. Schließlich berechnet der Differenzblock 34 für jedes einzelne
Pixel einen Blau-Differenzwert,
indem er den empfangenen Blau-Mittelwert von jedem einzelnen sämtlicher
Datenpegel der Blau-Datenkomponenten subtrahiert, die in einem zu
dem Blau-Mittelwert zugehörigen
Bilddaten-Vollbild oder -Teilbild Bilddaten enthalten sind.
-
Die
den Rot-, Grün-
und Blau-Differenzwerten entsprechenden Daten werden an den Hervorhebungsblock 35 gesendet.
Der Hervorhebungsblock 35 berechnet für jedes Pixel einen Rot-, einen
Grün- und
einen Blau-Hervorhebungswert, indem er den Rot-, den Grün- und den
Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor von größer als
eins multipliziert. Die den Rot-, Grün- und Blau-Hervorhebungswerten
entsprechenden Daten werden an den Syntheseblock 36 gesendet.
Zusätzlich
werden auch die Rot-, Grün-
und Blau-Mittelwerte an den Syntheseblock 36 gesendet,
wie oben beschrieben wurde.
-
Der
Syntheseblock 36 erzeugt Bildhervorhebungsdaten, die dem
hervorgehobenen Bild entsprechen. Die Bildhervorhebungsdaten werden
anhand der Rot-, Grün-
und Blau-Hervorhebungswerte sowie der Rot-, Grün- und Blau-Mittelwerte erzeugt.
Wie die Bildsynthesedaten erzeugt werden, wird weiter unten genauer
beschrieben.
-
Der
Syntheseblock 36 berechnet für jedes Pixel die Summe aus
dem Rot-Mittelwert
und dem Rot-Hervorhebungswert. Die Summe aus dem Rot-Mittelwert und dem
Rot-Hervorhebungswert wird für
jedes Pixel bestimmt als Stärke
der Rot-Lichtkomponente in dem hervorgehobenen Bild. Entsprechend
berechnet der Syntheseblock 36 für jedes Pixel die Summe aus
dem Grün-Mittelwert
und dem Grün-Hervorhebungswert.
Die Summe aus dem Grün-Mittelwert
und dem Grün-Hervorhebungswert wird
jedes Pixel bestimmt als Stärke
der Grün-Lichtkomponente
in dem hervorgehobenen Bild. Schließlich berechnet der Syntheseblock 36 für jedes
Pixel die Summe aus dem Blau-Mittelwert und dem Blau-Hervorhe bungswert.
Die Summe aus dem Blau-Mittelwert und dem Blau-Hervorhebungswert wird für jedes
Pixel bestimmt als Größe der Blau-Lichtkomponente in
dem hervorgehobenen Bild.
-
Die
Bildhervorhebungsdaten, d.h. die auf das hervorgehobene Bild bezogenen
Bilddaten, werden dann an den zweiten Verarbeitungsblock 37 gesendet.
Der zweite Verarbeitungsblock 37 unterzieht die auf das
Bildhervorhebungsdaten einer vorbestimmten Signalverarbeitung, z.B.
einer Kontrasteinstellung und einer Verstärkung. Außerdem werden die Bildhervorhebungsdaten
einer D/A-Wandlung unterzogen und damit in ein analoges Signal gewandelt. Ferner
wird ein Video-Mischsignal, das ein Bildsignal und ein Synchronisationssignal
erzeugt, das ein Bildsignal und ein Synchronisationssignal enthält.
-
Bei
Durchführung
der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 direkt
an den zweiten Verarbeitungsblock 37 gesendet, der die
empfangenen Bilddaten einer vorbestimmten Datenverarbeitung unterzieht und
ein dem Normalbild entsprechendes Video-Mischsignal erzeugt.
-
Das
Video-Mischsignal wird an den Monitor 50 gesendet, auf
dem ein diesem Video-Mischsignal entsprechendes Bild dargestellt
wird.
-
Die
bildhervorhebende Signalverarbeitung wird in dem Bildsignalverarbeitungsblock 30 in
der Weise durchgeführt,
wie weiter unten unter Bezugnahme auf das Flussdiagramm nach 3 erläutert wird.
Die bildhervorhebende Signalverarbeitung beginnt, wenn der Benutzer
einen entsprechenden Startbefehl eingibt.
-
In
Schritt S100 empfängt
der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal
entsprechend einem einzigen Vollbild oder Teilbild. In Schritt S101
führt die
erste Verarbeitungsschaltung 31 eine vorbestimmte Signalverarbeitung durch,
die eine Farbseparation und eine Farbinterpolation beinhaltet. Dabei
werden für
jedes Pixel eine Rot-, eine Grün-
und eine Blau-Datenkomponente erzeugt. Nach Beendigung dieser vorbestimmten
Signalverarbeitung fährt
der Prozess mit Schritt S102 fort.
-
In
Schritt S102 ermittelt der Extraktionsblock 32, ob die
Datenpegel der Rot-, der Grün-
und der Blau-Datenkomponenten, welche die Bilddaten entsprechend
einem einzigen Vollbild oder Teilbild enthalten, innerhalb des vorbestimmten
Bereichs liegen oder nicht. Der Extraktionsblock 32 extrahiert
die Rot-, die Grün-
und die Blau-Datenkomponenten, die innerhalb des vorbestimmten Bereichs
liegen. Nach diesem Extraktionsschritt fährt der Prozess mit Schritt
S103 fort.
-
In
Schritt S103 berechnet der Mittelungsblock 33 die Rot-,
die Grün-
und die Blau-Mittelwerte anhand der extrahierten Rot-, Grün- bzw.
Blau-Datenkomponenten.
Nach Berechnung der Mittelwerte fährt der Prozess mit Schritt
S104 fort.
-
In
Schritt S104 berechnet der Differenzblock 34 für jedes
Pixel den Rot-, den Grün-
und den Blau-Differenzwert anhand der in Schritt S103 berechneten
Mittelwerte und der Datenpegel der Rot-, Grün- und Blau-Datenkomponenten. Nach Berechnung dieser
Differenzwerte fährt
der Prozess mit Schritt S105 fort.
-
In
Schritt S105 berechnet der Hervorhebungsblock 35 für jedes
Pixel den Rot-, den Grün- und
den Blau-Hervorhebungswert durch Multiplizieren des Rot-, des Grün- bzw.
des Blau-Differenzwertes mit dem vorbestimmten Verstärkungsfaktor.
Nach Berechnung der Hervorhebungswerte fährt der Prozess mit Schritt
S106 fort.
-
In
Schritt S106 erzeugt der Syntheseblock 36 Bildhervorhebungsdaten
anhand der Rot-, der Grün- und
der Blau-Mittelwerte, die in Schritt S103 berechnet werden, und
der Rot-, der Grün-
und der Blau-Hervorhebungswerte, die in Schritt S105 berechnet werden.
In den Bildhervorhebungsdaten wird die Summe aus dem auf jedes einzelne
Pixel bezogenen Rot-Hervorhebungswert und dem Rot-Mittelungswert
als Stärke
der auf jedes Pixel bezogenen Rot-Lichtkomponente festgelegt. Entsprechend
wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne
Pixel bezogenen Grün-Hervorhebungswert
und dem Grün-Mittelwert als Stärke der auf
jedes bezogenen Grün-Lichtkomponente
festgelegt. Schließlich
wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne
Pixel bezogenen Blau-Hervorhebungswert und dem Blau-Mittelungswert
als Stärke
der auf jedes Pixel bezogenen Blau-Lichtkomponente festgelegt. Nach Erzeugung der
Bildhervorhebungsdaten fährt
der Prozess mit Schritt S107 fort.
-
In
Schritt S107 nimmt der zweite Verarbeitungsblock 37 an
den Bildhervorhebungsdaten eine vorbestimmte Signalverarbeitung
vor, die eine Kontrasteinstellung und eine Verstärkung beinhaltet, und erzeugt
ein Video-Mischsignal. Der zweite Verarbeitungsblock 37 sendet
dann das Video-Mischsignal an den Monitor 50, auf dem ein
dem Video-Mischsignal entsprechendes Bild dargestellt wird.
-
In
Schritt S108 wird ermittelt, ob ein Eingabebefehl zur Beendigung
der hervorhebenden Bildverarbeitung vorhanden ist. Ist dies der
Fall, so wird die Verarbeitung des Bildsignals, die der Bildhervorhebung
dient, beendet. Ist dies dagegen nicht der Fall, so kehrt der Prozess
zu Schritt S100 zurück.
Die Schritte S100 bis S108 werden so lange wiederholt, bis ein Eingabebefehl
zur Beendigung der der Bildhervorhebung dienenden Bildverarbeitung
vorliegt.
-
In
obigem Ausführungsbeispiel
kann also ein undeutliches Bild in ein deutliches Bild umgewandelt werden.
Eine krankhafte Veränderung,
die in einem Normalbild nicht erkennbar ist, kann so deutlicher dargestellt
werden, wie im Folgenden erläutert
wird.
-
Man
betrachtet zum Beispiel einen Fall, in dem sich unter der Oberfläche einer
krankhaften Veränderung,
z.B. eines Polypen, eine Masse an Kapillargefäßen oder ein Adenom ausgebildet
hat. Der Arzt identifiziert eine solche krankhafte Veränderung anhand
des Aussehens der Kapillargefäßmasse bzw. des
Adenoms. Jedoch ist die Kapillargefäßmasse nur schwer zu sehen,
da sowohl die Oberfläche
des inneren Organs als auch die Kapillargefäße rötlich sind. Außerdem bereitet
die Identifizierung einer Ausbeulung Schwierigkeiten, die ein Charakteristikum
eines Adenoms ist, da eine solche Ausbeulung nur eine geringe Farb-
oder Helligkeitsvariation aufweist.
-
Der
Endoskopprozessor 20 erzeugt jedoch ein hervorgehobenes
Bild, in dem geringe Helligkeits- und Farbunterschiede in dem Normalbild
dadurch hervorgehoben werden, dass für jedes Pixel die Differenz
zwischen den Mittelwerten der Rot-, der Grün- und der Blau-Signalkomponente
einerseits und der Rot-, der Grün-
und der Blau-Signal komponente andererseits vergrößert wird. Der Arzt ist so
im Stande, eine krankhafte Veränderung
wie einen Polypen vergleichsweise einfach zu identifizieren, ohne dass
er in besonderem Maße
auf seine Erfahrung vertrauen müsste.
-
In
einem mit einem Endoskop aufgenommenen Bild ist eine solche krankhafte
Veränderung üblicherweise
deutlich kleiner als ein normales Organ, so dass die Zahl an Pixeln,
die auf die krankhafte Veränderung
bezogen ist, deutlich kleiner als die Zahl an Pixeln ist, die auf
ein normales Organ bezogen sind. In obigem Ausführungsbeispiel sind deshalb
die Rot-, die Grün-
und die Blau-Mittelwerte im Wesentlichen gleich den Mittelwerten
der Rot-, der Grün-
bzw. der Blau-Datenkomponenten der auf das normale Organ bezogenen
Pixel. Der jeweilige Mittelwert kann deshalb als Standardwert der
auf das normale Organ bezogenen Farbdatenkomponenten angesehen werden.
Indem in dem oben beschriebenen Ausführungsbeispiel die Bildhervorhebungsdaten
anhand solcher Mittelwerte erzeugt werden, ist es leichter, eine
krankhafte Veränderung
von einem normalen Organ zu unterscheiden.
-
Zusätzlich kann
die Farbe des Organs geändert
werden, indem die vorbestimmten Verstärkungsfaktoren, mit denen die
Rot-, die Grün-
und die Blau-Differenzwerte multipliziert werden, eingestellt werden.
Im Stand der Technik wird ein Pigment einer bestimmten Farbe, z.B.
Indigo, eingesetzt, um eine Färbung
vorzunehmen und so die Konturen des Gesamtbildes zu verstärken. Vorliegend
ist es jedoch möglich,
ein Bild darzustellen, in dem eine Kontur durch Änderung eines Farbpegels in
dem Bild verstärkt
wird, ohne ein Pigment verwenden zu müssen.
-
In
obigem Ausführungsbeispiel
werden die Bildhervorhebungsdaten erzeugt, indem eine Berechnung
angestellt wird, die Mittelwerte, Differenzwerte und Hervorhebungswerte
für sämtliche
der Rot-, der Grün- und der Blau-Datenkomponenten
beinhaltet. Eine technische Wirkung, die ähnlich der in dem oben beschriebenen
Ausführungsbeispiel
ist, wird jedoch auch dann erzielt, wenn die Bildhervorhebungsdaten
durch eine Berechnung erzeugt werden, die die entsprechenden Werte
für zumindest
eine Farbdatenkomponente beinhaltet.
-
In
obigem Ausführungsbeispiel
ist jedes einzelne Pixel der Abbildungsvorrichtung 42 von
einem Rot-, einem Grün-
oder einem Blau-Farbfilter bedeckt. Die Bildhervorhebungsdaten werden
auf Grundlage der Rot-, der Grün-
und der Blau-Datenkomponenten erzeugt. Es ist jedoch ebenso möglich, dass
jedes einzelne Pixel der Abbildungsvorrichtung 42 von einem
anderen Farbfilter bedeckt ist und dass die Bildhervorhebungsdaten
auf Grundlage derjenigen Farb-Datenkomponenten erzeugt werden, die diesem
das jeweilige Pixel bedeckenden Farbfilter entsprechen.
-
In
obigem Ausführungsbeispiel
werden die Bildhervorhebungsdaten auf Grundlage der Rot-, der Grün- und der
Blau-Datenkomponenten erzeugt. Die Bildhervorhebungsdaten können jedoch
auch anhand von anderen Datenkomponenten erzeugt werden, die genutzt
werden, eine an dem jeweiligen Pixel empfangene Farbe zu synthetisieren.
Beispielsweise können
für jedes
Pixel eine Luminanz-Datenkomponente und eine Farbdifferenz-Datenkomponente
anhand der Rot-, der Grün-
und der Blau-Signalkomponente
erzeugt werden. Die Bildhervorhebungsdaten können dann erzeugt werden, indem
die Mittelwerte, die Differenzwerte und die Hervorhebungswerte für die Luminanz-Signalkomponente
und die Farbdifferenz-Signalkomponente berechnet werden.
-
In
obigem Ausführungsbeispiel
wird der Rot-Mittelwert nur anhand von Rot-Datenkomponenten berechnet,
deren Datenpegel innerhalb des Bereichs zwischen HLr und LLr liegt.
Entsprechend wird der Grün-Mittelwert nur anhand
von Grün-Datenkomponenten
berechnet, deren Datenpegel innerhalb des Bereichs zwischen HLg
und LLg liegt, und der Blau-Mittelwert nur anhand von Blau-Datenkomponenten,
deren Datenpegel innerhalb des Bereichs zwischen HLb und LLb liegt.
Es ist jedoch ebenso möglich,
den Rot-, den Grün-
und den Blau-Mittelwert anhand von Rot-, Grün- bzw. Blau-Datenkomponenten
zu berechnen, die unter Anwendung eines oberen oder eines unteren
Grenzwertes im Hinblick auf ihren Signalpegel gefiltert sind oder
die überhaupt nicht
gefiltert sind.
-
Vorzugsweise
wird der jeweilige Mittelwert jedoch in der Weise berechnet, dass
Datenkomponenten ausgeschlossen werden, deren Datenpegel größer als
ein oberer Grenzwert oder kleiner als ein unterer Grenzwert ist.
So kann man allgemein sagen, dass ein Pixel, das eine äußerst dunkle
oder eine äußerst helle
Komponente erfasst, nicht zu einem Objekt gehört, das beobachtet werden muss.
Außerdem könnte der
Mittelwert zu klein oder zu groß sein, wenn
es viele Pixel gibt, die sehr dunkel oder sehr hell sind. Ein hervorgehobenes
Bild, das auf dem Mittelwert sämtlicher
erfasster Datenkomponenten basiert, könnte deshalb im Vergleich zu
einem hervorgehobenen Bild, das auf einem Mittelwert von innerhalb
eines vorbestimmten Bereichs liegenden Datenkomponenten liegt, zu
dunkel oder zu hell sein, um eine korrekte Objektbetrachtung zu
ermöglichen.
-
Obiges
Ausführungsbeispiel
kann implementiert werden, indem ein Computerprogramm zur Bildhervorhebung
auf einem Allzweck-Endoskopprozessor
installiert wird. Ein solches Programm zur Bildhervorhebung umfasst
ein Steuerungs-Codesegment, das dem Empfang dient, ein Mittelungsblock-Codesegment,
ein Differenz-Codesegment,
ein Hervorhebungsblock-Codesegment, ein Syntheseblock-Codesegment sowie
ein Treiber-Codesegment zur Ausgabe.
-
In
obigem Ausführungsbeispiel
verarbeitet der Endoskopprozessor 20 ein Bildsignal, das
von dem elektronischen Endoskop 40 erzeugt wird, welches
ein von außen
einführbares
Einführrohr
aufweist. Der Endoskopprozessor kann jedoch auch ein Bildsignal
verarbeiten, das von einem elektronischen Endoskop anderen Typs,
z.B. einem Kapselendoskop, erzeugt wird.
-
In
obigem Ausführungsbeispiel
empfängt
der Endoskopprozessor 20 das Bildsignal und nimmt an diesem
empfangenen Bildsignal die oben beschriebene Signalverarbeitung
in Echtzeit vor. Es kann jedoch auch ein Endoskopbild-Wiedergabegerät vorgesehen
werden, das ein auf einem internen oder einem externen Speicher
gespeichertes Bildsignal empfangt und dann oben beschriebene Signalverarbeitung
einschließlich
der Bildhervorhebung an dem gespeicherten Bildsignal vornimmt.