-
Die Erfindung betrifft eine Bildsignalverarbeitungseinheit, die eine Signalverarbeitung an einem Bildsignal vornimmt, das durch Aufnahme eines optischen Bildes erzeugt wird, in dem der Anteil einer bestimmten Primärfarbe deutlich größer als die Anteile der anderen Primärfarben ist, wie dies beispielsweise bei einem mit einem elektrischen Endoskop aufgenommen optischen Bild der Fall ist.
-
Eine Abbildungsvorrichtung erzeugt ein Bildsignal, das einem aufgenommenen optischen Objektbild entspricht. Bei einem erzeugten Bildsignal wird eine vorbestimmte Signalverarbeitung derart vorgenommen, dass die Farben in einem Objektbild so genau wie möglich dargestellt werden. Nachdem das Bildsignal in dieser vorbestimmten Weise verarbeitet worden ist, wird das resultierende Bild auf einem Monitor dargestellt.
-
Abbildungsvorrichtungen können in verschiedenartigen Geräten installiert werden. So ist ein elektronisches Endoskop bekannt, das eine Abbildungsvorrichtung am Kopf seines Einführrohrs aufweist. Ein medizinisches elektronisches Endoskop wird eingesetzt, um das Innere des menschlichen Körpers zu betrachten. Üblicherweise werden in solchen medizinischen elektronischen Endoskopen CCD-Abbildungsvorrichtungen mit Komplementärfarbfiltern verwendet.
-
Eine CCD-Abbildungsvorrichtung mit Komplementärfarbfiltern erzeugt Komplementärfarbsignalkomponenten wie Mg (magenta), Ye (gelb), G (grün) und Cy (cyan). In der Signalverarbeitung, die bei einem herkömmlichen medizinischen Endoskop vorgesehen ist, werden ein Breitbandluminanzsignal und ein Schmalbandluminanzsignal auf Grundlage des Komplementärfarbsignals erzeugt. Zusätzlich werden Chrominanzdifferenzsignale auf Grundlage des Schmalbandluminanzsignals erzeugt. Das Breitbandluminanzsignal und die Chrominanzdifferenzsignale werden an einen Monitor gesendet. Der Monitor erzeugt auf Grundlage des empfangenen Breitbandluminanzsignals und der empfangenen Chrominanzdifferenzsignale Primärfarbsignalkomponenten R, G und B. Ein auf den Primärfarbsignalkomponenten basierendes Bild wird dann auf einem Monitor dargestellt. Die Primärfarbsignalkomponenten können in dem Endoskopprozessor erzeugt und an den Monitor gesendet werden.
-
Der mit einem medizinischen elektronischen Endoskop untersuchte Gegenstand ist hauptsächlich das Innere eines Organs, so dass das optische Bild dieses Gegenstandes meistens rötlich gefärbt ist. Bei Aufnahme eines rötlichen optischen Bildes kann es vorkommen, dass gerade der Signalpegel der Rotsignalkomponente (die auf Grundlage des Breitbandluminanzsignals erzeugt wird), die hierfür vorgesehenen oberen Grenzen des Endoskopprozessors oder des Monitors übersteigt. Übersteigt lediglich der Signalpegel der Rotsignalkomponente die obere Grenze, so ist es nicht möglich, die Farben präzise auf einem Monitor darzustellen.
-
Aus der
DE 103 59 996 A1 ist eine Bildsignalverarbeitungseinheit für ein Endoskop bekannt, in der digitale Komplementärfarbsignale in RGB-Signale separiert werden. Die RGB-Signale werden mit einem vorbestimmten Farbmatrixkoeffizienten multipliziert. Anschließend werden Luminanzsignale aus den RGB-Signalen extrahiert. Zum Einstellen der Lichtmenge wird auf Basis des Luminanzsignals ein Steuerungssignal berechnet, auf dessen Grundlage der Farbmatrixkoeffizient geändert wird.
-
Die
DE 102 26 582 A1 offenbart eine für ein Endoskop bestimmte Bildsignalverarbeitungseinheit, in der Farb-Bildsignale erzeugt werden, die den Primärfarben RGB oder Komplementärfarben entsprechen. Die Bildsignalverarbeitungseinheit umfasst einen Lichtquellendetektor, der den eingesetzten Lichtquellentyp erfasst. Entsprechend dem erfassten Lichtquellentyp wird ein Farbeinstellprozess derart durchgeführt, dass in einem dargestellten Objektbild die Farbe korrekt wiedergegeben wird.
-
Aus der
US 2005/0068 427 A1 ist eine für ein Endoskop bestimmte Bildsignalverarbeitungseinheit bekannt, in der eine Farbseparationsschaltung mit Hilfe einer Farbmatrix eine Umwandlung von Luminanz- und Farbdifferenzsignalen in Primärfarbsignale vornimmt. Die Bildsignalverarbeitungseinheit weist einen Speicher auf, in dem in Abhängigkeit des zu beobachtenden Zielbereichs, des Lichtquellentyps etc. verschiedene Farbmatrizen gespeichert sind, die wahlweise zur Erzeugung der Primärfarbsignale genutzt werden.
-
Aufgabe der Erfindung ist es, eine Bildsignalverarbeitseinheit anzugeben, die an Bildsignalen eine Signalverarbeitung derart vornimmt, dass in einem auf dem Bildsignal basierenden Bild die Farben farbtreu auch dann wiedergegeben werden, wenn in dem aufgenommenen optischen Bild die Intensität einer bestimmten Farbe deutlich größer als die Intensitäten der anderen Farben ist.
-
Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
-
Nach der Erfindung enthält eine Bildsignalverarbeitungseinheit einen Empfänger, einen ersten und einen zweiten Luminanzberechnungsblock, einen Vergleichsblock, einen Korrekturwertberechnungsblock und einen Subtraktionsblock. Der Empfänger empfängt ein Bildsignal. Das Bildsignal enthält eine Vielzahl von Pixelsignalen. Jedes Pixelsignal wird entsprechend der von einem Pixel empfangenen Lichtmenge erzeugt. Auf einer Lichtempfangsfläche einer Abbildungsvorrichtung ist eine Vielzahl von Pixeln angeordnet. Der erste Luminanzberechnungsblock berechnet eine erste Luminanz entsprechend der Summe mehrerer Primärfarblichtkomponenten. Auf Grundlage des Bildsignals wird für jedes Pixel jede der Primärfarblichtkomponenten mit einem Koeffizienten aus einer ersten Koeffizientenkombination multipliziert. Der zweite Luminanzberechnungsblock berechnet für jedes Pixel auf Grundlage des Bildsignals eine zweite Luminanz entsprechend der Summe mehrerer der Primärfarblichtkomponenten, die mit einem Koeffizienten aus einer zweiten Koeffizientenkombination multipliziert werden. Das Verhältnis des Koeffizienten, mit dem eine erste Primärfarblichtkomponente multipliziert wird, zu dem Koeffizienten, mit dem eine zweite Primärfarblichtkomponente multipliziert wird, ist in der zweiten Koeffizientenkombination größer als das entsprechende Verhältnis in der ersten Koeffizientenkombination. Der Vergleichsbock vergleicht die erste Luminanz mit einem Schwellwert. Der Korrekturwertberechnungsblock berechnet einen Luminanzkorrekturwert in Abhängigkeit der zweiten Luminanz, wenn die erste Luminanz größer als der Schwellwert ist. Der Subtraktionsblock berechnet eine korrigierte Luminanz, indem er den Luminanzkorrekturwert von der ersten Luminanz subtrahiert.
-
Die Bildsignalverarbeitungseinheit enthält einen Chrominanzdifferenzberechnungsblock und einen Ausgabeblock. Der Chrominanzdifferenzberechnungsblock berechnet für jedes Pixel auf Grundlage des Bildsignals eine Chrominanzdifferenz. Der Ausgabeblock gibt für jedes Pixel ein Chrominanzdifferenzsignal entsprechend der Chrominanzdifferenz und ein Luminanzsignal entsprechend der korrigierten Luminanz aus, wenn die erste Luminanz größer ist als der Schwellwert. Ist dagegen die erste Luminanz kleiner als der Schwellwert, so gibt der Ausgabeblock ein Chrominanzdifferenzsignal entsprechend der Chrominanzdifferenz und ein Luminanzsignal entsprechend der ersten Luminanz für jedes Pixel aus.
-
Ferner enthält die Bildsignalverarbeitungseinheit einen Lichtquellenbestimmungsblock. Der Lichtquellenbestimmungsblock bestimmt die Art der das Beleuchtungslicht auf ein Objekt ausgebenden Lichtquelle. Die Abbildungsvorrichtung fängt ein optisches Bild des Objektes ein. Die zweite Koeffizientenkombination wird in Abhängigkeit der von dem Lichtquellenbestimmungsblock durchgeführten Bestimmung der Art der Lichtquelle verändert. Die Bildsignalverarbeitungseinheit ist in einem Endoskop eingebaut, das die Abbildungsvorrichtung enthält.
-
Ferner enthält die Bildsignalverarbeitungseinheit einen Endoskopbestimmungsblock. Der Endoskopbestimmungsblock bestimmt die Art des die Abbildungsvorrichtung enthaltenden Endoskops. Die zweite Koeffizientenkombination wird in Abhängigkeit der von dem Endoskopbestimmungsblock vorgenommenen Bestimmung der Art des Endoskops verändert. Die Bildsignalverarbeitungseinheit ist in einem Endoskopprozessor eingebaut, der an dem Bildsignal die Signalverarbeitung vornimmt.
-
Die Erfindung wird im Folgenden mitsamt ihren Vorteilen unter Bezugnahme auf die Figuren näher beschrieben. Darin zeigen:
-
1 eine Außenansicht eines Endoskopsystems mit einer Bildsignalverarbeitungseinheit als erstes Ausführungsbeispiel;
-
2 ein Blockdiagramm, das den inneren Aufbau des elektronischen Endoskops nach erstem Ausführungsbeispiel zeigt;
-
3 die Anordnung von Komplementärfarbfiltern auf der Lichtempfangsfläche der Abbildungsvorrichtung;
-
4 ein Blockdiagramm, das den inneren Aufbau der Signalverarbeitungseinheit nach erstem und zweitem Ausführungsbeispiel zeigt;
-
5 ein Blockdiagramm, das den inneren Aufbau des Farbsignalverarbeitungsblocks in dem ersten Ausführungsbeispiel zeigt;
-
6A einen Graphen, der die Luminanzsignalpegel von Pixeln, die in einer Zeile angeordnet sind, vor Beseitigung der hochfrequenten Komponenten;
-
6B einen Graphen, der die Luminanzsignalpegel von Pixeln, die in einer Zeile angeordnet sind, nach Beseitigung der hochfrequenten Komponenten zeigt;
-
7 ein Blockdiagram, das den inneren Aufbau des Luminanzsignalverarbeitungsblocks in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
-
8 ein Blockdiagramm, das den inneren Aufbau der Rechenschaltung in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
-
9 ein Flussdiagramm, das die Berechnung des zweiten Schmalbandluminanzsignals in dem ersten Ausführungsbeispiel zeigt;
-
10 ein Flussdiagramm, das die Erzeugung des korrigierten Luminanzsignals auf Grundlage des zweiten Schmalbandluminanzsignals in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
-
11 einen Graphen, der zur Erläuterung der Wirkung einer Konturenverstärkung die Luminanzsignalpegel von Pixeln zeigt, die in einer Zeile angeordnet sind;
-
12 ein Blockdiagramm, das den Aufbau des elektronischen Endoskops nach zweitem Ausführungsbeispiel zeigt;
-
13 ein Blockdiagramm, das den Aufbau des Farbsignalverarbeitungsblocks in dem zweiten Ausführungsbeispiel zeigt; und
-
14 ein Flussdiagramm, das die Berechnung des zweiten Schmalbandluminanzsignals in dem zweiten Ausführungsbeispiel zeigt.
-
Beschreibung bevorzugter Ausführungsbeispiele
-
Die Erfindung wird im Folgenden anhand des ersten und des zweiten Ausführungsbeispiels beschrieben, die in den Zeichnungen dargestellt sind.
-
In 1 ist ein Endoskopsystem 10 nach erstem Ausführungsbeispiel gezeigt, das ein elektronisches Endoskop 20, einen Endoskopprozessor (Bildsignalprozessor) 11 und einen Monitor 12 enthält. Der Endoskopprozessor 11 ist mit dem elektronischen Endoskop 20 und dem Monitor 12 verbunden.
-
Ein Teil des elektronischen Endoskops 20 wird beispielsweise in einen menschlichen Körper eingeführt. Das elektronische Endoskop 20 nimmt in dem menschlichen Körper ein Bild auf. Dabei wird ein Bildsignal erzeugt, das dem aufgenommenen optischen Bild entspricht. Das Bildsignal wird an den Endoskopprozessor 11 gesendet. Der Endoskopprozessor 11 nimmt an dem empfangenen Bildsignal eine vorbestimmte Signalverarbeitung vor. Das in dieser vorbestimmten Weise verarbeitete Bildsignal wird an den Monitor 12 gesendet, auf dem ein dem Bildsignal entsprechendes Bild dargestellt wird.
-
Das elektronische Endoskop 20 umfasst ein Einführrohr 21, einen Steuerblock 22, ein Verbindungsrohr 23 und einen Anschlussteil 24. Das proximale Ende des Einführrohrs 21 ist mit dem Steuerblock 22 verbunden. Der Steuerblock 22 ist über das Verbindungsrohr 23 mit dem Anschlussteil 24 verbunden.
-
Das Einführrohr 21 ist flexibel und in eine Körperkavität einführbar. Der Steuerblock 22 hat Schalter zur Initialisierung einiger Funktionen des Endoskops 20 und des Endoskopsystems 10. Das elektronische Endoskop 20 wird mit dem Endoskopprozessor 11 verbunden, in dem der Anschlussteil 24 in den nicht gezeigten Anschluss des Endoskopprozessors 40 eingesetzt wird.
-
Der interne Aufbau des elektronischen Endoskops 20 wird im Folgenden unter Bezugnahme auf 2 erläutert. Das Endoskop 20 hat einen Lichtleiter 25, eine Abbildungsvorrichtung 26, einen Analogeingang 27, auch kurz als AFE bezeichnet, eine Signalverarbeitungseinheit (Bildsignalverarbeitungseinheit) 30 sowie weitere Komponenten.
-
Der Lichtleiter 25 ist ein Lichtleitfaserbündel, dessen eines Ende in dem Anschlussteil 24 und dessen anderes Ende am Kopfende des Einführrohrs 21 montiert ist. Die Abbildungsvorrichtung 26 ist am Kopfende des Einführrohrs 21 montiert. Der Analogeingang 27 und die Signalverarbeitungseinheit 30 sind in dem Anschlussteil 24 montiert.
-
Wird der Anschlussteil 24 in den Anschluss des Endoskopprozessors 11 eingesetzt, so wird der Lichtleiter 25 optisch mit einer nicht gezeigten Lichtquelle gekoppelt, die in dem Endoskopprozessor 11 eingebaut ist. Von der Lichtquelle abgegebenes Beleuchtungslicht wird durch den Lichtleiter 25 übertragen. Das an das Austrittsende des Lichtleiters 25 übertragene Licht beleuchtet nach Durchtritt durch eine Zerstreuungslinse 28d einen Bereich in der Umgebung des Kopfendes des Einführrohrs 21. Das an dem Objekt reflektierte Beleuchtungslicht fällt nach Durchtritt durch eine Objektivlinie 28o auf die Lichtempfangsfläche einer Abbildungsvorrichtung 26. Die Abbildungsvorrichtung 26 ist ein ladungsgekoppeltes Bauelement, kurz CCD.
-
Wie in 3 gezeigt, ist eine Vielzahl von Pixeln 26p in zwei Dimensionen auf der Lichtempfangsfläche der Abbildungsvorrichtung 26 angeordnet. Die Pixel sind in Zeilen und Spalten angeordnet, wobei in der folgenden Beschreibung die Zeilen von unten nach oben und die Spalten von links nach rechts nummeriert sind. Die Pixel 26p sind mit Farbfiltern in der sogenannten zeilensequentiellen Komplementärfarbdifferenz-Anordnung bedeckt. Dabei hat eine sich wiederholende Filtereinheit zwei Spalten und vier Zeilen. Die erste Spalte, die (von unten nach oben) mit Magenta-, Cyan-, Grün- und Cyan-Filtern bedeckte Pixel enthält, ist von einer zweiten Spalte von Pixeln flankiert, die mit Grün, Gelb, Magenta und Gelb-Filtern bedeckt sind.
-
Jedes Pixel 26p empfängt die Farblichtkomponente, die durch das dieses Pixel bedeckende Farbfilter tritt. Das Pixel 26p erzeugt ein Pixelsignal entsprechend der Intensität der empfangenen Farblichtkomponente. Dabei empfangen Pixel, die mit Farbfiltern der Farbe magenta, cyan, grün und gelb bedeckt sind, Pixelsignale entsprechend der Farbe ihrer Filter, im Folgenden als Mg, Cy, G und Ye bezeichnet (Komplementärfarbsignalkomponente).
-
Die Abbildungsvorrichtung 26 wird von dem Analogeingang 27 so angesteuert, dass sie jede 1/30-te Sekunde abwechselnd und wiederholt auf geradzahlige Teilbilder und ungeradzahlige Teilbilder bezogene Bildsignale ausgibt. Der Analogeingang 27 wird durch eine nicht gezeigte Zeitsteuerung gesteuert, die in dem Endoskopprozessor 11 eingebaut ist.
-
In dem geradzahligen Teilbild wird ein Pixelsignal, das von einem in einer ungeradzahligen Zeile angeordneten Pixel 26p erzeugt wird, mit dem Pixelsignal gemischt, das von einem Pixel 26p erzeugt wird, welches in der geradzahligen Zeile direkt oberhalb des vorstehend genannten Pixels 26p angeordnet ist. Die Mischpixelsignale, im Folgenden auch als Mischpixelsignale bezeichnet, werden in Zeilenrichtung nacheinander ausgegeben. Nachdem alle in der ungeradzahligen Zeile erzeugten Mischpixelsignale ausgegeben sind, wird damit begonnen, in der nächsten ungeradzahligen Zeile die Pixelsignale zu mischen und die Mischpixelsignale auszugeben.
-
Beispielsweise werden Pixelsignale, die von Pixeln erzeugt werden, welche in der ersten, dritten, ..., (2n – 1)-ten und (2n + 1)-ten Zeile angeordnet sind, mit Pixelsignalen gemischt, die von Pixeln erzeugt werden, welche in der zweiten, vierten, ..., 2n-ten und (2n + 2)-tert Zeile angeordnet sind. Somit werden in der ersten Zeile von links beginnend wiederholt und abwechselnd (Mg + Cy) und (G + Ye) gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben. In der nächsten ungeradzahligen Zeile, d. h. in der dritten Zeile, werden ebenfalls von links beginnend wiederholt und abwechselnd (G + Cy) und (Mg + Ye) gemischt. Diese Mischsignale werden ebenfalls nacheinander ausgegeben.
-
In dem ungeradzahligen Teilbild wird ein Pixelsignal, das von einem in einer geradzahligen Zeile angeordneten Pixel 26p erzeugt wird, mit dem Pixelsignal gemischt, das von dem Pixel 26p erzeugt wird, das in der ungeradzahligen Zeile direkt oberhalb des vorstehend genannten Pixels angeordnet ist. Die Mischpixelsignale werden in Zeilenrichtung nacheinander ausgegeben. Nachdem alle Mischpixelsignale, die in der geradzahligen Zeile erzeugt worden sind, ausgegeben sind, wird in der nächsten geradzahligen Zeile damit begonnen, die Pixelsignale zu mischen und die Mischpixelsignale auszugeben.
-
Beispielsweise werden Pixelsignale, die von den Pixeln, die in der zweiten, vierten, ..., 2n-ten und (2n + 2)-ten Zeile angeordnet sind, erzeugt werden, mit Pixelsignalen gemischt, die von den Pixeln 26p erzeugt werden, die in der dritten, fünften, ..., (2n + 1)-ten und (2n + 3)-ten Zeile angeordnet sind. In der zweiten Zeile werden also beginnend von links (Cy + G) und (Ye + Mg) wiederholt und abwechselnd gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben. In der nächsten geradzahligen Zeile, d. h. in der vierten Zeile, werden beginnend von links ebenfalls (Cy + Mg) und (Ye + G) wiederholt und abwechselnd gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben.
-
Die auf das geradzahlige Teilbild und die auf das ungeradzahlige Teilbild bezogenen Bildsignale enthalten eine Vielzahl von Mischpixelsignalen, die in dem geradzahligen bzw. dem ungeradzahligen Teilbild ausgegeben werden. Die auf das geradzahlige und das ungeradzahlige Teilbild bezogenen Bildsignale werden von der Abbildungsvorrichtung 26 an den Analogeingang 27 gesendet.
-
Der Analogeingang 27 enthält eine nicht gezeigte Schaltung zur korrelierten Doppelabtastung, kurz CDS, sowie einen nicht gezeigten A/D-Wandler. Der Analogeingang 27 nimmt an dem empfangenen Bildsignal eine Signalverarbeitung zur korrelierten Doppelabtastung vor. Zudem wandelt der Analogeingang 27 das analoge Bildsignal in ein digitales Bildsignal.
-
Das Bildsignal wird an die Signalverarbeitungseinheit 30 gesendet. Die Signalverarbeitungseinheit 30 nimmt an dem empfangenen Bildsignal eine Signalverarbeitung vor, wie weiter unten beschrieben wird.
-
Wie in 4 gezeigt, enthält die Signalverarbeitungseinheit 30 einen Verstärker mit automatischer Verstärkungsregelung 31, kurz AGC (Empfänger), einen Farbsignalverarbeitungsblock 32, einen Luminanzsignalverarbeitungsblock (Luminanzsignalkorrekturblock) 33 und einen Codierer (Ausgabeblock) 34.
-
Das Bildsignal, das die Signalverarbeitungseinheit 30 empfängt, wird dem AGC 31 zugeführt, der an dem empfangenen Bildsignal eine Verstärkungsregelung vornimmt. Der AGC sendet die Mischpixelsignale (Mg + Cy), (Ye + G), (G + Cy) und (Mg + Ye) an den Farbsignalverarbeitungsblock 32 und den Luminanzverarbeitungsblock 33.
-
Der Farbsignalverarbeitungsblock 32 erzeugt für jedes einzelne Pixel 26p auf Grundlage der Mischpixelsignale Chrominanzdifferenzsignale für rot und blau, im Folgenden als R-YL bzw. B-YL bezeichnet, sowie ein zweites Schmalbandluminanzsignal, im Folgenden YL' bezeichnet. Der Luminanzverarbeitungsblock 33 erzeugt auf Grundlage der Mischpixelsignale und des Signals YL' ein korrigiertes Luminanzsignal, im Folgenden als YH'' bezeichnet.
-
Die Signale R-YL, B-YL und YH'' für sämtliche Pixel 26p werden an den Codierer 34 gesendet. Der Codierer 34 erzeugt ein Videosignal, indem er die Signale R-YL, B-YL und YH'' codiert und das digitale Signal in ein analoges Signal wandelt. Zudem sendet der Codierer 34 das Videosignal an den Endoskopprozessor 11. Schließlich wird das Videosignal zur Darstellung eines Bildes auf dem Monitor 12 genutzt.
-
Im Folgenden werden Aufbau und Funktion des Farbsignalverarbeitungsblock 32, der die Signale R-YL und B-YL erzeugt, im Einzelnen beschrieben. Wie in 5 gezeigt, enthält der Farbsignalverarbeitungsblock eine RGB-Matrixschaltung (Primärfarbsignalerzeugungsblock) 32a, eine Gammakorrekturschaltung 32b, eine erste und eine zweite YL-Matrixschaltung 32c1 und 32c2, eine Weißabgleichsschaltung 32d, eine Chrominanzdifferenz-Matrixschaltung (Chrominanzdifferenzberechnungsblock) 32e sowie ein Tiefpassfilter (Konturenverstärkungsblock) 32f, kurz LPF.
-
Das Bildsignal, welches der Farbsignalverarbeitungsblock 32 empfängt, wird der RGB-Matrixschaltung 32a zugeführt. Die RGB-Matrixschaltung 32a führt an dem empfangenen Bildsignal eine RGB-Matrixverarbeitung durch. Durch diese RGB-Matrixverarbeitung wird das Primärfarbsignal, das aus einer Rot-, einer Grün- und einer Blau-Signalkomponente (im Folgenden als RG bzw. B bezeichnet) besteht, aus den Komponenten Mg, Cy, Ye und G erzeugt. Die Komponenten R, G und B variieren entsprechen den Intensitäten der empfangenen Rot-Komponente (zweite Primärfarblichtkomponente), der empfangenen Grün-Komponente (erste Primärfarblichtkomponente) und der empfangenen Blau-Komponente (dritte Primärfarblichtkomponente). Die Komponenten Mg, Cy und Ye variieren entsprechend den Intensitäten der Magenta-, der Cyan- bzw. der Gelb-Lichtkomponente.
-
Im Folgenden wird ein Pixel, aus dem die Komponenten R, G und B nach der RGB-Matrix-Verarbeitung erzeugt werden, als Zielpixel bezeichnet. Die Signale bestimmter Pixel, die sich an vorbestimmten Orten um das Zielpixel herum befinden, sind mit dem Zielpixel verknüpft. Dabei sind an den vorstehend genannten vorbestimmten Orten diejenigen acht Pixel angeordnet, die sich innerhalb eines aus vier Zeilen und zwei Spalten gebildeten Rechtecks befinden, in dessen unterer linken Ecke das Zielpixel angeordnet ist.
-
Betrachtet man beispielsweise in dem geradzahligen Teilbild das Pixel in der ersten Zeile der ersten Spalte als Zielpixel, so gehören die Signale derjenigen Pixel, die sich in der ersten, der zweiten, der dritten und der vierten Zeile der ersten und der zweiten Spalte befinden, zu dem Zielpixel (vgl. 3). Dabei werden in dem geradzahligen Teilbild die Signale der in der ersten und der zweiten Zeile der ersten Spalte angeordneten Pixel als Mischpixelsignal (Mg + Cy) des in der ersten Zeile der ersten Spalte angeordneten Pixels ausgegeben. Entsprechend werden die Signale der in der ersten und der zweiten Zeile der zweiten Spalte angeordneten Pixel als Mischpixelsignal (G + Ye) des in der ersten Zeile der zweiten Spalte angeordneten Pixels ausgegeben. Die Signale der in der dritten und vierten Zeile der ersten Spalte angeordneten Pixel werden als Mischpixelsignal (G + Cy) des in der dritten Zeile der ersten Spalte angeordneten Pixels ausgegeben. Schließlich werden die Signale der in der dritten und vierten Zeile der zweiten Spalte angeordneten Pixel als Mischpixelsignal (Mg + Ye) des in der dritten Zeile der zweiten Spalte angeordneten Pixels ausgegeben.
-
Die gleiche Regel wird auf die zweite Spalte angewandt, so dass die Pixelsignale der ersten bis vierten Zeile der zweiten und dritten Spalte auf ein Zielpixel in der ersten Zeile und der zweiten Spalte bezogen sind. Entsprechend werden die Pixelsignale aus der ersten und zweiten Zeile der zweiten Spalte als Mischsignal (G + Ye) für dieses Zielpixel ausgegeben. Die Pixelsignale aus den Pixeln in der ersten und zweiten Zeile der dritten Spalte werden als Mischpixelsignal (Mg + Cy) für dieses Zielpixel ausgegeben. Die Pixelsignale aus den Pixeln in der dritten und vierten Zeile der zweiten Spalte werden als Mischpixelsignal (Mg + Ye) für dieses Zielpixel ausgegeben. Schließlich werden die Pixelsignale aus den Pixeln in der dritten und vierten Zeile der dritten Spalte als Mischpixelsignal (G + Cy) für dieses Zielpixel ausgegeben.
-
Betrachtet man ein Pixel in einer ungeradzahligen Zeile als Zielpixel in dem geradzahligen Teilbild, so gehören ähnlich wie in dem oben beschriebenen Fall die vier Mischpixel derjenigen vier Pixel, die sich relativ zu dem Zielpixel (wie oben beschrieben) an den gleichen Orten befinden, zu dem Zielpixel.
-
Betrachtet man ein Pixel in einer geradzahligen Zeile als Zielpixel in dem ungeradzahligen Teilbild, so gehören ähnlich wie im Falle des geradzahligen Teilbilds die vier Mischpixel derjenigen vier Pixel, die sich relativ zu dem Zielpixel (wie oben beschrieben) an den gleichen Orten befinden, zu dem Zielpixel.
-
Für ein Zielpixel, das sich an einem beliebigen Ort befindet, werden die Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) in dem geradzahligen oder ungeradzahligen Teilbild ausgegeben und dem Zielpixel zugeordnet.
-
Um an dem Zielpixel die RGB-Matrixverarbeitung durchzuführen, werden die zu dem Zielpixel gehörenden Mischpixelsignale der RGB-Matrixschaltung 32a zugeführt. Die empfangenen Mischpixelsignale werden nach der unten angegebenen Gleichung (1) in R-, G- und B-Komponenten gewandelt. Die so erzeugten R-, G- und B-Komponenten werden von der RGB-Matrixschaltung 32a an die Gammakorrekturschaltung 32b sowie die erste und die zweite YL-Matrixschaltung 32c1 und 32c2 gesendet.
-
-
Die Gammakorrekturschaltung 32b nimmt an den Komponenten R, G und B separat eine Signalverarbeitung zur Gammakorrektur vor. Die diese Verarbeitung zur Gammakorrektur unterzogenen Komponenten R, G und B werden an die Weißabgleichsschaltung 32d gesendet. Die Weißabgleichsschaltung 32d nimmt an den Komponenten R, G und B separat eine Verarbeitung zum Weißabgleich vor. Die dieser Verarbeitung zum Weißabgleich unterzogenen Komponenten R und B werden an die Chrominanzdifferenz-Matrixschaltung 32e gesendet.
-
Die erste YL-Matrixschaltung 32c1 empfängt, wie oben beschrieben, die Komponenten R, G und B. Die erste YL-Matrixschaltung 32c1 erzeugt das erste Schmalbandluminanzsignal, im Folgenden als YL bezeichnet, indem sie die Komponenten R, G und B aufsummiert, nachdem diese Komponenten mit dem Koeffizienten 0,3, 0,59 bzw. 0,11 multipliziert worden sind. Das Signal YL wird an die Chrominanzdifferenz-Matrixschaltung 32e gesendet.
-
Die Chrominanzdifferenz-Matrixschaltung 32e empfängt die Komponenten R und B, nachdem diese dem Weißabgleich unterzogen worden sind, sowie das Signal YL, wie oben beschrieben. Die Chrominanzdifferenz-Matrixschaltung 32e erzeugt die Signale R-YL und B-YL auf Grundlage der Signale R, B und YL. Die Signale R-YL und B-YL werden an den Codierer 34 gesendet.
-
Die zweite YL-Matrixschaltung (Lichtquellenbestimmungsblock) 32c2 empfängt die Signale R, G und B, wie oben beschrieben. Die zweite YL-Matrixschaltung 32c2 erzeugt das Signal YL', indem sie die Signale R, G und B aufsummiert, die mit Koeffizienten multipliziert sind, die in Abhängigkeit einer gerätespezifischen Information vorbestimmt sind.
-
Diese gerätespezifische Information gibt die Art der nicht gezeigten Lichtquelle an, die in dem Endoskopprozessor 11 eingebaut ist, und wird an die zweite YL-Matrixschaltung 32c2 gesendet, wenn das elektronische Endoskop 20 mit dem Endoskopprozessor 11 verbunden wird. Als Lichtquelle des elektronischen Endoskops 20 wird eine Halogenlampe, eine Xenonlampe oder eine Metallhalogenidlampe verwendet.
-
Die zweite YL-Matrixschaltung 32c2 enthält einen nicht gezeigten Speicher, der für jede Primärfarbsignalkomponente eine der gerätespezifischen Information entsprechende Koeffiziententabelle speichert. Die zweite YL-Matrixschaltung 32c2 liest diese Koeffizienten in Abhängigkeit der empfangenen gerätespezifischen Information aus, um sie mit den Signalen R, G und B zu multiplizieren.
-
Ist die Lichtquelle eine Halogenlampe, so wird YL' berechnet nach 0R + 0,9G + 0,1B. Ist die Lichtquelle eine Xenonlampe, so wird YL' berechnet nach YL' = 0,3R + 0,5G + 0,2B. Ist die Lichtquelle eine Metallhalogenidlampe, so wird YL' berechnet nach YL' = 0,3R + 0,7G + 0B.
-
Das erzeugte Signal YL' wird von der zweiten YL-Matrixschaltung 32c2 an das LPF 32f gesendet. Das LPF 32f entfernt die hochfrequenten Komponenten aus der Ortsfrequenz, die durch die zu den nacheinander angeordneten Pixeln gehörigen Signalen YL' dargestellt ist. Hat beispielsweise die Kurve der Signalpegel der Signale YL', die zu den nacheinander angeordneten Pixeln gehören, eine stufige Form (vgl. 6A), so wird der Absolutwert der Änderungsrate innerhalb dieser Kurve durch das LPF 32f herabgesetzt (vgl. 6B). Das Signal YL', das von seinen hochfrequenten Komponenten befreit ist, wird an den Luminanzsignalverarbeitungsblock 33 gesendet.
-
Im Folgenden werden Aufbau und Funktion des Luminanzsignalverarbeitungsblocks 33, der das Signal YH'' erzeugt, im Einzelnen erläutert. Wie in 7 gezeigt, enthält der Luminanzsignalverarbeitungsblock 33 eine YH-Matrixschaltung (erste Luminanzrechenschaltung) 33a, eine Rechenschaltung 35, eine Addierschaltung (Subtraktionsblock) 33b und eine Gammakorrekturschaltung 33c.
-
Wie oben beschrieben, empfängt der Luminanzsignalverarbeitungsblock 33 die Mischpixelsignale. Die Mischpixelsignale, die der Luminanzsignalverarbeitungsblock 33 empfängt, werden der YH-Matrixschaltung 33a zugeführt. Die YH-Matrixschaltung 33a führt an den empfangenen Mischpixelsignalen eine YH-Matrixverarbeitung durch. In dieser YH-Matrixverarbeitung werden die Signale (Mg + Cy), (Ye + G), (G + Cy) und (Mg + Ye) summiert und ein erstes Breitbandluminanzsignal (erste Luminanz), im Folgenden als YH bezeichnet, erzeugt. Der Signalpegel des Signals YH variiert mit der Helligkeit in dem Pixel 26p.
-
Die Signalpegel der Signale Mg, Cy und Ye sind äquivalent den Signalpegeln der Signale (R + B), (G + B) bzw. (R + G). Entsprechend ist der Signalpegel des Signals YH äquivalent dem Signalpegel des Signals (2R + 3G + 2B). Dies bedeutet, dass das Signal YH äquivalent einem Wert ist, der berechnet wird, indem die Rot-, Grün- und Blau-Lichtkomponenten, jeweils multipliziert mit 2, 3 bzw. 2 (erste Koeffizientenkombination), summiert werden. Das Signal YH wird aus der YH-Matrixschaltung 33a an die Rechenschaltung 35 und die Addierschaltung 33b gesendet.
-
Die Rechenschaltung 35 entscheidet, ob ein Korrektursignal, im Folgenden als kYH' bezeichnet, auf Grundlage des empfangenen Signals YH zu berechnen ist. Falls die Rechenschaltung 35 in weiter unten beschriebener Weise entscheidet, dass das Signal kYH' zu berechnen ist, so berechnet sie das Signal kYH' und gibt es nach Multiplikation mit –1 an die Addierschaltung 33b aus. Entscheidet die Rechenschaltung 35, dass das Signal kYH' nicht zu berechnen ist, so gibt es ein Nullsignal (d. h. ein Signal mit dem Pegel null) an die Addierschaltung 33b aus.
-
Die Addierschaltung 33b erzeugt das Signal YH'', indem sie das aus der YH-Matrixschaltung 33a stammende Signal YH und das Signal –kYH' oder das Nullsignal, das aus der Rechenschaltung 35 stammt, aufsummiert. Berechnet die Rechenschaltung 35 das Signal kYH', so wird also das Signal YH'' gleich (YH-kYH'). Hat dagegen die Rechenschaltung 35 das Signal kYH' nicht berechnet, so wird das Signal YH'' gleich YH.
-
Das Signal YH'' wird von der Addierschaltung 33b an die Gammakorrekturschaltung 33c gesendet. Die Gammakorrekturschaltung 33c nimmt an dem Signal YH'' eine Verarbeitung zur Gammakorrektur vor. Das dieser Gammakorrektur unterzogene Signal YH'' wird einem Codierer 34 gesendet.
-
Im Folgenden werden Aufbau und Funktion der Rechenschaltung 35, die das Signal kYH' berechnet, im Einzelnen beschrieben. Wie in 8 gezeigt, enthält die Rechenschaltung 35 eine Subtraktionsschaltung (zweiter Luminanzberechnungsblock) 35a, eine Bestimmungsschaltung 35b und eine Multiplikationsschaltung 35c.
-
Wie oben beschrieben, empfängt die Rechenschaltung 35 das Signal YH von der YH-Matrixschaltung 33a und das Signal YL' von dem Farbsignalverarbeitungsblock 32. Zudem empfängt die Rechenschaltung 35 aus einem nicht gezeigten ROM einen vorbestimmten Koeffizienten zur Multiplikation, im Folgenden als k bezeichnet. Der Koeffizient k liegt in einem Bereich von null bis eins (d. h. 0 < k < 1). Das der Rechenschaltung 35 zugeführte Signal wird so gesteuert, dass die gleichzeitig von der Rechenschaltung empfangenen Signale YH und YL' aus ein und demselben Pixel 26p stammen.
-
Das Signal YH wird der Subtraktionsschaltung 35a und dem Bestimmungsblock 35b zugeführt. Das Signal YL' wird der Subtraktionsschaltung 35a zugeführt. Der Koeffizient k wird der Multiplikationsschaltung 35c zugeführt.
-
Die Subtraktionsschaltung 35a erzeugt ein zweites Breitbandluminanzsignal (zweite Luminanz), im Folgenden als YH' bezeichnet, indem sie das Signal YL' von dem Signal YH subtrahiert. Nach einer Negation wird das Signal YH' ausgegeben. Dabei subtrahiert die Subtraktionsschaltung 35a das Signal YH von dem Signal YL'. Nach einer Multiplikation mit –1 wird das Signal YH' von der Subtraktionsschaltung 35a an die Bestimmungsschaltung 35b ausgegeben.
-
Die Bestimmungsschaltung 35b (Vergleichsblock) vergleicht das von der YH-Matrixschaltung 33a gesendete Signal YH und einen ersten Schwellwert. Der erste Schwellwert ist in einem nicht gespeicherten ROM gespeichert und wird zum Vergleich mit dem Signal YH von der Bestimmungsschaltung 35b ausgelesen. Ist YH größer als der erste Schwellwert, so gibt die Bestimmungsschaltung 35b das mit –1 multiplizierte Signal YH' an die Multiplikationsschaltung 35c aus. Ist der erste Schwellwert größer als YH, so gibt die Bestimmungsschaltung 35b das Nullsignal anstelle des Signals YH' an die Multiplikationsschaltung 35c aus.
-
Die Multiplikationsschaltung 35c multipliziert das empfangene Signal mit k. Gibt also die Bestimmungsschaltung 35b das Signal YH' aus, so berechnet die Multiplikationsschaltung 35c das Korrektursignal äquivalent zu kYH' = k(YH – YL'). Gibt dagegen die Bestimmungsschaltung 35b das Nullsignal aus, so wird das von der Multiplikationsschaltung 35c berechnete Signal gleich dem Nullsignal. An die Addierschaltung 33b wird also entweder das mit –1 multiplizierte Signal kYH' oder das Nullsignal gesendet.
-
Wie oben beschrieben, berechnet die Addierschaltung 33b das Signal YH'' auf Grundlage des Signals YH sowie des Signals kYH' oder des Nullsignals. Das der Gammakorrektur unterzogene Signal YH'' wird mit R-YL und B-YL codiert, und die Signale YH'', R-YL und B-YL werden als Videosignal an den Endoskopprozessor 11 gesendet.
-
Der Endoskopprozessor 11 enthält einen nicht gezeigten Speicher. Der Speicher speichert die Signale YH'', R-YL und B-YL, die von dem Endoskopprozessor 11 empfangen werden. Die Signale YH'', R-YL und B-YL, die in dem Speicher gespeichert sind, werden an den Monitor 12 gesendet. Der Monitor 12 erzeugt auf Grundlage der empfangenen Signale YH'', R-YL und B-YL die Komponenten R, G und B. Auf dem Monitor 12 wird so ein den erzeugten Primärfarbsignalkomponenten entsprechendes Bild dargestellt.
-
Im Folgenden wird unter Bezugnahme auf die Flussdiagramme nach den 9 und 10 die in dem ersten Ausführungsbeispiel von der Signalverarbeitungseinheit 30 durchgeführte Bildsignalverarbeitung beschrieben. Die von der Signalverarbeitungseinheit 30 durchgeführte Verarbeitung beginnt, wenn das elektronische Endoskop 20 mit dem Endoskopprozessor 11 verbunden und der Endoskopprozessor 11 eingeschaltet wird. Die Verarbeitung endet, wenn die Betriebsart des Endoskopprozessors auf eine andere Betriebsart als den Beobachtungsmodus umgeschaltet oder der Endoskopprozessor ausgeschaltet wird.
-
Im Schritt S100 wird die gerätespezifische Information aus dem Endoskopprozessor 11 ausgelesen. In den Schritten S101 und S102 wird, wie weiter unten beschrieben, die Art der Lichtquelle, die in dem mit dem Endoskop 20 verbundenen Endoskopprozessor 11 vorhanden ist, anhand der ausgelesenen gerätespezifischen Information bestimmt.
-
Im Schritt S101 wird bestimmt, ob die Lichtquelle eine Halogenlampe ist. Ist die Lichtquelle eine Halogenlampe, so fährt der Prozess mit Schritt S103 fort. Ist dies nicht der Fall, so fährt der Prozess mit Schritt S102 fort. Im Schritt S102 wird bestimmt, ob die Lichtquelle eine Xenonlampe ist. Ist die Lichtquelle eine Xenonlampe, so fährt der Prozess mit Schritt S104 fort. Ist dies nicht der Fall, so wird die Lichtquelle als Metallhalogenidlampe identifiziert, und der Prozess fährt mit Schritt S105 fort.
-
In Schritt S103 wird das Signal YL' mit den Koeffizienten 0, 0,9 und 0,1 für R, G bzw. B berechnet, falls die Lichtquelle eine Halogenlampe ist. Im Schritt S104 wird das Signal YL' mit den Koeffizienten 0,3, 0,5 und 0,2 für R, G bzw. B berechnet, falls die Lichtquelle eine Xenonlampe ist. In Schritt S105 wird das Signal YL' mit den Koeffizienten 0,3, 0,7 und 0 für R, G bzw. B berechnet, falls die Lichtquelle eine Metallhalogenidlampe ist.
-
Nach der Berechnung von YL' in Schritt S103, S104 oder S105 fährt der Prozess mit Schritt S106 fort. In Schritt S106 werden die Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) empfangen.
-
In Schritt S107 werden auf Grundlage der Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) die Signale R-YL, B-YL und YL' erzeugt.
-
In Schritt S108 wird auf Grundlage der Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) das Signal YH erzeugt. Nach der Erzeugung des Signals YH wird auf Grundlage der Signale YH und YL' das Signal YH' erzeugt.
-
Nach der Berechnung des Signals YH' fährt der Prozess mit Schritt S110 fort. In Schritt S110 wird ermittelt, ob der Signalpegel von YH größer als der erste Schwellwert ist. Ist YH größer als der erste Schwellwert, so fährt der Prozess mit Schritt S111 fort. Übersteigt dagegen YH nicht den ersten Schwellwert, so fährt der Prozess mit Schritt S112 fort.
-
In Schritt S111 wird das Signal kYH' anhand des in Schritt S108 erzeugten Signals YH' berechnet. Dagegen wird in Schritt S112 das Signal YH' verworfen und anstelle des Signals YH' das Nullsignal erzeugt.
-
Nach der Berechnung des Signals kYH' oder der Erzeugung des Nullsignals fährt der Prozess mit Schritt S113 fort. In Schritt S113 wird das Signal YH anhand des Signals kYH' oder anhand des Nullsignals korrigiert und anschließend das Signal YH'' erzeugt.
-
Das Signal YH'' wird mit den in Schritt S107 erzeugten Signalen R-YL und B-YL von der Signalverarbeitungseinheit 30 ausgegeben. Nach Ausgabe des Signals YH'' kehrt der Prozess zu Schritt S106 zurück, und die Schritte S106 bis S112 werden wiederholt.
-
In dem oben beschriebenen ersten Ausführungsbeispiel können die Farben eines auf dem Bildsignal basierenden Bildes unabhängig von der Farbe des aufgenommenen optischen Bildes farbtreu dargestellt werden. Zudem ist es möglich, die Farben in dem auf dem Bildsignal basierenden Bild unabhängig von der Farbe des Beleuchtungslichtes darzustellen. Diese technische Wirkung wird im Folgenden erläutert.
-
In einem üblichen Endoskopsystem ist eine Abbildungsvorrichtung mit Komplementärfarbfiltern bedeckt und erzeugt wie in dem ersten Ausführungsbeispiel die Mg-, Cy-, Ye- und G-Signale. Anhand der Komplementärfarbsignalkomponenten werden die Chrominanzdifferenzsignale und das Luminanzsignal erzeugt. Die Chrominanzdifferenzsignale und das Luminanzsignal werden an einen Monitor gesendet. Der Monitor erzeugt Primärfarbsignalkomponenten, z. B. R, G und B, auf Grundlage des empfangenen Chrominanzdifferenzsignals und des empfangenen Luminanzsignals. In einer alternativen Ausführung erzeugt ein elektronisches Endoskop oder ein Endoskopprozessor die Primärfarbsignalkomponenten auf Grundlage des Chrominanzdifferenzsignals und des Luminanzsignals und sendet die Primärfarbsignalkomponenten an einen Monitor.
-
Ein Breitbandluminanzsignal wird als Luminanzsignal zur Erzeugung der Primärfarbsignalkomponenten auf einem Monitor genutzt, um den Einfluss von Rauschen zu verringern. Außerdem werden die Chrominanzdifferenzsignale, die durch Subtrahieren des Schmalbandluminanzsignals von den Signalen R und B berechnet werden, genutzt, um die Primärfarbsignalkomponenten in einem Monitor zu erzeugen und so eine farbtreue Darstellung zu ermöglichen.
-
Das Breitbandluminanzsignal wird durch Summieren der Komponenten Mg, Cy, Ye und G berechnet. Demnach ist das Breitbandluminanzsignal äquivalent 2R + 3G + 3B. Dagegen wird das Schmalbandluminanzsignal berechnet, indem die Komponenten R, G und B auf Grundlage der Komponenten Mg, Cy, Ye und G erzeugt und dann R, G und B mit den vorbestimmten Koeffizienten 0,3, 0,59 bzw. 0,11 multipliziert und dann aufsummiert werden. Das Schmalbandluminanzsignal ist demnach gleich 0,3R+ 0,59G + 0,11B.
-
Das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten ist für das Breitbandluminanzsignal gleich 0,67 und für das Schmalbandluminanzsignal gleich 0,51. Der Einfluss von R auf das Breitbandluminanzsignal ist demnach größer als auf das Schmalbandluminanzsignal. Wird ein rötlich gefärbtes Objekt mit dem Endoskopsystem betrachtet, so kann es vorkommen, dass der Signalpegel von R, der durch Addieren des Breitbandluminanzsignals auf das mit dem Schmalbandluminanzsignal berechnete Chrominanzdifferenzsignal erzeugt wird, die hierfür vorgesehene obere Pegelgrenze einer digitalen Schaltung übersteigt, selbst wenn der Signalpegel des Breitbandluminanzsignals unterhalb dieser oberen Pegelgrenze der digitalen Schaltung liegt. Nun ist ein Objekt, das üblicherweise mit einem medizinischen elektronischen Endoskop betrachtet wird, ein im Körperinneren liegendes Organ. Damit ist das Bild dieses Objektes meist rötlich gefärbt. Somit kann es vorkommen, dass der Signalpegel R die obere Pegelgrenze übersteigt.
-
Dagegen nimmt in dem Endoskopsystem 10 nach dem ersten Ausführungsbeispiel der von YH zu subtrahierende Signalpegel von kYH' proportional zur Stärke des von einem Pixel 26p empfangenen roten Lichtes zu. Folglich nimmt der Signalpegel von YH'' proportional zur Stärke des von einem Pixel 26p empfangenen roten Lichtes ab. Dadurch wird verhindert, dass der Signalpegel R die obere Pegelgrenze der digitalen Schaltung übersteigt, selbst wenn die Stärke des roten Lichtes groß ist.
-
Außerdem ist das Verhältnis des Koeffizienten für B zu dem Koeffizienten für G in dem Breitbandluminanzsignal größer als in dem Schmalbandluminanzsignal, wie dies auch für R der Fall ist. Damit ist der Einfluss von B auf das Breitbandluminanzsignal größer als auf das Schmalbandluminanzsignal. Wird ein bläulich gefärbtes Objekt mit dem Endoskopsystem betrachtet, so kann es deshalb vorkommen, dass der Signalpegel von B, der durch Addieren des Breitbandluminanzsignals auf das aus dem Schmalbandluminanzsignal berechnete Chrominanzdifferenzsignal erzeugt wird, die obere Pegelgrenze einer digitalen Schaltung übersteigt, selbst wenn der Signalpegel des Breitbandluminanzsignals unterhalb dieser oberen Pegelgrenze der digitalen Schaltung liegt.
-
Zusätzlich zu der oben beschriebenen Wirkung kann in dem ersten Ausführungsbeispiel ein Luminanzsignal zur Erzeugung von Primärfarbsignalkomponenten in Abhängigkeit der Lichtquelle geeignet korrigiert werden, wie nachfolgend beschrieben wird. So können in einem elektronischen Endoskop in Abhängigkeit des zu betrachtenden Objektes verschiedenartige Lichtquellen zum Einsatz kommen. Die Intensitäten der roten und der blauen Lichtkomponente innerhalb des Beleuchtungslichtes variieren abhängig von der Art der verwendeten Lichtquelle. In dem ersten Ausführungsbeispiel wird der Einfluss der Primärfarbsignalkomponenten auf das Signal kYH' dadurch eingestellt, dass die zur Berechnung von YL' verwendeten Koeffizienten in Abhängigkeit der Art der verwendeten Lichtquelle geändert werden. Indem der Einfluss der Primärfarbsignal komponenten gesteuert wird, kann so verhindert werden, dass die Signalpegel der auf das rote Licht und der auf das blaue Licht bezogenen Signalkomponente die obere Grenze übersteigt.
-
Zusätzlich zu den oben beschriebenen Wirkungen beseitigt in dem ersten Ausführungsbeispiel das LPF 32f die hochfrequenten Komponenten aus der Raumfrequenz des Signals YL'. Wie nachfolgend erläutert, werden in dem Signal YH'' scharfe Signalübergänge oder Signalsprünge innerhalb des Signals YH'' im Raum, d. h. in Abhängigkeit des Ortes, kontrastverstärkt, indem die hochfrequenten Komponenten aus dem Signal YL' entfernt werden.
-
Beispielsweise wird das Breitbandluminanzsignal für Pixel korrigiert, in denen das ursprüngliche Breitbandluminanzsignal den ersten Schwellwert übersteigt (vgl. die Größe „a” in der Zeile „YH” in 11). Um das Breitbandluminanzsignal dort zu korrigieren, wird das Signal YH' berechnet, indem YL' von YH subtrahiert wird. Durch Entfernen der hochfrequenten Komponenten aus dem Spektrum von YL' werden die hochfrequenten Komponenten des Spektrums von YH' beseitigt (vgl. Zeile „YH'” in 11). Dann wird der Signalpegel herabgesetzt, indem YH' mit k multipliziert wird. Scharfe Signalübergänge oder Signalsprünge von YH'' in Abhängigkeit des Ortes werden durch Subtrahieren von kYH' von YH kontrastverstärkt (vgl. Zeile „YH''” in 11).
-
In einem Bild, das auf YH'' basiert, verschwimmen die Konturen oder Ränder ohne Konturenverstärkung bzw. Randbetonung leicht, da die Änderungsrate in dem Signal YH'' geringer als die der tatsächlichen Helligkeit ist. In dem ersten Ausführungsbeispiel ist deshalb das Verfahren der Konturenverstärkung oder Randbetonung durch Korrektur des Luminanzsignals implementiert, um eine solche Unschärfe zu verringern.
-
Im Folgenden wird ein Endoskopsystem mit einem Bildsignalprozessor nach zweitem Ausführungsbeispiel beschrieben. Der Hauptunterschied zwischen dem zweiten Ausführungsbeispiel und dem ersten Ausführungsbeispiel liegt darin, dass die Signalverarbeitungseinheit nicht in einem elektronischen Endoskop, sondern in einem Endoskopprozessor eingebaut ist. Das zweite Ausführungsbeispiel wird hauptsächlich im Hinblick auf diejenigen Merkmale beschrieben, in denen es sich von dem ersten Ausführungsbeispiel unterscheidet. Strukturelle oder funktionelle Einheiten, die denen des ersten Ausführungsbeispiels entsprechen, sind mit den dort verwendeten Bezugszeichen versehen.
-
Wie in 12 gezeigt, enthält eine elektronisches Endoskop 200 einen Lichtleiter 25, eine Abbildungsvorrichtung 26, einen Analogeingang 27, kurz AFE, einen ROM 29 sowie weitere Komponenten. Ausbildung und Funktion des Lichtleiters 25, der Abbildungsvorrichtung 26 und des Analogeingangs 27 stimmen mit denen des ersten Ausführungsbeispiels überein.
-
Der ROM 29 ist in einem Anschlussteil 24 eingebaut und speichert gerätespezifische Informationen, die den Modelltyp des Endoskops 200 angeben. So beinhalten diese Modelltypen beispielsweise Bronchialendoskope, Endoskope die für den oberen oder den unteren Darmtrakt bestimmt sind, etc. Ist der Anschlussteil 24 mit dem Endoskopprozessor 11 verbunden, so ist der ROM 29 mit einer Signalverarbeitungseinheit 30 verbunden, die in dem Endoskopprozessor 11 eingebaut ist. Die Signalverarbeitungseinheit 30 liest die gerätespezifische Information aus.
-
Zusätzlich werden Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye), die von dem Analogeingang 27 ausgegeben werden, an die Signalverarbeitungseinheit 30 gesendet.
-
Wie oben beschrieben, ist die Signalverarbeitungseinheit 30 nach zweitem Ausführungsbeispiel in dem Endoskopprozessor 11 eingebaut. Aufbau und Funktion der Signalverarbeitungseinheit 30 sind gleich denen des ersten Ausführungsbeispiels, abgesehen von der Verwendung der Koeffizienten, die dazu bestimmt sind, das Signal YL' in Abhängigkeit der gerätespezifischen Information zu berechnen.
-
Wie in 4 gezeigt, enthält die Signalverarbeitungseinheit 30 nach zweitem Ausführungsbeispiel ebenfalls eine Schaltung zur automatischen Verstärkungsregelung 31, kurz AGC, einen Farbsignalverarbeitungsblock 32, einen Luminanzsignalverarbeitungsblock 33 und einen Codierer 34. Die Signalverarbeitungseinheit 30 erzeugt die Signale YH'', R-YL und B-YL wie in dem ersten Ausführungsbeispiel. Außerdem erzeugt die Signalverarbeitungseinheit 30 auf Grundlage der Signale YH'', R-YL und B-YL ein Videosignal. Das Videosignal wird an den Monitor gesendet.
-
Wie in 13 gezeigt, enthält der Farbsignalverarbeitungsblock 32 nach zweitem Ausführungsbeispiel eine RGB-Matrixschaltung 32a, eine Gammakorrekturschaltung 32b, eine erste und eine zweite YL-Matrixschaltung 32c1 und 320c2, eine Weißabgleichsschaltung 32d, eine Chrominanzdifferenz-Matrixschaltung 32e und ein LPF 32f. Die gerätespezifische Information, die an die zweite YL-Matrixschaltung (Endoskopbestimmungsblock) 320c2, welche die Signalverarbeitungseinheit 30 enthält, gesendet wird, unterscheidet sich von der des ersten Ausführungsbeispiels.
-
Anordnung und Aufbau der RGB-Matrixschaltung 32a, der Gammakorrekturschaltung 32b, der ersten YL-Matrixschaltung 32c1, der Weißabgleichsschaltung 32d, der Chrominanzdifferenz-Matrixschaltung 32e und des LPF 32f sind gleich denen des ersten Ausführungsbeispiels.
-
Die zweite YL-Matrixschaltung 320c2 ist im Unterschied zu dem ersten Ausführungsbeispiel mit dem ROM 29 verbunden, der in dem elektronischen Endoskop 201 eingebaut ist. Die gerätespezifische Information, die den Modelltyp des angeschlossenen Endoskops angibt, wird von dem ROM 29 an die zweite YL-Matrixschaltung 320c2 gesendet.
-
Die zweite YL-Matrixschaltung 320c2 erzeugt wie in dem ersten Ausführungsbeispiel das Signal YL' durch Aufsummieren der Signale R, G und B, die mit vorbestimmten Koeffizienten multipliziert werden, die von der gerätespezifischen Information abhängen.
-
Ist das elektronische Endoskop 200 ein Bronchialendoskop, so wird das Signal YL' berechnet nach YL' = 0,3R + 0,5G + 0,2B. Ist das elektronische Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop, so wird das Signal YL' berechnet nach YL' = 0R + 0,9G + 0,1B. Ist das elektronische Endoskop 200 ein für den unteren Darmtrakt bestimmtes Endoskop, so wird das Signal YL' berechnet nach YL' = 0,3R + 0,7G + 0B.
-
Der Bronchus sieht üblicherweise blass aus, so dass die reflektierte rote Lichtkomponente klein ist. Es ist deshalb erforderlich, den Einfluss der Komponente G auf das Luminanzsignal zu verringern. Dies kann dadurch erreicht werden, dass in der zur Berechnung von YL' der Koeffizient für G herabgesetzt wird.
-
Der obere Darmtrakt sieht üblicherweise rötlich aus. Es ist deshalb erforderlich, den Einfluss von R auf das Luminanzsignal herabzusetzen. Dies kann dadurch erreicht werden, dass in der Gleichung zur Berechnung von YL' der Koeffizient für R herabgesetzt wird.
-
Der untere Darmtrakt sieht üblicherweise bläulich aus. Es ist deshalb erforderlich, den Einfluss von B auf das Luminanzsignal herabzusetzen.
-
Dies kann dadurch erreicht werden, dass in der Gleichung zur Berechnung von YL' der Koeffizient für B herabgesetzt wird.
-
Im Folgenden wird die Bildsignalverarbeitung, die in dem zweiten Ausführungsbeispiel von der Signalverarbeitungseinheit 30 durchgeführt wird, unter Bezugnahme auf die Flussdiagramme nach den 10 und 14 beschrieben. Die von der Signalverarbeitungseinheit 30 durchgeführte Signalverarbeitung beginnt, wenn das elektronische Endoskop 200 wie in dem ersten Ausführungsbeispiel mit dem Endoskopprozessor 11 verbunden und der Endoskopprozessor 11 eingeschaltet wird. Die Verarbeitung endet, wenn die Betriebsart des Endoskopprozessors 11 auf eine andere Betriebsart als den Beobachtungsmodus geändert oder der Endoskopprozessor 11 ausgeschaltet wird, wie dies auch in dem ersten Ausführungsbeispiel der Fall ist.
-
In Schritt S100' (vgl. 14) wird die gerätespezifische Information aus dem elektronische Endoskop 200 ausgelesen. In den unten beschriebenen Schritten S101' und S102' wird der Modelltyp des an dem Endoskopprozessor 11 angeschlossenen Endoskops 200 aus der gerätespezifischen Information ausgelesen.
-
In Schritt S101' wird ermittelt, ob das elektronische Endoskop 200 ein Bronchialendoskop ist. Ist Endoskop 200 ein Bronchialendoskop, so fährt der Prozess mit Schritt S103' fort. Andernfalls fährt der Prozess mit Schritt S102' fort. In Schritt S102' wird ermittelt, ob das elektronische Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop ist. Ist das Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop, so fährt der Prozess mit Schritt S104' fort. Andernfalls wird das elektronische Endoskop 200 als ein Endoskop identifiziert, das für den unteren Darmtrakt bestimmt ist, und der Prozess fährt mit Schritt S105' fort.
-
In Schritt S103' wird YL' mit den Koeffizienten 0,3, 0,5 und 0,2 für R, G bzw. B berechnet, falls das Endoskop 200 ein Bronchialendoskop ist. In Schritt S104' wird YL' mit den Koeffizienten 0, 0,9 und 0,1 für R, G bzw. B berechnet, falls das Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop ist. In Schritt S105' wird YL' mit den Koeffizienten 0,3, 0,7 und 0 für R, G bzw. B berechnet, falls das Endoskop 200 ein für den unteren Darmtrakt bestimmtes Endoskop ist.
-
Nach der Berechnung von YL' in den Schritten S103', S104' oder S105' fährt der Prozess mit Schritt S106 fort (vgl. 10). Dann werden die Schritte S106 bis S113 wie in dem ersten Ausführungsbeispiel ausgeführt.
-
Wie in dem zweiten Ausführungsbeispiel können wie in dem ersten Ausführungsbeispiel die Farben in einem Bild, das auf dem Bildsignal beruht, unabhängig von der Färbung des optischen Bildes farbtreu dargestellt werden. Außerdem können die Farben in dem auf dem Bildsignal basierenden Bild unabhängig von dem Objekt, das mit dem an den Endoskopprozessor angeschlossenen elektronischen Endoskop betrachtet wird, farbtreu dargestellt werden.
-
In dem ersten und zweiten Ausführungsbeispiel wird YH' berechnet, indem das Signal YL', das von der zweiten YL-Matrixschaltung 32c2 bzw. 320c2 auf Grundlage der Signale R, G und B erzeugt wird, von dem Signal YH subtrahiert wird. Jedoch erzeugt die zweite YL-Matrixschaltung 32c2 oder 320c2 direkt das Signal YH', indem sie die mit vorbestimmten Koeffizienten (zweite Koeffizientenkombination) multiplizierten Signale R, G und B aufsummiert. Das erzeugte Signal YH' kann zur Berechnung des Signals YH'' verwendet werden. In diesem Fall sollte das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH' größer eingestellt werden als das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH.
-
Indem der Koeffizient für R in der Berechnung von YH' nach obiger Bedingung bestimmt wird, kann der Einfluss von R auf YH'' verringert werden. Um den Einfluss von B auf YH'' zu verringern, sollte das Verhältnis des auf B bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH' größer eingestellt werden als das Verhältnis des auf B bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH.
-
In dem ersten und zweiten Ausführungsbeispiel erzeugt die Signalverarbeitungseinheit 30 auf Grundlage von R-YL, B-YL und YH'' ein Videosignal und gibt dieses aus. Die Signalverarbeitungseinheit 30 kann jedoch stattdessen auf Grundlage der vorerzeugten Signale R-YL, B-YL und YH'' in einer RGB-Erzeugungsschaltung (Farbsignalerzeugungsblock) die Signale R, G und B erzeugen und diese an ein externes Gerät ausgeben.
-
In dem ersten und zweiten Ausführungsbeispiel sind die Pixel 26p mit Komplementärfarbfiltern bedeckt. Stattdessen können sie jedoch auch mit Primärfarbfiltern für rot, grün und blau bedeckt sein. In diesem Fall wären die erzeugten Pixelsignale R-, G- und B-Signale, die entsprechend der Stärke des empfangenen roten, grünen bzw. blauen Lichtes variieren. Um die Signalverarbeitung nach erstem und zweitem Ausführungsbeispiel durchzuführen, müssten Komplementärfarbsignalkomponenten Mg, Cy, Ye und G von einer nicht gezeigten Erzeugungsschaltung auf Grundlage der Signale R, G und B erzeugt werden, so dass die Signale Mg, Cy, Ye und G einer Signalverarbeitung unterzogen werden könnten. Alternativ können die Signale YH, YL und YL' erzeugt werden, indem die mit ihren jeweiligen vorbestimmten Koeffizienten multiplizierten Signale R, G und B aufsummiert werden.
-
In dem ersten und zweiten Ausführungsbeispiel werden hochfrequente Komponenten, die eine vorbestimmte Frequenz übersteigen, durch das einzige LPF 32f beseitigt. Jedoch kann die Grenzfrequenz auch mittels mehrerer LPFs gewählt werden, von denen jedes Einzelne eine unterschiedliche Grenzfrequenz aufweist. So kann in dem dargestellten Bild die Schärfe einer Kontur oder eines Randes durch Ändern der Grenzfrequenz variiert werden.
-
Beispielsweise kann die Grenzfrequenz automatisch in Abhängigkeit des Signalpegels des Signals YH eingestellt werden. So werden ein erster und ein zweiter Schwellwert zwecks eines Vergleichs mit YH in der Bestimmungsschaltung 35d vorbestimmt, wobei der erste Schwellwert größer als der zweite Schwellwert ist. Übersteigt der Signalpegel von YH den ersten Schwellwert, so kann die Grenzfrequenz gegenüber einer Grenzfrequenz geändert werden, die vorliegt, wenn der Signalpegel YH zwischen dem ersten und dem zweiten Schwellwert liegt.
-
Selbst wenn das LPF in dem ersten oder dem zweiten Ausführungsbeispiel nicht eingebaut ist, können die Farben in einem Bild unabhängig von der Färbung des aufgenommenen optischen Bildes farbtreu dargestellt werden.
-
In dem ersten und dem zweiten Ausführungsbeispiel ist der erste Schwellwert fest. Der erste Schwellwert kann jedoch auch veränderbar sein. So könnte der erste Schwellwert durch den Benutzer manuell veränderbar oder durch eine entsprechende Vorrichtung des Endoskopprozessors 11 automatisch veränderbar sein.