DE102008005679B4 - Bildsignalverarbeitungseinheit - Google Patents

Bildsignalverarbeitungseinheit Download PDF

Info

Publication number
DE102008005679B4
DE102008005679B4 DE102008005679.0A DE102008005679A DE102008005679B4 DE 102008005679 B4 DE102008005679 B4 DE 102008005679B4 DE 102008005679 A DE102008005679 A DE 102008005679A DE 102008005679 B4 DE102008005679 B4 DE 102008005679B4
Authority
DE
Germany
Prior art keywords
luminance
signal
coefficient
image signal
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102008005679.0A
Other languages
English (en)
Other versions
DE102008005679A1 (de
Inventor
Kohei Iketani
Go Matsui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of DE102008005679A1 publication Critical patent/DE102008005679A1/de
Application granted granted Critical
Publication of DE102008005679B4 publication Critical patent/DE102008005679B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

Bildsignalverarbeitungseinheit (30) mit: – einem Empfänger (31), der ein Bildsignal empfängt, das eine Vielzahl von Pixelsignalen enthält, die von einer Vielzahl von auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (26) angeordneten Pixeln entsprechend den von den Pixeln empfangenen Lichtmengen erzeugt werden; – einem ersten Luminanzberechnungsblock, der für jedes Pixel eine erste Luminanz entsprechend der Summe mehrerer Primärfarblichtkomponenten, die jeweils mit einem Koeffizienten aus einer ersten Koeffizientenkombination multipliziert werden, auf Grundlage des Bildsignals berechnet; – einem zweiten Luminanzberechnungsblock (35a), der für jedes Pixel eine zweite Luminanz entsprechend der Summe der mehreren Primärfarblichtkomponenten, die jeweils mit einem Koeffizienten aus einer zweiten Koeffizientenkombination multipliziert werden, auf Grundlage des Bildsignals berechnet, wobei das Verhältnis des Koeffizienten, mit dem eine erste Primärfarblichtkomponente multipliziert wird, zu dem Koeffizienten, mit dem eine zweite Primärfarblichtkomponente multipliziert wird, in der zweiten Koeffizientenkombination größer ist als das entsprechende Verhältnis in der ersten Koeffizientenkombination; – einem Vergleichsblock (35b), der die erste Luminanz mit einem Schwellwert vergleicht; – einem Korrekturwertberechnungsblock, der einen Luminanzkorrekturwert in Abhängigkeit der zweiten Luminanz berechnet, wenn die erste Luminanz größer als der Schwellwert ist; und – einem Subtraktionsblock (33b), der eine korrigierte Luminanz berechnet, indem er den Luminanzkorrekturwert von der ersten Luminanz subtrahiert.

Description

  • Die Erfindung betrifft eine Bildsignalverarbeitungseinheit, die eine Signalverarbeitung an einem Bildsignal vornimmt, das durch Aufnahme eines optischen Bildes erzeugt wird, in dem der Anteil einer bestimmten Primärfarbe deutlich größer als die Anteile der anderen Primärfarben ist, wie dies beispielsweise bei einem mit einem elektrischen Endoskop aufgenommen optischen Bild der Fall ist.
  • Eine Abbildungsvorrichtung erzeugt ein Bildsignal, das einem aufgenommenen optischen Objektbild entspricht. Bei einem erzeugten Bildsignal wird eine vorbestimmte Signalverarbeitung derart vorgenommen, dass die Farben in einem Objektbild so genau wie möglich dargestellt werden. Nachdem das Bildsignal in dieser vorbestimmten Weise verarbeitet worden ist, wird das resultierende Bild auf einem Monitor dargestellt.
  • Abbildungsvorrichtungen können in verschiedenartigen Geräten installiert werden. So ist ein elektronisches Endoskop bekannt, das eine Abbildungsvorrichtung am Kopf seines Einführrohrs aufweist. Ein medizinisches elektronisches Endoskop wird eingesetzt, um das Innere des menschlichen Körpers zu betrachten. Üblicherweise werden in solchen medizinischen elektronischen Endoskopen CCD-Abbildungsvorrichtungen mit Komplementärfarbfiltern verwendet.
  • Eine CCD-Abbildungsvorrichtung mit Komplementärfarbfiltern erzeugt Komplementärfarbsignalkomponenten wie Mg (magenta), Ye (gelb), G (grün) und Cy (cyan). In der Signalverarbeitung, die bei einem herkömmlichen medizinischen Endoskop vorgesehen ist, werden ein Breitbandluminanzsignal und ein Schmalbandluminanzsignal auf Grundlage des Komplementärfarbsignals erzeugt. Zusätzlich werden Chrominanzdifferenzsignale auf Grundlage des Schmalbandluminanzsignals erzeugt. Das Breitbandluminanzsignal und die Chrominanzdifferenzsignale werden an einen Monitor gesendet. Der Monitor erzeugt auf Grundlage des empfangenen Breitbandluminanzsignals und der empfangenen Chrominanzdifferenzsignale Primärfarbsignalkomponenten R, G und B. Ein auf den Primärfarbsignalkomponenten basierendes Bild wird dann auf einem Monitor dargestellt. Die Primärfarbsignalkomponenten können in dem Endoskopprozessor erzeugt und an den Monitor gesendet werden.
  • Der mit einem medizinischen elektronischen Endoskop untersuchte Gegenstand ist hauptsächlich das Innere eines Organs, so dass das optische Bild dieses Gegenstandes meistens rötlich gefärbt ist. Bei Aufnahme eines rötlichen optischen Bildes kann es vorkommen, dass gerade der Signalpegel der Rotsignalkomponente (die auf Grundlage des Breitbandluminanzsignals erzeugt wird), die hierfür vorgesehenen oberen Grenzen des Endoskopprozessors oder des Monitors übersteigt. Übersteigt lediglich der Signalpegel der Rotsignalkomponente die obere Grenze, so ist es nicht möglich, die Farben präzise auf einem Monitor darzustellen.
  • Aus der DE 103 59 996 A1 ist eine Bildsignalverarbeitungseinheit für ein Endoskop bekannt, in der digitale Komplementärfarbsignale in RGB-Signale separiert werden. Die RGB-Signale werden mit einem vorbestimmten Farbmatrixkoeffizienten multipliziert. Anschließend werden Luminanzsignale aus den RGB-Signalen extrahiert. Zum Einstellen der Lichtmenge wird auf Basis des Luminanzsignals ein Steuerungssignal berechnet, auf dessen Grundlage der Farbmatrixkoeffizient geändert wird.
  • Die DE 102 26 582 A1 offenbart eine für ein Endoskop bestimmte Bildsignalverarbeitungseinheit, in der Farb-Bildsignale erzeugt werden, die den Primärfarben RGB oder Komplementärfarben entsprechen. Die Bildsignalverarbeitungseinheit umfasst einen Lichtquellendetektor, der den eingesetzten Lichtquellentyp erfasst. Entsprechend dem erfassten Lichtquellentyp wird ein Farbeinstellprozess derart durchgeführt, dass in einem dargestellten Objektbild die Farbe korrekt wiedergegeben wird.
  • Aus der US 2005/0068 427 A1 ist eine für ein Endoskop bestimmte Bildsignalverarbeitungseinheit bekannt, in der eine Farbseparationsschaltung mit Hilfe einer Farbmatrix eine Umwandlung von Luminanz- und Farbdifferenzsignalen in Primärfarbsignale vornimmt. Die Bildsignalverarbeitungseinheit weist einen Speicher auf, in dem in Abhängigkeit des zu beobachtenden Zielbereichs, des Lichtquellentyps etc. verschiedene Farbmatrizen gespeichert sind, die wahlweise zur Erzeugung der Primärfarbsignale genutzt werden.
  • Aufgabe der Erfindung ist es, eine Bildsignalverarbeitseinheit anzugeben, die an Bildsignalen eine Signalverarbeitung derart vornimmt, dass in einem auf dem Bildsignal basierenden Bild die Farben farbtreu auch dann wiedergegeben werden, wenn in dem aufgenommenen optischen Bild die Intensität einer bestimmten Farbe deutlich größer als die Intensitäten der anderen Farben ist.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Nach der Erfindung enthält eine Bildsignalverarbeitungseinheit einen Empfänger, einen ersten und einen zweiten Luminanzberechnungsblock, einen Vergleichsblock, einen Korrekturwertberechnungsblock und einen Subtraktionsblock. Der Empfänger empfängt ein Bildsignal. Das Bildsignal enthält eine Vielzahl von Pixelsignalen. Jedes Pixelsignal wird entsprechend der von einem Pixel empfangenen Lichtmenge erzeugt. Auf einer Lichtempfangsfläche einer Abbildungsvorrichtung ist eine Vielzahl von Pixeln angeordnet. Der erste Luminanzberechnungsblock berechnet eine erste Luminanz entsprechend der Summe mehrerer Primärfarblichtkomponenten. Auf Grundlage des Bildsignals wird für jedes Pixel jede der Primärfarblichtkomponenten mit einem Koeffizienten aus einer ersten Koeffizientenkombination multipliziert. Der zweite Luminanzberechnungsblock berechnet für jedes Pixel auf Grundlage des Bildsignals eine zweite Luminanz entsprechend der Summe mehrerer der Primärfarblichtkomponenten, die mit einem Koeffizienten aus einer zweiten Koeffizientenkombination multipliziert werden. Das Verhältnis des Koeffizienten, mit dem eine erste Primärfarblichtkomponente multipliziert wird, zu dem Koeffizienten, mit dem eine zweite Primärfarblichtkomponente multipliziert wird, ist in der zweiten Koeffizientenkombination größer als das entsprechende Verhältnis in der ersten Koeffizientenkombination. Der Vergleichsbock vergleicht die erste Luminanz mit einem Schwellwert. Der Korrekturwertberechnungsblock berechnet einen Luminanzkorrekturwert in Abhängigkeit der zweiten Luminanz, wenn die erste Luminanz größer als der Schwellwert ist. Der Subtraktionsblock berechnet eine korrigierte Luminanz, indem er den Luminanzkorrekturwert von der ersten Luminanz subtrahiert.
  • Die Bildsignalverarbeitungseinheit enthält einen Chrominanzdifferenzberechnungsblock und einen Ausgabeblock. Der Chrominanzdifferenzberechnungsblock berechnet für jedes Pixel auf Grundlage des Bildsignals eine Chrominanzdifferenz. Der Ausgabeblock gibt für jedes Pixel ein Chrominanzdifferenzsignal entsprechend der Chrominanzdifferenz und ein Luminanzsignal entsprechend der korrigierten Luminanz aus, wenn die erste Luminanz größer ist als der Schwellwert. Ist dagegen die erste Luminanz kleiner als der Schwellwert, so gibt der Ausgabeblock ein Chrominanzdifferenzsignal entsprechend der Chrominanzdifferenz und ein Luminanzsignal entsprechend der ersten Luminanz für jedes Pixel aus.
  • Ferner enthält die Bildsignalverarbeitungseinheit einen Lichtquellenbestimmungsblock. Der Lichtquellenbestimmungsblock bestimmt die Art der das Beleuchtungslicht auf ein Objekt ausgebenden Lichtquelle. Die Abbildungsvorrichtung fängt ein optisches Bild des Objektes ein. Die zweite Koeffizientenkombination wird in Abhängigkeit der von dem Lichtquellenbestimmungsblock durchgeführten Bestimmung der Art der Lichtquelle verändert. Die Bildsignalverarbeitungseinheit ist in einem Endoskop eingebaut, das die Abbildungsvorrichtung enthält.
  • Ferner enthält die Bildsignalverarbeitungseinheit einen Endoskopbestimmungsblock. Der Endoskopbestimmungsblock bestimmt die Art des die Abbildungsvorrichtung enthaltenden Endoskops. Die zweite Koeffizientenkombination wird in Abhängigkeit der von dem Endoskopbestimmungsblock vorgenommenen Bestimmung der Art des Endoskops verändert. Die Bildsignalverarbeitungseinheit ist in einem Endoskopprozessor eingebaut, der an dem Bildsignal die Signalverarbeitung vornimmt.
  • Die Erfindung wird im Folgenden mitsamt ihren Vorteilen unter Bezugnahme auf die Figuren näher beschrieben. Darin zeigen:
  • 1 eine Außenansicht eines Endoskopsystems mit einer Bildsignalverarbeitungseinheit als erstes Ausführungsbeispiel;
  • 2 ein Blockdiagramm, das den inneren Aufbau des elektronischen Endoskops nach erstem Ausführungsbeispiel zeigt;
  • 3 die Anordnung von Komplementärfarbfiltern auf der Lichtempfangsfläche der Abbildungsvorrichtung;
  • 4 ein Blockdiagramm, das den inneren Aufbau der Signalverarbeitungseinheit nach erstem und zweitem Ausführungsbeispiel zeigt;
  • 5 ein Blockdiagramm, das den inneren Aufbau des Farbsignalverarbeitungsblocks in dem ersten Ausführungsbeispiel zeigt;
  • 6A einen Graphen, der die Luminanzsignalpegel von Pixeln, die in einer Zeile angeordnet sind, vor Beseitigung der hochfrequenten Komponenten;
  • 6B einen Graphen, der die Luminanzsignalpegel von Pixeln, die in einer Zeile angeordnet sind, nach Beseitigung der hochfrequenten Komponenten zeigt;
  • 7 ein Blockdiagram, das den inneren Aufbau des Luminanzsignalverarbeitungsblocks in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
  • 8 ein Blockdiagramm, das den inneren Aufbau der Rechenschaltung in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
  • 9 ein Flussdiagramm, das die Berechnung des zweiten Schmalbandluminanzsignals in dem ersten Ausführungsbeispiel zeigt;
  • 10 ein Flussdiagramm, das die Erzeugung des korrigierten Luminanzsignals auf Grundlage des zweiten Schmalbandluminanzsignals in dem ersten und dem zweiten Ausführungsbeispiel zeigt;
  • 11 einen Graphen, der zur Erläuterung der Wirkung einer Konturenverstärkung die Luminanzsignalpegel von Pixeln zeigt, die in einer Zeile angeordnet sind;
  • 12 ein Blockdiagramm, das den Aufbau des elektronischen Endoskops nach zweitem Ausführungsbeispiel zeigt;
  • 13 ein Blockdiagramm, das den Aufbau des Farbsignalverarbeitungsblocks in dem zweiten Ausführungsbeispiel zeigt; und
  • 14 ein Flussdiagramm, das die Berechnung des zweiten Schmalbandluminanzsignals in dem zweiten Ausführungsbeispiel zeigt.
  • Beschreibung bevorzugter Ausführungsbeispiele
  • Die Erfindung wird im Folgenden anhand des ersten und des zweiten Ausführungsbeispiels beschrieben, die in den Zeichnungen dargestellt sind.
  • In 1 ist ein Endoskopsystem 10 nach erstem Ausführungsbeispiel gezeigt, das ein elektronisches Endoskop 20, einen Endoskopprozessor (Bildsignalprozessor) 11 und einen Monitor 12 enthält. Der Endoskopprozessor 11 ist mit dem elektronischen Endoskop 20 und dem Monitor 12 verbunden.
  • Ein Teil des elektronischen Endoskops 20 wird beispielsweise in einen menschlichen Körper eingeführt. Das elektronische Endoskop 20 nimmt in dem menschlichen Körper ein Bild auf. Dabei wird ein Bildsignal erzeugt, das dem aufgenommenen optischen Bild entspricht. Das Bildsignal wird an den Endoskopprozessor 11 gesendet. Der Endoskopprozessor 11 nimmt an dem empfangenen Bildsignal eine vorbestimmte Signalverarbeitung vor. Das in dieser vorbestimmten Weise verarbeitete Bildsignal wird an den Monitor 12 gesendet, auf dem ein dem Bildsignal entsprechendes Bild dargestellt wird.
  • Das elektronische Endoskop 20 umfasst ein Einführrohr 21, einen Steuerblock 22, ein Verbindungsrohr 23 und einen Anschlussteil 24. Das proximale Ende des Einführrohrs 21 ist mit dem Steuerblock 22 verbunden. Der Steuerblock 22 ist über das Verbindungsrohr 23 mit dem Anschlussteil 24 verbunden.
  • Das Einführrohr 21 ist flexibel und in eine Körperkavität einführbar. Der Steuerblock 22 hat Schalter zur Initialisierung einiger Funktionen des Endoskops 20 und des Endoskopsystems 10. Das elektronische Endoskop 20 wird mit dem Endoskopprozessor 11 verbunden, in dem der Anschlussteil 24 in den nicht gezeigten Anschluss des Endoskopprozessors 40 eingesetzt wird.
  • Der interne Aufbau des elektronischen Endoskops 20 wird im Folgenden unter Bezugnahme auf 2 erläutert. Das Endoskop 20 hat einen Lichtleiter 25, eine Abbildungsvorrichtung 26, einen Analogeingang 27, auch kurz als AFE bezeichnet, eine Signalverarbeitungseinheit (Bildsignalverarbeitungseinheit) 30 sowie weitere Komponenten.
  • Der Lichtleiter 25 ist ein Lichtleitfaserbündel, dessen eines Ende in dem Anschlussteil 24 und dessen anderes Ende am Kopfende des Einführrohrs 21 montiert ist. Die Abbildungsvorrichtung 26 ist am Kopfende des Einführrohrs 21 montiert. Der Analogeingang 27 und die Signalverarbeitungseinheit 30 sind in dem Anschlussteil 24 montiert.
  • Wird der Anschlussteil 24 in den Anschluss des Endoskopprozessors 11 eingesetzt, so wird der Lichtleiter 25 optisch mit einer nicht gezeigten Lichtquelle gekoppelt, die in dem Endoskopprozessor 11 eingebaut ist. Von der Lichtquelle abgegebenes Beleuchtungslicht wird durch den Lichtleiter 25 übertragen. Das an das Austrittsende des Lichtleiters 25 übertragene Licht beleuchtet nach Durchtritt durch eine Zerstreuungslinse 28d einen Bereich in der Umgebung des Kopfendes des Einführrohrs 21. Das an dem Objekt reflektierte Beleuchtungslicht fällt nach Durchtritt durch eine Objektivlinie 28o auf die Lichtempfangsfläche einer Abbildungsvorrichtung 26. Die Abbildungsvorrichtung 26 ist ein ladungsgekoppeltes Bauelement, kurz CCD.
  • Wie in 3 gezeigt, ist eine Vielzahl von Pixeln 26p in zwei Dimensionen auf der Lichtempfangsfläche der Abbildungsvorrichtung 26 angeordnet. Die Pixel sind in Zeilen und Spalten angeordnet, wobei in der folgenden Beschreibung die Zeilen von unten nach oben und die Spalten von links nach rechts nummeriert sind. Die Pixel 26p sind mit Farbfiltern in der sogenannten zeilensequentiellen Komplementärfarbdifferenz-Anordnung bedeckt. Dabei hat eine sich wiederholende Filtereinheit zwei Spalten und vier Zeilen. Die erste Spalte, die (von unten nach oben) mit Magenta-, Cyan-, Grün- und Cyan-Filtern bedeckte Pixel enthält, ist von einer zweiten Spalte von Pixeln flankiert, die mit Grün, Gelb, Magenta und Gelb-Filtern bedeckt sind.
  • Jedes Pixel 26p empfängt die Farblichtkomponente, die durch das dieses Pixel bedeckende Farbfilter tritt. Das Pixel 26p erzeugt ein Pixelsignal entsprechend der Intensität der empfangenen Farblichtkomponente. Dabei empfangen Pixel, die mit Farbfiltern der Farbe magenta, cyan, grün und gelb bedeckt sind, Pixelsignale entsprechend der Farbe ihrer Filter, im Folgenden als Mg, Cy, G und Ye bezeichnet (Komplementärfarbsignalkomponente).
  • Die Abbildungsvorrichtung 26 wird von dem Analogeingang 27 so angesteuert, dass sie jede 1/30-te Sekunde abwechselnd und wiederholt auf geradzahlige Teilbilder und ungeradzahlige Teilbilder bezogene Bildsignale ausgibt. Der Analogeingang 27 wird durch eine nicht gezeigte Zeitsteuerung gesteuert, die in dem Endoskopprozessor 11 eingebaut ist.
  • In dem geradzahligen Teilbild wird ein Pixelsignal, das von einem in einer ungeradzahligen Zeile angeordneten Pixel 26p erzeugt wird, mit dem Pixelsignal gemischt, das von einem Pixel 26p erzeugt wird, welches in der geradzahligen Zeile direkt oberhalb des vorstehend genannten Pixels 26p angeordnet ist. Die Mischpixelsignale, im Folgenden auch als Mischpixelsignale bezeichnet, werden in Zeilenrichtung nacheinander ausgegeben. Nachdem alle in der ungeradzahligen Zeile erzeugten Mischpixelsignale ausgegeben sind, wird damit begonnen, in der nächsten ungeradzahligen Zeile die Pixelsignale zu mischen und die Mischpixelsignale auszugeben.
  • Beispielsweise werden Pixelsignale, die von Pixeln erzeugt werden, welche in der ersten, dritten, ..., (2n – 1)-ten und (2n + 1)-ten Zeile angeordnet sind, mit Pixelsignalen gemischt, die von Pixeln erzeugt werden, welche in der zweiten, vierten, ..., 2n-ten und (2n + 2)-tert Zeile angeordnet sind. Somit werden in der ersten Zeile von links beginnend wiederholt und abwechselnd (Mg + Cy) und (G + Ye) gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben. In der nächsten ungeradzahligen Zeile, d. h. in der dritten Zeile, werden ebenfalls von links beginnend wiederholt und abwechselnd (G + Cy) und (Mg + Ye) gemischt. Diese Mischsignale werden ebenfalls nacheinander ausgegeben.
  • In dem ungeradzahligen Teilbild wird ein Pixelsignal, das von einem in einer geradzahligen Zeile angeordneten Pixel 26p erzeugt wird, mit dem Pixelsignal gemischt, das von dem Pixel 26p erzeugt wird, das in der ungeradzahligen Zeile direkt oberhalb des vorstehend genannten Pixels angeordnet ist. Die Mischpixelsignale werden in Zeilenrichtung nacheinander ausgegeben. Nachdem alle Mischpixelsignale, die in der geradzahligen Zeile erzeugt worden sind, ausgegeben sind, wird in der nächsten geradzahligen Zeile damit begonnen, die Pixelsignale zu mischen und die Mischpixelsignale auszugeben.
  • Beispielsweise werden Pixelsignale, die von den Pixeln, die in der zweiten, vierten, ..., 2n-ten und (2n + 2)-ten Zeile angeordnet sind, erzeugt werden, mit Pixelsignalen gemischt, die von den Pixeln 26p erzeugt werden, die in der dritten, fünften, ..., (2n + 1)-ten und (2n + 3)-ten Zeile angeordnet sind. In der zweiten Zeile werden also beginnend von links (Cy + G) und (Ye + Mg) wiederholt und abwechselnd gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben. In der nächsten geradzahligen Zeile, d. h. in der vierten Zeile, werden beginnend von links ebenfalls (Cy + Mg) und (Ye + G) wiederholt und abwechselnd gemischt. Diese Mischpixelsignale werden nacheinander ausgegeben.
  • Die auf das geradzahlige Teilbild und die auf das ungeradzahlige Teilbild bezogenen Bildsignale enthalten eine Vielzahl von Mischpixelsignalen, die in dem geradzahligen bzw. dem ungeradzahligen Teilbild ausgegeben werden. Die auf das geradzahlige und das ungeradzahlige Teilbild bezogenen Bildsignale werden von der Abbildungsvorrichtung 26 an den Analogeingang 27 gesendet.
  • Der Analogeingang 27 enthält eine nicht gezeigte Schaltung zur korrelierten Doppelabtastung, kurz CDS, sowie einen nicht gezeigten A/D-Wandler. Der Analogeingang 27 nimmt an dem empfangenen Bildsignal eine Signalverarbeitung zur korrelierten Doppelabtastung vor. Zudem wandelt der Analogeingang 27 das analoge Bildsignal in ein digitales Bildsignal.
  • Das Bildsignal wird an die Signalverarbeitungseinheit 30 gesendet. Die Signalverarbeitungseinheit 30 nimmt an dem empfangenen Bildsignal eine Signalverarbeitung vor, wie weiter unten beschrieben wird.
  • Wie in 4 gezeigt, enthält die Signalverarbeitungseinheit 30 einen Verstärker mit automatischer Verstärkungsregelung 31, kurz AGC (Empfänger), einen Farbsignalverarbeitungsblock 32, einen Luminanzsignalverarbeitungsblock (Luminanzsignalkorrekturblock) 33 und einen Codierer (Ausgabeblock) 34.
  • Das Bildsignal, das die Signalverarbeitungseinheit 30 empfängt, wird dem AGC 31 zugeführt, der an dem empfangenen Bildsignal eine Verstärkungsregelung vornimmt. Der AGC sendet die Mischpixelsignale (Mg + Cy), (Ye + G), (G + Cy) und (Mg + Ye) an den Farbsignalverarbeitungsblock 32 und den Luminanzverarbeitungsblock 33.
  • Der Farbsignalverarbeitungsblock 32 erzeugt für jedes einzelne Pixel 26p auf Grundlage der Mischpixelsignale Chrominanzdifferenzsignale für rot und blau, im Folgenden als R-YL bzw. B-YL bezeichnet, sowie ein zweites Schmalbandluminanzsignal, im Folgenden YL' bezeichnet. Der Luminanzverarbeitungsblock 33 erzeugt auf Grundlage der Mischpixelsignale und des Signals YL' ein korrigiertes Luminanzsignal, im Folgenden als YH'' bezeichnet.
  • Die Signale R-YL, B-YL und YH'' für sämtliche Pixel 26p werden an den Codierer 34 gesendet. Der Codierer 34 erzeugt ein Videosignal, indem er die Signale R-YL, B-YL und YH'' codiert und das digitale Signal in ein analoges Signal wandelt. Zudem sendet der Codierer 34 das Videosignal an den Endoskopprozessor 11. Schließlich wird das Videosignal zur Darstellung eines Bildes auf dem Monitor 12 genutzt.
  • Im Folgenden werden Aufbau und Funktion des Farbsignalverarbeitungsblock 32, der die Signale R-YL und B-YL erzeugt, im Einzelnen beschrieben. Wie in 5 gezeigt, enthält der Farbsignalverarbeitungsblock eine RGB-Matrixschaltung (Primärfarbsignalerzeugungsblock) 32a, eine Gammakorrekturschaltung 32b, eine erste und eine zweite YL-Matrixschaltung 32c1 und 32c2, eine Weißabgleichsschaltung 32d, eine Chrominanzdifferenz-Matrixschaltung (Chrominanzdifferenzberechnungsblock) 32e sowie ein Tiefpassfilter (Konturenverstärkungsblock) 32f, kurz LPF.
  • Das Bildsignal, welches der Farbsignalverarbeitungsblock 32 empfängt, wird der RGB-Matrixschaltung 32a zugeführt. Die RGB-Matrixschaltung 32a führt an dem empfangenen Bildsignal eine RGB-Matrixverarbeitung durch. Durch diese RGB-Matrixverarbeitung wird das Primärfarbsignal, das aus einer Rot-, einer Grün- und einer Blau-Signalkomponente (im Folgenden als RG bzw. B bezeichnet) besteht, aus den Komponenten Mg, Cy, Ye und G erzeugt. Die Komponenten R, G und B variieren entsprechen den Intensitäten der empfangenen Rot-Komponente (zweite Primärfarblichtkomponente), der empfangenen Grün-Komponente (erste Primärfarblichtkomponente) und der empfangenen Blau-Komponente (dritte Primärfarblichtkomponente). Die Komponenten Mg, Cy und Ye variieren entsprechend den Intensitäten der Magenta-, der Cyan- bzw. der Gelb-Lichtkomponente.
  • Im Folgenden wird ein Pixel, aus dem die Komponenten R, G und B nach der RGB-Matrix-Verarbeitung erzeugt werden, als Zielpixel bezeichnet. Die Signale bestimmter Pixel, die sich an vorbestimmten Orten um das Zielpixel herum befinden, sind mit dem Zielpixel verknüpft. Dabei sind an den vorstehend genannten vorbestimmten Orten diejenigen acht Pixel angeordnet, die sich innerhalb eines aus vier Zeilen und zwei Spalten gebildeten Rechtecks befinden, in dessen unterer linken Ecke das Zielpixel angeordnet ist.
  • Betrachtet man beispielsweise in dem geradzahligen Teilbild das Pixel in der ersten Zeile der ersten Spalte als Zielpixel, so gehören die Signale derjenigen Pixel, die sich in der ersten, der zweiten, der dritten und der vierten Zeile der ersten und der zweiten Spalte befinden, zu dem Zielpixel (vgl. 3). Dabei werden in dem geradzahligen Teilbild die Signale der in der ersten und der zweiten Zeile der ersten Spalte angeordneten Pixel als Mischpixelsignal (Mg + Cy) des in der ersten Zeile der ersten Spalte angeordneten Pixels ausgegeben. Entsprechend werden die Signale der in der ersten und der zweiten Zeile der zweiten Spalte angeordneten Pixel als Mischpixelsignal (G + Ye) des in der ersten Zeile der zweiten Spalte angeordneten Pixels ausgegeben. Die Signale der in der dritten und vierten Zeile der ersten Spalte angeordneten Pixel werden als Mischpixelsignal (G + Cy) des in der dritten Zeile der ersten Spalte angeordneten Pixels ausgegeben. Schließlich werden die Signale der in der dritten und vierten Zeile der zweiten Spalte angeordneten Pixel als Mischpixelsignal (Mg + Ye) des in der dritten Zeile der zweiten Spalte angeordneten Pixels ausgegeben.
  • Die gleiche Regel wird auf die zweite Spalte angewandt, so dass die Pixelsignale der ersten bis vierten Zeile der zweiten und dritten Spalte auf ein Zielpixel in der ersten Zeile und der zweiten Spalte bezogen sind. Entsprechend werden die Pixelsignale aus der ersten und zweiten Zeile der zweiten Spalte als Mischsignal (G + Ye) für dieses Zielpixel ausgegeben. Die Pixelsignale aus den Pixeln in der ersten und zweiten Zeile der dritten Spalte werden als Mischpixelsignal (Mg + Cy) für dieses Zielpixel ausgegeben. Die Pixelsignale aus den Pixeln in der dritten und vierten Zeile der zweiten Spalte werden als Mischpixelsignal (Mg + Ye) für dieses Zielpixel ausgegeben. Schließlich werden die Pixelsignale aus den Pixeln in der dritten und vierten Zeile der dritten Spalte als Mischpixelsignal (G + Cy) für dieses Zielpixel ausgegeben.
  • Betrachtet man ein Pixel in einer ungeradzahligen Zeile als Zielpixel in dem geradzahligen Teilbild, so gehören ähnlich wie in dem oben beschriebenen Fall die vier Mischpixel derjenigen vier Pixel, die sich relativ zu dem Zielpixel (wie oben beschrieben) an den gleichen Orten befinden, zu dem Zielpixel.
  • Betrachtet man ein Pixel in einer geradzahligen Zeile als Zielpixel in dem ungeradzahligen Teilbild, so gehören ähnlich wie im Falle des geradzahligen Teilbilds die vier Mischpixel derjenigen vier Pixel, die sich relativ zu dem Zielpixel (wie oben beschrieben) an den gleichen Orten befinden, zu dem Zielpixel.
  • Für ein Zielpixel, das sich an einem beliebigen Ort befindet, werden die Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) in dem geradzahligen oder ungeradzahligen Teilbild ausgegeben und dem Zielpixel zugeordnet.
  • Um an dem Zielpixel die RGB-Matrixverarbeitung durchzuführen, werden die zu dem Zielpixel gehörenden Mischpixelsignale der RGB-Matrixschaltung 32a zugeführt. Die empfangenen Mischpixelsignale werden nach der unten angegebenen Gleichung (1) in R-, G- und B-Komponenten gewandelt. Die so erzeugten R-, G- und B-Komponenten werden von der RGB-Matrixschaltung 32a an die Gammakorrekturschaltung 32b sowie die erste und die zweite YL-Matrixschaltung 32c1 und 32c2 gesendet.
  • Figure DE102008005679B4_0002
  • Die Gammakorrekturschaltung 32b nimmt an den Komponenten R, G und B separat eine Signalverarbeitung zur Gammakorrektur vor. Die diese Verarbeitung zur Gammakorrektur unterzogenen Komponenten R, G und B werden an die Weißabgleichsschaltung 32d gesendet. Die Weißabgleichsschaltung 32d nimmt an den Komponenten R, G und B separat eine Verarbeitung zum Weißabgleich vor. Die dieser Verarbeitung zum Weißabgleich unterzogenen Komponenten R und B werden an die Chrominanzdifferenz-Matrixschaltung 32e gesendet.
  • Die erste YL-Matrixschaltung 32c1 empfängt, wie oben beschrieben, die Komponenten R, G und B. Die erste YL-Matrixschaltung 32c1 erzeugt das erste Schmalbandluminanzsignal, im Folgenden als YL bezeichnet, indem sie die Komponenten R, G und B aufsummiert, nachdem diese Komponenten mit dem Koeffizienten 0,3, 0,59 bzw. 0,11 multipliziert worden sind. Das Signal YL wird an die Chrominanzdifferenz-Matrixschaltung 32e gesendet.
  • Die Chrominanzdifferenz-Matrixschaltung 32e empfängt die Komponenten R und B, nachdem diese dem Weißabgleich unterzogen worden sind, sowie das Signal YL, wie oben beschrieben. Die Chrominanzdifferenz-Matrixschaltung 32e erzeugt die Signale R-YL und B-YL auf Grundlage der Signale R, B und YL. Die Signale R-YL und B-YL werden an den Codierer 34 gesendet.
  • Die zweite YL-Matrixschaltung (Lichtquellenbestimmungsblock) 32c2 empfängt die Signale R, G und B, wie oben beschrieben. Die zweite YL-Matrixschaltung 32c2 erzeugt das Signal YL', indem sie die Signale R, G und B aufsummiert, die mit Koeffizienten multipliziert sind, die in Abhängigkeit einer gerätespezifischen Information vorbestimmt sind.
  • Diese gerätespezifische Information gibt die Art der nicht gezeigten Lichtquelle an, die in dem Endoskopprozessor 11 eingebaut ist, und wird an die zweite YL-Matrixschaltung 32c2 gesendet, wenn das elektronische Endoskop 20 mit dem Endoskopprozessor 11 verbunden wird. Als Lichtquelle des elektronischen Endoskops 20 wird eine Halogenlampe, eine Xenonlampe oder eine Metallhalogenidlampe verwendet.
  • Die zweite YL-Matrixschaltung 32c2 enthält einen nicht gezeigten Speicher, der für jede Primärfarbsignalkomponente eine der gerätespezifischen Information entsprechende Koeffiziententabelle speichert. Die zweite YL-Matrixschaltung 32c2 liest diese Koeffizienten in Abhängigkeit der empfangenen gerätespezifischen Information aus, um sie mit den Signalen R, G und B zu multiplizieren.
  • Ist die Lichtquelle eine Halogenlampe, so wird YL' berechnet nach 0R + 0,9G + 0,1B. Ist die Lichtquelle eine Xenonlampe, so wird YL' berechnet nach YL' = 0,3R + 0,5G + 0,2B. Ist die Lichtquelle eine Metallhalogenidlampe, so wird YL' berechnet nach YL' = 0,3R + 0,7G + 0B.
  • Das erzeugte Signal YL' wird von der zweiten YL-Matrixschaltung 32c2 an das LPF 32f gesendet. Das LPF 32f entfernt die hochfrequenten Komponenten aus der Ortsfrequenz, die durch die zu den nacheinander angeordneten Pixeln gehörigen Signalen YL' dargestellt ist. Hat beispielsweise die Kurve der Signalpegel der Signale YL', die zu den nacheinander angeordneten Pixeln gehören, eine stufige Form (vgl. 6A), so wird der Absolutwert der Änderungsrate innerhalb dieser Kurve durch das LPF 32f herabgesetzt (vgl. 6B). Das Signal YL', das von seinen hochfrequenten Komponenten befreit ist, wird an den Luminanzsignalverarbeitungsblock 33 gesendet.
  • Im Folgenden werden Aufbau und Funktion des Luminanzsignalverarbeitungsblocks 33, der das Signal YH'' erzeugt, im Einzelnen erläutert. Wie in 7 gezeigt, enthält der Luminanzsignalverarbeitungsblock 33 eine YH-Matrixschaltung (erste Luminanzrechenschaltung) 33a, eine Rechenschaltung 35, eine Addierschaltung (Subtraktionsblock) 33b und eine Gammakorrekturschaltung 33c.
  • Wie oben beschrieben, empfängt der Luminanzsignalverarbeitungsblock 33 die Mischpixelsignale. Die Mischpixelsignale, die der Luminanzsignalverarbeitungsblock 33 empfängt, werden der YH-Matrixschaltung 33a zugeführt. Die YH-Matrixschaltung 33a führt an den empfangenen Mischpixelsignalen eine YH-Matrixverarbeitung durch. In dieser YH-Matrixverarbeitung werden die Signale (Mg + Cy), (Ye + G), (G + Cy) und (Mg + Ye) summiert und ein erstes Breitbandluminanzsignal (erste Luminanz), im Folgenden als YH bezeichnet, erzeugt. Der Signalpegel des Signals YH variiert mit der Helligkeit in dem Pixel 26p.
  • Die Signalpegel der Signale Mg, Cy und Ye sind äquivalent den Signalpegeln der Signale (R + B), (G + B) bzw. (R + G). Entsprechend ist der Signalpegel des Signals YH äquivalent dem Signalpegel des Signals (2R + 3G + 2B). Dies bedeutet, dass das Signal YH äquivalent einem Wert ist, der berechnet wird, indem die Rot-, Grün- und Blau-Lichtkomponenten, jeweils multipliziert mit 2, 3 bzw. 2 (erste Koeffizientenkombination), summiert werden. Das Signal YH wird aus der YH-Matrixschaltung 33a an die Rechenschaltung 35 und die Addierschaltung 33b gesendet.
  • Die Rechenschaltung 35 entscheidet, ob ein Korrektursignal, im Folgenden als kYH' bezeichnet, auf Grundlage des empfangenen Signals YH zu berechnen ist. Falls die Rechenschaltung 35 in weiter unten beschriebener Weise entscheidet, dass das Signal kYH' zu berechnen ist, so berechnet sie das Signal kYH' und gibt es nach Multiplikation mit –1 an die Addierschaltung 33b aus. Entscheidet die Rechenschaltung 35, dass das Signal kYH' nicht zu berechnen ist, so gibt es ein Nullsignal (d. h. ein Signal mit dem Pegel null) an die Addierschaltung 33b aus.
  • Die Addierschaltung 33b erzeugt das Signal YH'', indem sie das aus der YH-Matrixschaltung 33a stammende Signal YH und das Signal –kYH' oder das Nullsignal, das aus der Rechenschaltung 35 stammt, aufsummiert. Berechnet die Rechenschaltung 35 das Signal kYH', so wird also das Signal YH'' gleich (YH-kYH'). Hat dagegen die Rechenschaltung 35 das Signal kYH' nicht berechnet, so wird das Signal YH'' gleich YH.
  • Das Signal YH'' wird von der Addierschaltung 33b an die Gammakorrekturschaltung 33c gesendet. Die Gammakorrekturschaltung 33c nimmt an dem Signal YH'' eine Verarbeitung zur Gammakorrektur vor. Das dieser Gammakorrektur unterzogene Signal YH'' wird einem Codierer 34 gesendet.
  • Im Folgenden werden Aufbau und Funktion der Rechenschaltung 35, die das Signal kYH' berechnet, im Einzelnen beschrieben. Wie in 8 gezeigt, enthält die Rechenschaltung 35 eine Subtraktionsschaltung (zweiter Luminanzberechnungsblock) 35a, eine Bestimmungsschaltung 35b und eine Multiplikationsschaltung 35c.
  • Wie oben beschrieben, empfängt die Rechenschaltung 35 das Signal YH von der YH-Matrixschaltung 33a und das Signal YL' von dem Farbsignalverarbeitungsblock 32. Zudem empfängt die Rechenschaltung 35 aus einem nicht gezeigten ROM einen vorbestimmten Koeffizienten zur Multiplikation, im Folgenden als k bezeichnet. Der Koeffizient k liegt in einem Bereich von null bis eins (d. h. 0 < k < 1). Das der Rechenschaltung 35 zugeführte Signal wird so gesteuert, dass die gleichzeitig von der Rechenschaltung empfangenen Signale YH und YL' aus ein und demselben Pixel 26p stammen.
  • Das Signal YH wird der Subtraktionsschaltung 35a und dem Bestimmungsblock 35b zugeführt. Das Signal YL' wird der Subtraktionsschaltung 35a zugeführt. Der Koeffizient k wird der Multiplikationsschaltung 35c zugeführt.
  • Die Subtraktionsschaltung 35a erzeugt ein zweites Breitbandluminanzsignal (zweite Luminanz), im Folgenden als YH' bezeichnet, indem sie das Signal YL' von dem Signal YH subtrahiert. Nach einer Negation wird das Signal YH' ausgegeben. Dabei subtrahiert die Subtraktionsschaltung 35a das Signal YH von dem Signal YL'. Nach einer Multiplikation mit –1 wird das Signal YH' von der Subtraktionsschaltung 35a an die Bestimmungsschaltung 35b ausgegeben.
  • Die Bestimmungsschaltung 35b (Vergleichsblock) vergleicht das von der YH-Matrixschaltung 33a gesendete Signal YH und einen ersten Schwellwert. Der erste Schwellwert ist in einem nicht gespeicherten ROM gespeichert und wird zum Vergleich mit dem Signal YH von der Bestimmungsschaltung 35b ausgelesen. Ist YH größer als der erste Schwellwert, so gibt die Bestimmungsschaltung 35b das mit –1 multiplizierte Signal YH' an die Multiplikationsschaltung 35c aus. Ist der erste Schwellwert größer als YH, so gibt die Bestimmungsschaltung 35b das Nullsignal anstelle des Signals YH' an die Multiplikationsschaltung 35c aus.
  • Die Multiplikationsschaltung 35c multipliziert das empfangene Signal mit k. Gibt also die Bestimmungsschaltung 35b das Signal YH' aus, so berechnet die Multiplikationsschaltung 35c das Korrektursignal äquivalent zu kYH' = k(YH – YL'). Gibt dagegen die Bestimmungsschaltung 35b das Nullsignal aus, so wird das von der Multiplikationsschaltung 35c berechnete Signal gleich dem Nullsignal. An die Addierschaltung 33b wird also entweder das mit –1 multiplizierte Signal kYH' oder das Nullsignal gesendet.
  • Wie oben beschrieben, berechnet die Addierschaltung 33b das Signal YH'' auf Grundlage des Signals YH sowie des Signals kYH' oder des Nullsignals. Das der Gammakorrektur unterzogene Signal YH'' wird mit R-YL und B-YL codiert, und die Signale YH'', R-YL und B-YL werden als Videosignal an den Endoskopprozessor 11 gesendet.
  • Der Endoskopprozessor 11 enthält einen nicht gezeigten Speicher. Der Speicher speichert die Signale YH'', R-YL und B-YL, die von dem Endoskopprozessor 11 empfangen werden. Die Signale YH'', R-YL und B-YL, die in dem Speicher gespeichert sind, werden an den Monitor 12 gesendet. Der Monitor 12 erzeugt auf Grundlage der empfangenen Signale YH'', R-YL und B-YL die Komponenten R, G und B. Auf dem Monitor 12 wird so ein den erzeugten Primärfarbsignalkomponenten entsprechendes Bild dargestellt.
  • Im Folgenden wird unter Bezugnahme auf die Flussdiagramme nach den 9 und 10 die in dem ersten Ausführungsbeispiel von der Signalverarbeitungseinheit 30 durchgeführte Bildsignalverarbeitung beschrieben. Die von der Signalverarbeitungseinheit 30 durchgeführte Verarbeitung beginnt, wenn das elektronische Endoskop 20 mit dem Endoskopprozessor 11 verbunden und der Endoskopprozessor 11 eingeschaltet wird. Die Verarbeitung endet, wenn die Betriebsart des Endoskopprozessors auf eine andere Betriebsart als den Beobachtungsmodus umgeschaltet oder der Endoskopprozessor ausgeschaltet wird.
  • Im Schritt S100 wird die gerätespezifische Information aus dem Endoskopprozessor 11 ausgelesen. In den Schritten S101 und S102 wird, wie weiter unten beschrieben, die Art der Lichtquelle, die in dem mit dem Endoskop 20 verbundenen Endoskopprozessor 11 vorhanden ist, anhand der ausgelesenen gerätespezifischen Information bestimmt.
  • Im Schritt S101 wird bestimmt, ob die Lichtquelle eine Halogenlampe ist. Ist die Lichtquelle eine Halogenlampe, so fährt der Prozess mit Schritt S103 fort. Ist dies nicht der Fall, so fährt der Prozess mit Schritt S102 fort. Im Schritt S102 wird bestimmt, ob die Lichtquelle eine Xenonlampe ist. Ist die Lichtquelle eine Xenonlampe, so fährt der Prozess mit Schritt S104 fort. Ist dies nicht der Fall, so wird die Lichtquelle als Metallhalogenidlampe identifiziert, und der Prozess fährt mit Schritt S105 fort.
  • In Schritt S103 wird das Signal YL' mit den Koeffizienten 0, 0,9 und 0,1 für R, G bzw. B berechnet, falls die Lichtquelle eine Halogenlampe ist. Im Schritt S104 wird das Signal YL' mit den Koeffizienten 0,3, 0,5 und 0,2 für R, G bzw. B berechnet, falls die Lichtquelle eine Xenonlampe ist. In Schritt S105 wird das Signal YL' mit den Koeffizienten 0,3, 0,7 und 0 für R, G bzw. B berechnet, falls die Lichtquelle eine Metallhalogenidlampe ist.
  • Nach der Berechnung von YL' in Schritt S103, S104 oder S105 fährt der Prozess mit Schritt S106 fort. In Schritt S106 werden die Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) empfangen.
  • In Schritt S107 werden auf Grundlage der Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) die Signale R-YL, B-YL und YL' erzeugt.
  • In Schritt S108 wird auf Grundlage der Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye) das Signal YH erzeugt. Nach der Erzeugung des Signals YH wird auf Grundlage der Signale YH und YL' das Signal YH' erzeugt.
  • Nach der Berechnung des Signals YH' fährt der Prozess mit Schritt S110 fort. In Schritt S110 wird ermittelt, ob der Signalpegel von YH größer als der erste Schwellwert ist. Ist YH größer als der erste Schwellwert, so fährt der Prozess mit Schritt S111 fort. Übersteigt dagegen YH nicht den ersten Schwellwert, so fährt der Prozess mit Schritt S112 fort.
  • In Schritt S111 wird das Signal kYH' anhand des in Schritt S108 erzeugten Signals YH' berechnet. Dagegen wird in Schritt S112 das Signal YH' verworfen und anstelle des Signals YH' das Nullsignal erzeugt.
  • Nach der Berechnung des Signals kYH' oder der Erzeugung des Nullsignals fährt der Prozess mit Schritt S113 fort. In Schritt S113 wird das Signal YH anhand des Signals kYH' oder anhand des Nullsignals korrigiert und anschließend das Signal YH'' erzeugt.
  • Das Signal YH'' wird mit den in Schritt S107 erzeugten Signalen R-YL und B-YL von der Signalverarbeitungseinheit 30 ausgegeben. Nach Ausgabe des Signals YH'' kehrt der Prozess zu Schritt S106 zurück, und die Schritte S106 bis S112 werden wiederholt.
  • In dem oben beschriebenen ersten Ausführungsbeispiel können die Farben eines auf dem Bildsignal basierenden Bildes unabhängig von der Farbe des aufgenommenen optischen Bildes farbtreu dargestellt werden. Zudem ist es möglich, die Farben in dem auf dem Bildsignal basierenden Bild unabhängig von der Farbe des Beleuchtungslichtes darzustellen. Diese technische Wirkung wird im Folgenden erläutert.
  • In einem üblichen Endoskopsystem ist eine Abbildungsvorrichtung mit Komplementärfarbfiltern bedeckt und erzeugt wie in dem ersten Ausführungsbeispiel die Mg-, Cy-, Ye- und G-Signale. Anhand der Komplementärfarbsignalkomponenten werden die Chrominanzdifferenzsignale und das Luminanzsignal erzeugt. Die Chrominanzdifferenzsignale und das Luminanzsignal werden an einen Monitor gesendet. Der Monitor erzeugt Primärfarbsignalkomponenten, z. B. R, G und B, auf Grundlage des empfangenen Chrominanzdifferenzsignals und des empfangenen Luminanzsignals. In einer alternativen Ausführung erzeugt ein elektronisches Endoskop oder ein Endoskopprozessor die Primärfarbsignalkomponenten auf Grundlage des Chrominanzdifferenzsignals und des Luminanzsignals und sendet die Primärfarbsignalkomponenten an einen Monitor.
  • Ein Breitbandluminanzsignal wird als Luminanzsignal zur Erzeugung der Primärfarbsignalkomponenten auf einem Monitor genutzt, um den Einfluss von Rauschen zu verringern. Außerdem werden die Chrominanzdifferenzsignale, die durch Subtrahieren des Schmalbandluminanzsignals von den Signalen R und B berechnet werden, genutzt, um die Primärfarbsignalkomponenten in einem Monitor zu erzeugen und so eine farbtreue Darstellung zu ermöglichen.
  • Das Breitbandluminanzsignal wird durch Summieren der Komponenten Mg, Cy, Ye und G berechnet. Demnach ist das Breitbandluminanzsignal äquivalent 2R + 3G + 3B. Dagegen wird das Schmalbandluminanzsignal berechnet, indem die Komponenten R, G und B auf Grundlage der Komponenten Mg, Cy, Ye und G erzeugt und dann R, G und B mit den vorbestimmten Koeffizienten 0,3, 0,59 bzw. 0,11 multipliziert und dann aufsummiert werden. Das Schmalbandluminanzsignal ist demnach gleich 0,3R+ 0,59G + 0,11B.
  • Das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten ist für das Breitbandluminanzsignal gleich 0,67 und für das Schmalbandluminanzsignal gleich 0,51. Der Einfluss von R auf das Breitbandluminanzsignal ist demnach größer als auf das Schmalbandluminanzsignal. Wird ein rötlich gefärbtes Objekt mit dem Endoskopsystem betrachtet, so kann es vorkommen, dass der Signalpegel von R, der durch Addieren des Breitbandluminanzsignals auf das mit dem Schmalbandluminanzsignal berechnete Chrominanzdifferenzsignal erzeugt wird, die hierfür vorgesehene obere Pegelgrenze einer digitalen Schaltung übersteigt, selbst wenn der Signalpegel des Breitbandluminanzsignals unterhalb dieser oberen Pegelgrenze der digitalen Schaltung liegt. Nun ist ein Objekt, das üblicherweise mit einem medizinischen elektronischen Endoskop betrachtet wird, ein im Körperinneren liegendes Organ. Damit ist das Bild dieses Objektes meist rötlich gefärbt. Somit kann es vorkommen, dass der Signalpegel R die obere Pegelgrenze übersteigt.
  • Dagegen nimmt in dem Endoskopsystem 10 nach dem ersten Ausführungsbeispiel der von YH zu subtrahierende Signalpegel von kYH' proportional zur Stärke des von einem Pixel 26p empfangenen roten Lichtes zu. Folglich nimmt der Signalpegel von YH'' proportional zur Stärke des von einem Pixel 26p empfangenen roten Lichtes ab. Dadurch wird verhindert, dass der Signalpegel R die obere Pegelgrenze der digitalen Schaltung übersteigt, selbst wenn die Stärke des roten Lichtes groß ist.
  • Außerdem ist das Verhältnis des Koeffizienten für B zu dem Koeffizienten für G in dem Breitbandluminanzsignal größer als in dem Schmalbandluminanzsignal, wie dies auch für R der Fall ist. Damit ist der Einfluss von B auf das Breitbandluminanzsignal größer als auf das Schmalbandluminanzsignal. Wird ein bläulich gefärbtes Objekt mit dem Endoskopsystem betrachtet, so kann es deshalb vorkommen, dass der Signalpegel von B, der durch Addieren des Breitbandluminanzsignals auf das aus dem Schmalbandluminanzsignal berechnete Chrominanzdifferenzsignal erzeugt wird, die obere Pegelgrenze einer digitalen Schaltung übersteigt, selbst wenn der Signalpegel des Breitbandluminanzsignals unterhalb dieser oberen Pegelgrenze der digitalen Schaltung liegt.
  • Zusätzlich zu der oben beschriebenen Wirkung kann in dem ersten Ausführungsbeispiel ein Luminanzsignal zur Erzeugung von Primärfarbsignalkomponenten in Abhängigkeit der Lichtquelle geeignet korrigiert werden, wie nachfolgend beschrieben wird. So können in einem elektronischen Endoskop in Abhängigkeit des zu betrachtenden Objektes verschiedenartige Lichtquellen zum Einsatz kommen. Die Intensitäten der roten und der blauen Lichtkomponente innerhalb des Beleuchtungslichtes variieren abhängig von der Art der verwendeten Lichtquelle. In dem ersten Ausführungsbeispiel wird der Einfluss der Primärfarbsignalkomponenten auf das Signal kYH' dadurch eingestellt, dass die zur Berechnung von YL' verwendeten Koeffizienten in Abhängigkeit der Art der verwendeten Lichtquelle geändert werden. Indem der Einfluss der Primärfarbsignal komponenten gesteuert wird, kann so verhindert werden, dass die Signalpegel der auf das rote Licht und der auf das blaue Licht bezogenen Signalkomponente die obere Grenze übersteigt.
  • Zusätzlich zu den oben beschriebenen Wirkungen beseitigt in dem ersten Ausführungsbeispiel das LPF 32f die hochfrequenten Komponenten aus der Raumfrequenz des Signals YL'. Wie nachfolgend erläutert, werden in dem Signal YH'' scharfe Signalübergänge oder Signalsprünge innerhalb des Signals YH'' im Raum, d. h. in Abhängigkeit des Ortes, kontrastverstärkt, indem die hochfrequenten Komponenten aus dem Signal YL' entfernt werden.
  • Beispielsweise wird das Breitbandluminanzsignal für Pixel korrigiert, in denen das ursprüngliche Breitbandluminanzsignal den ersten Schwellwert übersteigt (vgl. die Größe „a” in der Zeile „YH” in 11). Um das Breitbandluminanzsignal dort zu korrigieren, wird das Signal YH' berechnet, indem YL' von YH subtrahiert wird. Durch Entfernen der hochfrequenten Komponenten aus dem Spektrum von YL' werden die hochfrequenten Komponenten des Spektrums von YH' beseitigt (vgl. Zeile „YH'” in 11). Dann wird der Signalpegel herabgesetzt, indem YH' mit k multipliziert wird. Scharfe Signalübergänge oder Signalsprünge von YH'' in Abhängigkeit des Ortes werden durch Subtrahieren von kYH' von YH kontrastverstärkt (vgl. Zeile „YH''” in 11).
  • In einem Bild, das auf YH'' basiert, verschwimmen die Konturen oder Ränder ohne Konturenverstärkung bzw. Randbetonung leicht, da die Änderungsrate in dem Signal YH'' geringer als die der tatsächlichen Helligkeit ist. In dem ersten Ausführungsbeispiel ist deshalb das Verfahren der Konturenverstärkung oder Randbetonung durch Korrektur des Luminanzsignals implementiert, um eine solche Unschärfe zu verringern.
  • Im Folgenden wird ein Endoskopsystem mit einem Bildsignalprozessor nach zweitem Ausführungsbeispiel beschrieben. Der Hauptunterschied zwischen dem zweiten Ausführungsbeispiel und dem ersten Ausführungsbeispiel liegt darin, dass die Signalverarbeitungseinheit nicht in einem elektronischen Endoskop, sondern in einem Endoskopprozessor eingebaut ist. Das zweite Ausführungsbeispiel wird hauptsächlich im Hinblick auf diejenigen Merkmale beschrieben, in denen es sich von dem ersten Ausführungsbeispiel unterscheidet. Strukturelle oder funktionelle Einheiten, die denen des ersten Ausführungsbeispiels entsprechen, sind mit den dort verwendeten Bezugszeichen versehen.
  • Wie in 12 gezeigt, enthält eine elektronisches Endoskop 200 einen Lichtleiter 25, eine Abbildungsvorrichtung 26, einen Analogeingang 27, kurz AFE, einen ROM 29 sowie weitere Komponenten. Ausbildung und Funktion des Lichtleiters 25, der Abbildungsvorrichtung 26 und des Analogeingangs 27 stimmen mit denen des ersten Ausführungsbeispiels überein.
  • Der ROM 29 ist in einem Anschlussteil 24 eingebaut und speichert gerätespezifische Informationen, die den Modelltyp des Endoskops 200 angeben. So beinhalten diese Modelltypen beispielsweise Bronchialendoskope, Endoskope die für den oberen oder den unteren Darmtrakt bestimmt sind, etc. Ist der Anschlussteil 24 mit dem Endoskopprozessor 11 verbunden, so ist der ROM 29 mit einer Signalverarbeitungseinheit 30 verbunden, die in dem Endoskopprozessor 11 eingebaut ist. Die Signalverarbeitungseinheit 30 liest die gerätespezifische Information aus.
  • Zusätzlich werden Mischpixelsignale (Mg + Cy), (G + Ye), (G + Cy) und (Mg + Ye), die von dem Analogeingang 27 ausgegeben werden, an die Signalverarbeitungseinheit 30 gesendet.
  • Wie oben beschrieben, ist die Signalverarbeitungseinheit 30 nach zweitem Ausführungsbeispiel in dem Endoskopprozessor 11 eingebaut. Aufbau und Funktion der Signalverarbeitungseinheit 30 sind gleich denen des ersten Ausführungsbeispiels, abgesehen von der Verwendung der Koeffizienten, die dazu bestimmt sind, das Signal YL' in Abhängigkeit der gerätespezifischen Information zu berechnen.
  • Wie in 4 gezeigt, enthält die Signalverarbeitungseinheit 30 nach zweitem Ausführungsbeispiel ebenfalls eine Schaltung zur automatischen Verstärkungsregelung 31, kurz AGC, einen Farbsignalverarbeitungsblock 32, einen Luminanzsignalverarbeitungsblock 33 und einen Codierer 34. Die Signalverarbeitungseinheit 30 erzeugt die Signale YH'', R-YL und B-YL wie in dem ersten Ausführungsbeispiel. Außerdem erzeugt die Signalverarbeitungseinheit 30 auf Grundlage der Signale YH'', R-YL und B-YL ein Videosignal. Das Videosignal wird an den Monitor gesendet.
  • Wie in 13 gezeigt, enthält der Farbsignalverarbeitungsblock 32 nach zweitem Ausführungsbeispiel eine RGB-Matrixschaltung 32a, eine Gammakorrekturschaltung 32b, eine erste und eine zweite YL-Matrixschaltung 32c1 und 320c2, eine Weißabgleichsschaltung 32d, eine Chrominanzdifferenz-Matrixschaltung 32e und ein LPF 32f. Die gerätespezifische Information, die an die zweite YL-Matrixschaltung (Endoskopbestimmungsblock) 320c2, welche die Signalverarbeitungseinheit 30 enthält, gesendet wird, unterscheidet sich von der des ersten Ausführungsbeispiels.
  • Anordnung und Aufbau der RGB-Matrixschaltung 32a, der Gammakorrekturschaltung 32b, der ersten YL-Matrixschaltung 32c1, der Weißabgleichsschaltung 32d, der Chrominanzdifferenz-Matrixschaltung 32e und des LPF 32f sind gleich denen des ersten Ausführungsbeispiels.
  • Die zweite YL-Matrixschaltung 320c2 ist im Unterschied zu dem ersten Ausführungsbeispiel mit dem ROM 29 verbunden, der in dem elektronischen Endoskop 201 eingebaut ist. Die gerätespezifische Information, die den Modelltyp des angeschlossenen Endoskops angibt, wird von dem ROM 29 an die zweite YL-Matrixschaltung 320c2 gesendet.
  • Die zweite YL-Matrixschaltung 320c2 erzeugt wie in dem ersten Ausführungsbeispiel das Signal YL' durch Aufsummieren der Signale R, G und B, die mit vorbestimmten Koeffizienten multipliziert werden, die von der gerätespezifischen Information abhängen.
  • Ist das elektronische Endoskop 200 ein Bronchialendoskop, so wird das Signal YL' berechnet nach YL' = 0,3R + 0,5G + 0,2B. Ist das elektronische Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop, so wird das Signal YL' berechnet nach YL' = 0R + 0,9G + 0,1B. Ist das elektronische Endoskop 200 ein für den unteren Darmtrakt bestimmtes Endoskop, so wird das Signal YL' berechnet nach YL' = 0,3R + 0,7G + 0B.
  • Der Bronchus sieht üblicherweise blass aus, so dass die reflektierte rote Lichtkomponente klein ist. Es ist deshalb erforderlich, den Einfluss der Komponente G auf das Luminanzsignal zu verringern. Dies kann dadurch erreicht werden, dass in der zur Berechnung von YL' der Koeffizient für G herabgesetzt wird.
  • Der obere Darmtrakt sieht üblicherweise rötlich aus. Es ist deshalb erforderlich, den Einfluss von R auf das Luminanzsignal herabzusetzen. Dies kann dadurch erreicht werden, dass in der Gleichung zur Berechnung von YL' der Koeffizient für R herabgesetzt wird.
  • Der untere Darmtrakt sieht üblicherweise bläulich aus. Es ist deshalb erforderlich, den Einfluss von B auf das Luminanzsignal herabzusetzen.
  • Dies kann dadurch erreicht werden, dass in der Gleichung zur Berechnung von YL' der Koeffizient für B herabgesetzt wird.
  • Im Folgenden wird die Bildsignalverarbeitung, die in dem zweiten Ausführungsbeispiel von der Signalverarbeitungseinheit 30 durchgeführt wird, unter Bezugnahme auf die Flussdiagramme nach den 10 und 14 beschrieben. Die von der Signalverarbeitungseinheit 30 durchgeführte Signalverarbeitung beginnt, wenn das elektronische Endoskop 200 wie in dem ersten Ausführungsbeispiel mit dem Endoskopprozessor 11 verbunden und der Endoskopprozessor 11 eingeschaltet wird. Die Verarbeitung endet, wenn die Betriebsart des Endoskopprozessors 11 auf eine andere Betriebsart als den Beobachtungsmodus geändert oder der Endoskopprozessor 11 ausgeschaltet wird, wie dies auch in dem ersten Ausführungsbeispiel der Fall ist.
  • In Schritt S100' (vgl. 14) wird die gerätespezifische Information aus dem elektronische Endoskop 200 ausgelesen. In den unten beschriebenen Schritten S101' und S102' wird der Modelltyp des an dem Endoskopprozessor 11 angeschlossenen Endoskops 200 aus der gerätespezifischen Information ausgelesen.
  • In Schritt S101' wird ermittelt, ob das elektronische Endoskop 200 ein Bronchialendoskop ist. Ist Endoskop 200 ein Bronchialendoskop, so fährt der Prozess mit Schritt S103' fort. Andernfalls fährt der Prozess mit Schritt S102' fort. In Schritt S102' wird ermittelt, ob das elektronische Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop ist. Ist das Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop, so fährt der Prozess mit Schritt S104' fort. Andernfalls wird das elektronische Endoskop 200 als ein Endoskop identifiziert, das für den unteren Darmtrakt bestimmt ist, und der Prozess fährt mit Schritt S105' fort.
  • In Schritt S103' wird YL' mit den Koeffizienten 0,3, 0,5 und 0,2 für R, G bzw. B berechnet, falls das Endoskop 200 ein Bronchialendoskop ist. In Schritt S104' wird YL' mit den Koeffizienten 0, 0,9 und 0,1 für R, G bzw. B berechnet, falls das Endoskop 200 ein für den oberen Darmtrakt bestimmtes Endoskop ist. In Schritt S105' wird YL' mit den Koeffizienten 0,3, 0,7 und 0 für R, G bzw. B berechnet, falls das Endoskop 200 ein für den unteren Darmtrakt bestimmtes Endoskop ist.
  • Nach der Berechnung von YL' in den Schritten S103', S104' oder S105' fährt der Prozess mit Schritt S106 fort (vgl. 10). Dann werden die Schritte S106 bis S113 wie in dem ersten Ausführungsbeispiel ausgeführt.
  • Wie in dem zweiten Ausführungsbeispiel können wie in dem ersten Ausführungsbeispiel die Farben in einem Bild, das auf dem Bildsignal beruht, unabhängig von der Färbung des optischen Bildes farbtreu dargestellt werden. Außerdem können die Farben in dem auf dem Bildsignal basierenden Bild unabhängig von dem Objekt, das mit dem an den Endoskopprozessor angeschlossenen elektronischen Endoskop betrachtet wird, farbtreu dargestellt werden.
  • In dem ersten und zweiten Ausführungsbeispiel wird YH' berechnet, indem das Signal YL', das von der zweiten YL-Matrixschaltung 32c2 bzw. 320c2 auf Grundlage der Signale R, G und B erzeugt wird, von dem Signal YH subtrahiert wird. Jedoch erzeugt die zweite YL-Matrixschaltung 32c2 oder 320c2 direkt das Signal YH', indem sie die mit vorbestimmten Koeffizienten (zweite Koeffizientenkombination) multiplizierten Signale R, G und B aufsummiert. Das erzeugte Signal YH' kann zur Berechnung des Signals YH'' verwendet werden. In diesem Fall sollte das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH' größer eingestellt werden als das Verhältnis des auf R bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH.
  • Indem der Koeffizient für R in der Berechnung von YH' nach obiger Bedingung bestimmt wird, kann der Einfluss von R auf YH'' verringert werden. Um den Einfluss von B auf YH'' zu verringern, sollte das Verhältnis des auf B bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH' größer eingestellt werden als das Verhältnis des auf B bezogenen Koeffizienten zu dem auf G bezogenen Koeffizienten in der Berechnung von YH.
  • In dem ersten und zweiten Ausführungsbeispiel erzeugt die Signalverarbeitungseinheit 30 auf Grundlage von R-YL, B-YL und YH'' ein Videosignal und gibt dieses aus. Die Signalverarbeitungseinheit 30 kann jedoch stattdessen auf Grundlage der vorerzeugten Signale R-YL, B-YL und YH'' in einer RGB-Erzeugungsschaltung (Farbsignalerzeugungsblock) die Signale R, G und B erzeugen und diese an ein externes Gerät ausgeben.
  • In dem ersten und zweiten Ausführungsbeispiel sind die Pixel 26p mit Komplementärfarbfiltern bedeckt. Stattdessen können sie jedoch auch mit Primärfarbfiltern für rot, grün und blau bedeckt sein. In diesem Fall wären die erzeugten Pixelsignale R-, G- und B-Signale, die entsprechend der Stärke des empfangenen roten, grünen bzw. blauen Lichtes variieren. Um die Signalverarbeitung nach erstem und zweitem Ausführungsbeispiel durchzuführen, müssten Komplementärfarbsignalkomponenten Mg, Cy, Ye und G von einer nicht gezeigten Erzeugungsschaltung auf Grundlage der Signale R, G und B erzeugt werden, so dass die Signale Mg, Cy, Ye und G einer Signalverarbeitung unterzogen werden könnten. Alternativ können die Signale YH, YL und YL' erzeugt werden, indem die mit ihren jeweiligen vorbestimmten Koeffizienten multiplizierten Signale R, G und B aufsummiert werden.
  • In dem ersten und zweiten Ausführungsbeispiel werden hochfrequente Komponenten, die eine vorbestimmte Frequenz übersteigen, durch das einzige LPF 32f beseitigt. Jedoch kann die Grenzfrequenz auch mittels mehrerer LPFs gewählt werden, von denen jedes Einzelne eine unterschiedliche Grenzfrequenz aufweist. So kann in dem dargestellten Bild die Schärfe einer Kontur oder eines Randes durch Ändern der Grenzfrequenz variiert werden.
  • Beispielsweise kann die Grenzfrequenz automatisch in Abhängigkeit des Signalpegels des Signals YH eingestellt werden. So werden ein erster und ein zweiter Schwellwert zwecks eines Vergleichs mit YH in der Bestimmungsschaltung 35d vorbestimmt, wobei der erste Schwellwert größer als der zweite Schwellwert ist. Übersteigt der Signalpegel von YH den ersten Schwellwert, so kann die Grenzfrequenz gegenüber einer Grenzfrequenz geändert werden, die vorliegt, wenn der Signalpegel YH zwischen dem ersten und dem zweiten Schwellwert liegt.
  • Selbst wenn das LPF in dem ersten oder dem zweiten Ausführungsbeispiel nicht eingebaut ist, können die Farben in einem Bild unabhängig von der Färbung des aufgenommenen optischen Bildes farbtreu dargestellt werden.
  • In dem ersten und dem zweiten Ausführungsbeispiel ist der erste Schwellwert fest. Der erste Schwellwert kann jedoch auch veränderbar sein. So könnte der erste Schwellwert durch den Benutzer manuell veränderbar oder durch eine entsprechende Vorrichtung des Endoskopprozessors 11 automatisch veränderbar sein.

Claims (16)

  1. Bildsignalverarbeitungseinheit (30) mit: – einem Empfänger (31), der ein Bildsignal empfängt, das eine Vielzahl von Pixelsignalen enthält, die von einer Vielzahl von auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (26) angeordneten Pixeln entsprechend den von den Pixeln empfangenen Lichtmengen erzeugt werden; – einem ersten Luminanzberechnungsblock, der für jedes Pixel eine erste Luminanz entsprechend der Summe mehrerer Primärfarblichtkomponenten, die jeweils mit einem Koeffizienten aus einer ersten Koeffizientenkombination multipliziert werden, auf Grundlage des Bildsignals berechnet; – einem zweiten Luminanzberechnungsblock (35a), der für jedes Pixel eine zweite Luminanz entsprechend der Summe der mehreren Primärfarblichtkomponenten, die jeweils mit einem Koeffizienten aus einer zweiten Koeffizientenkombination multipliziert werden, auf Grundlage des Bildsignals berechnet, wobei das Verhältnis des Koeffizienten, mit dem eine erste Primärfarblichtkomponente multipliziert wird, zu dem Koeffizienten, mit dem eine zweite Primärfarblichtkomponente multipliziert wird, in der zweiten Koeffizientenkombination größer ist als das entsprechende Verhältnis in der ersten Koeffizientenkombination; – einem Vergleichsblock (35b), der die erste Luminanz mit einem Schwellwert vergleicht; – einem Korrekturwertberechnungsblock, der einen Luminanzkorrekturwert in Abhängigkeit der zweiten Luminanz berechnet, wenn die erste Luminanz größer als der Schwellwert ist; und – einem Subtraktionsblock (33b), der eine korrigierte Luminanz berechnet, indem er den Luminanzkorrekturwert von der ersten Luminanz subtrahiert.
  2. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, ferner umfassend: – einen Chrominanzdifferenzberechnungsblock (32e), der eine Chrominanzdifferenz für jedes Pixel auf Grundlage des Bildsignals berechnet; und – einen Ausgabeblock (34), der für jedes Pixel ein der Chrominanzdifferenz entsprechendes Chrominanzdifferenzsignal und ein der korrigierten Luminanz entsprechendes Luminanzsignal ausgibt, wenn die erste Luminanz größer als der Schwellwert ist; oder der für jedes Pixel ein der Chrominanzdifferenz entsprechendes Chrominanzdifferenzsignal und ein der ersten Luminanz entsprechendes Luminanzsignal ausgibt, wenn die erste Luminanz kleiner als der Schwellwert ist.
  3. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, ferner umfassend: – einen Chrominanzdifferenzberechnungsblock (32e), der für jedes Pixel eine Chrominanzdifferenz auf Grundlage des Bildsignals berechnet; und – einen Farbsignalerzeugungsblock (32a), der für jedes Pixel Primärfarbsignalkomponenten entsprechend den Primärfarblichtkomponenten auf Grundlage der Chrominanzdifferenz und der korrigierten Luminanz erzeugt, wenn die erste Luminanz größer als der Schwellwert ist; oder der für jedes Pixel Primärfarbsignalkomponenten entsprechend den Primärfarblichtkomponenten auf Grundlage der Chrominanzdifferenz und der ersten Lumianz erzeugt, wenn die erste Luminanz kleiner als der Schwellwert ist.
  4. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, bei der die zweite Koeffizientenkombination veränderbar ist.
  5. Bildsignalverarbeitungseinheit (30) nach Anspruch 4, ferner umfassend einen Lichtquellenbestimmungsblock (32c2), der die Art der das Beleuchtungslicht auf ein Objekt abgebenden Lichtquelle bestimmt, wobei – die zweite Koeffizientenkombination in Abhängigkeit der von dem Lichtquellenbestimmungsblock (32c2) vorgenommenen Bestimmung der Art der Lichtquelle verändert wird, und – die Bildsignalverarbeitungseinheit (30) in einem Endoskop (20) eingebaut ist, das die Abbildungsvorrichtung (26) enthält.
  6. Bildsignalverarbeitungseinheit (30) nach Anspruch 4, ferner umfassend einen Endoskopbestimmungsblock (320c2), der die Art des die Abbildungsvorrichtung (26) enthaltenden Endoskops (200) bestimmt, wobei – die zweite Koeffizientenkombination in Abhängigkeit der von dem Endoskopbestimmungsblock (320c2) vorgenommenen Bestimmung der Art des Endoskops verändert wird, und – die Bildsignalverarbeitungseinheit (30) in einem Endoskopprozessor (11) eingebaut ist, der die Signalverarbeitung an dem Bildsignal vornimmt.
  7. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, ferner umfassend einen Konturenverstärkungsblock (32f), der eine Konturenverstärkung in einem Bild auf Grundlage der korrigierten Luminanz vornimmt.
  8. Bildsignalverarbeitungseinheit (30) nach Anspruch 7, bei der die Schärfe der von dem Konturenverstärkungsblock (32f) vorgenommenen Konturenverstärkung einstellbar ist.
  9. Bildsignalverarbeitungseinheit (30) nach Anspruch 8, bei der als Schwellwert ein erster und ein zweiter Schwellwert vorgegeben werden, wobei der zweite Schwellwert kleiner als der erste Schwellwert ist, und der Konturenverstärkungsblock (32f) die Schärfe der Konturenverstärkung abhängig davon verändert, ob die erste Luminanz zwischen dem ersten und dem zweiten Schwellwert liegt oder den ersten Schwellwert übersteigt.
  10. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, bei der der Schwellwert einstellbar ist.
  11. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, bei der der Luminanzkorrekturwert berechnet wird, indem die zweite Luminanz mit einem vorbestimmten Koeffizienten, der kleiner als 1 ist, multipliziert wird.
  12. Bildsignalverarbeitungseinheit (30) nach Anspruch 1, ferner umfassend einen dritten Luminanzberechnungsblock, der für jedes Pixel eine dritte Luminanz entsprechend der Summe der Primärfarblichtkomponenten, die jeweils mit einem Koeffizienten aus einer dritten Koeffizientenkombination multipliziert werden, auf Grundlage des Bildsignals berechnet, wobei das Verhältnis des Koeffizienten, mit dem eine erste Primärfarblichtkomponente multipliziert wird, zu dem Koeffizienten, mit dem eine zweite Primärfarblichtkomponente multipliziert wird, in der dritten Koeffizientenkombination kleiner ist als das entsprechende Verhältnis in der ersten Koeffizientenkombination, – wobei der zweite Luminanzberechnungsblock (35a) die zweite Luminanz berechnet, indem er die dritte Luminanz von der ersten Luminanz subtrahiert.
  13. Bildsignalverarbeitungseinheit (30) nach Anspruch 12, bei der – das Bildsignal Komplementärfarbsignalkomponenten enthält, – der erste Luminanzberechnungsblock die erste Luminanz berechnet, in dem er für jedes Pixelsignal mehrere der Komplementärfarbsignalkomponenten addiert, und – der dritte Luminanzberechnungsblock für jedes Pixel mehrere Primärfarbsignalkomponenten auf Grundlage der Komplementärfarbsignalkomponenten berechnet, wobei der dritte Luminanzberechnungsblock mehrere der Primärfarbsignalkomponenten mit der dritten Koeffizientenkombination multipliziert.
  14. Bildsignalverarbeitungseinheit (30) nach Anspruch 12, ferner umfassend einen Komplementärfarbsignalerzeugungsblock, der die Komplementärfarbsignalkomponenten auf Grundlage der Primärfarbsignalkomponenten erzeugt, wobei das Bildsignal die Primärfarbsignalkomponenten enthält, und – der erste Luminanzberechnungsblock die erste Luminanz berechnet, indem er für jedes Pixel mehrere der Komplementärfarbsignalkomponenten addiert, – wobei der dritte Luminanzberechnungsblock für jedes Pixel mehrere der Primärfarbsignalkomponenten mit dem dritten Koeffizienten multipliziert.
  15. Bildsignalverarbeitungseinheit (30) nach Anspruch 12, bei der – das Bildsignal Primärsignalfarbkomponenten enthält, – der erste Luminanzberechnungsblock für jedes Pixel mehrere der Primärfarbsignalkomponenten mit der ersten Koeffizientenkombination multipliziert, und – der dritte Luminanzberechnungsblock für jedes Pixel mehrere der Primärfarbsignalkomponenten mit der dritten Koeffizientenkombination multipliziert.
  16. Bildsignalverarbeitungseinheit (30) mit: – einem Empfänger (31), der ein Bildsignal von einer Abbildungsvorrichtung (26) empfängt, die eine Vielzahl von Pixeln auf ihrer Lichtempfangsfläche aufweist, die jeweils mit einem von vier unterschiedlichen Farbfiltern bedeckt sind, wobei die vier Farbfilter jeweils eine von vier unterschiedlichen Komplementärfarben durchlassen, die Pixel jeweils eine Komplementärfarbsignalkomponente entsprechend der durch das jeweilige Farbfilter tretenden Lichtmenge erzeugen und das Bildsignal mehrere der Komplementärfarbsignalkomponenten enthält; – einem ersten Luminanzberechnungsblock, der eine Breitbandluminanz berechnet, indem er vier der Komplementärfarbsignalkomponenten, die den vier unterschiedlichen Komplementärfarben entsprechen, aufsummfiert; – einem Primärfarbsignalerzeugungsblock (32a), der auf Grundlage der Komplementärfarbsignalkomponenten auf drei Primärfarben bezogene Primärfarbsignalkomponenten erzeugt; – einem dritten Luminanzberechnungsblock, der für jedes Pixel auf Grundlage des Bildsignals eine Schmalbandluminanz berechnet, indem er drei der Primärfarbsignalkomponenten, die jeweils mit einem Koeffizienten aus einer dritten Koffizientenkombination multipliziert werden, aufsummiert, wobei das Verhältnis des Koeffizienten, mit dem die erste Primärfarbsignalkomponente multipliziert wird, zu dem Koeffizienten, mit dem die zweite Primärfarbsignalkomponente multipliziert wird, in der dritten Koeffizientenkombination kleiner ist als das entsprechende Verhältnis in der ersten Koeffizientenkombination, und wobei die Breitbandluminanz der Summe mehrerer Primärfarbsignalkomponenten entspricht, die jeweils mit einem Koeffizienten aus der ersten Koeffizientenkombination multipliziert werden; – einem Vergleichsblock (35b), der die Breitbandluminanz mit einem Schwellwert vergleicht; und – einem Luminanzsignalkorrekturblock (33), der eine korrigierte Luminanz berechnet, indem er die mit einem Koeffizienten multiplizierte Schmalbandluminanz von der Breitbandluminanz subtrahiert, wenn die Breitbandluminanz größer als der Schwellwert ist, wobei der für diese Multiplikation vorgesehene Koeffizient mit einem Wert zwischen 0 und 1 vorgegeben ist.
DE102008005679.0A 2007-01-23 2008-01-23 Bildsignalverarbeitungseinheit Active DE102008005679B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007013038A JP4895834B2 (ja) 2007-01-23 2007-01-23 画像処理装置
JP2007-013038 2007-01-23

Publications (2)

Publication Number Publication Date
DE102008005679A1 DE102008005679A1 (de) 2008-07-24
DE102008005679B4 true DE102008005679B4 (de) 2017-11-09

Family

ID=39531079

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008005679.0A Active DE102008005679B4 (de) 2007-01-23 2008-01-23 Bildsignalverarbeitungseinheit

Country Status (3)

Country Link
US (1) US8233038B2 (de)
JP (1) JP4895834B2 (de)
DE (1) DE102008005679B4 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182937A (ja) * 2008-02-01 2009-08-13 Hoya Corp 画像信号処理ユニット、デジタルカメラ、およびプリンタ
JP5294723B2 (ja) * 2008-06-26 2013-09-18 富士フイルム株式会社 画像取得装置
EP2335560B1 (de) * 2008-10-17 2014-11-26 Olympus Medical Systems Corp. Endoskopsystem und apparat zur verarbeitung endoskopischer bilder
US8666116B2 (en) * 2009-10-06 2014-03-04 Koninklijke Philips N.V. Method and system for obtaining a first signal for analysis to characterize at least one periodic component thereof
JP5371702B2 (ja) * 2009-11-06 2013-12-18 富士フイルム株式会社 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び電子内視鏡システムの作動方法
JP5591570B2 (ja) 2010-03-23 2014-09-17 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP5371921B2 (ja) * 2010-09-29 2013-12-18 富士フイルム株式会社 内視鏡装置
JP6136669B2 (ja) * 2013-07-08 2017-05-31 株式会社ニコン 撮像装置
JP5881658B2 (ja) * 2013-09-27 2016-03-09 富士フイルム株式会社 内視鏡システム及び光源装置
JP5932748B2 (ja) * 2013-09-27 2016-06-08 富士フイルム株式会社 内視鏡システム
DE112014007038T5 (de) * 2014-11-28 2017-08-10 Olympus Corporation Endoskopvorrichtung
JP6293384B2 (ja) * 2015-11-25 2018-03-14 オリンパス株式会社 内視鏡システム
AU2018200147B2 (en) 2017-01-09 2018-11-15 Verathon Inc. Upgradable video laryngoscope system exhibiting reduced far end dimming
WO2020178970A1 (ja) * 2019-03-05 2020-09-10 オリンパス株式会社 内視鏡装置および画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10226582A1 (de) * 2001-06-15 2002-12-19 Asahi Optical Co Ltd Elektronisches Endoskop mit Farbeinstellfunktion
DE10359996A1 (de) * 2002-12-19 2004-07-01 Pentax Corp. Elektronisches Endoskop
US20050068427A1 (en) * 1999-02-04 2005-03-31 Olympus Optical Co., Ltd. Endoscope image sensing method and apparatus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4697208A (en) * 1985-06-13 1987-09-29 Olympus Optical Co., Ltd. Color image pickup device with complementary color type mosaic filter and gamma compensation means
JPH06327624A (ja) * 1993-05-21 1994-11-29 Olympus Optical Co Ltd 電子内視鏡装置
US5621465A (en) * 1995-04-11 1997-04-15 Matsushita Electric Industrial Co., Ltd. Color image encoder
JP3480477B2 (ja) * 1995-07-26 2003-12-22 ソニー株式会社 動き検出回路および動き検出方法、並びに輝度・色信号分離装置
JP3691634B2 (ja) * 1997-05-13 2005-09-07 オリンパス株式会社 電子内視鏡装置
JP3917733B2 (ja) * 1997-10-31 2007-05-23 オリンパス株式会社 電子内視鏡装置
EP0926902B1 (de) * 1997-12-25 2006-09-13 Sony Corporation Verfahren und Gerät zur Signalumsetzung
JP3529759B2 (ja) * 2001-01-26 2004-05-24 株式会社ソニー・コンピュータエンタテインメント 画像処理プログラム、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、画像処理装置、及び画像処理方法
JP4394359B2 (ja) * 2003-02-17 2010-01-06 Hoya株式会社 内視鏡の光源装置
EP1679678A4 (de) * 2003-10-30 2008-10-22 Matsushita Electric Ind Co Ltd Display-vorrichtung, display-verfahren, programm und aufzeichnungsmedium
JP2005260517A (ja) * 2004-03-11 2005-09-22 Sanyo Electric Co Ltd 画像信号処理装置
US7583303B2 (en) * 2005-01-31 2009-09-01 Sony Corporation Imaging device element
US8031243B2 (en) * 2007-07-06 2011-10-04 Samsung Electronics Co., Ltd. Apparatus, method, and medium for generating image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050068427A1 (en) * 1999-02-04 2005-03-31 Olympus Optical Co., Ltd. Endoscope image sensing method and apparatus
DE10226582A1 (de) * 2001-06-15 2002-12-19 Asahi Optical Co Ltd Elektronisches Endoskop mit Farbeinstellfunktion
DE10359996A1 (de) * 2002-12-19 2004-07-01 Pentax Corp. Elektronisches Endoskop

Also Published As

Publication number Publication date
JP4895834B2 (ja) 2012-03-14
US20080174701A1 (en) 2008-07-24
US8233038B2 (en) 2012-07-31
DE102008005679A1 (de) 2008-07-24
JP2008178481A (ja) 2008-08-07

Similar Documents

Publication Publication Date Title
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE102004006260B4 (de) Videoendoskopeinrichtung
DE10351024B4 (de) Elektronische Endoskopeinrichtung
DE102009032249B4 (de) Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem
DE10164297B4 (de) Elektronisches Endoskopsystem
DE10324693A1 (de) Vorrichtung zur automatischen Bildsignalverstärkung für ein elektronisches Endoskop
DE69730589T2 (de) Verfahren zur Beurteilung des Umgebungslichts und deren Verwendung in einer Steuervorrichtung zur Videokompensation
DE602005003628T2 (de) Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung
DE3432391A1 (de) Endoskopanordnung
DE112016004454T5 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE3922679A1 (de) Endoskopvorrichtung
DE10359996A1 (de) Elektronisches Endoskop
DE10226582A1 (de) Elektronisches Endoskop mit Farbeinstellfunktion
DE102006042670A1 (de) Elektronisches Endoskopsystem
DE602005003749T2 (de) Elektronisches Endoskop und Methode zur Kontrolle der Bildhelligkeit für ein elektronisches Endoskop
DE112009005314B4 (de) Bildaufnahmegerät
DE102006005528A1 (de) Elektronisches Endoskopsystem
DE112015005595T5 (de) Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE112015005531T5 (de) Bildverarbeitungsvorrichtung, Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, Programm zum Betreiben einer Bildverarbeitungsvorrichtung und Endoskopeinrichtung
DE60218585T2 (de) Verfahren und Gerät zur Verbesserung der Bildqualität in digitalen Kameras
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
WO2006069964A1 (de) Bildcodierverfahren sowie bildcodiervorrichtung
DE112017002933B4 (de) Elektronische Endoskopverarbeitungseinrichtung und elektronisches Endoskopsystem

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R012 Request for examination validly filed

Effective date: 20120622

R082 Change of representative

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE MBB, DE

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final