DE102009032249A1 - Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem - Google Patents

Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem Download PDF

Info

Publication number
DE102009032249A1
DE102009032249A1 DE102009032249A DE102009032249A DE102009032249A1 DE 102009032249 A1 DE102009032249 A1 DE 102009032249A1 DE 102009032249 A DE102009032249 A DE 102009032249A DE 102009032249 A DE102009032249 A DE 102009032249A DE 102009032249 A1 DE102009032249 A1 DE 102009032249A1
Authority
DE
Germany
Prior art keywords
signal
image
range
pixel values
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009032249A
Other languages
English (en)
Other versions
DE102009032249B4 (de
Inventor
Shinichi Takayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of DE102009032249A1 publication Critical patent/DE102009032249A1/de
Application granted granted Critical
Publication of DE102009032249B4 publication Critical patent/DE102009032249B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Es wird eine Signalverarbeitungsvorrichtung für ein elektronisches Endoskop angegeben, die einen Gradationskompensationsprozessor enthält. Der Gradationskompensationsprozessor kompensiert R-, G- und B-Gradationen durch Steuern von R-, G- und B-Farbtonkurven, die eine Beziehung zwischen Eingangswerten und Ausgangswerten jedes der R-, G- und B-Signale definieren. Die R-Farbtonkurve ist so geformt, dass sie die Ausgangswerte des R-Signals zusammendrückt, wenn die R-Signal-Eingangswerte in einem relativ tiefen Bereich liegen, und die Ausgangswerte expandiert, wenn die Eingangswerte in einem relativ hohen Bereich liegen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Technik
  • Die vorliegende Erfindung betrifft die Signalverarbeitung für ein elektronisches Endoskopsystem.
  • 2. Beschreibung der verwandten Technik
  • Bekannt ist ein elektronisches Endoskopsystem, das Schmalbandbeleuchtung verwendet, um ein Spektralbild eines bestimmten Frequenzbereichs zu erhalten, um Merkmale wie z. B. Blutgefäße, Bereiche mit Läsionen und dergleichen hervorzuheben, wie es in der ungeprüften japanischen Patentveröffentlichung Nr. 2006-061620 offenbart ist. Das System erfordert jedoch eine spezialisierte Lichtquelle. So erhöht diese Struktur nach dem Stand der Technik die Kosten des Systems und ist im Nachteil, was das Ausführen der gleichzeitigen Betrachtung eines mit Weißlicht aufgenommenen normalen Endoskopbildes betrifft. Bei der ungeprüften japanischen Patentveröffentlichung Nr. 2006-239206 dagegen wird ein Spektralbild aus Weißlicht emuliert, indem eine dem oben erwähnten Schmalband entsprechende Matrix auf eine Farbtransformationsmatrix angewendet wird, die normalerweise bei der Bildverarbeitung eingesetzt wird.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die in der ungeprüften japanischen Patentveröffentlichung Nr. 2006-239206 offenbarte Bildverarbeitung ist jedoch kompliziert, und zudem ist es schwierig, ein gewünschtes Spektralbild mit einer linearen Transformation zu emulieren, es sei denn, es wird eine schrittweise lineare Kurve verwendet. Daher kann es sein, dass Merkmale eines zu betrachteten Objekts, wie z. B. eine Läsion, nicht ausreichend hervorgehoben sind. Bei der Endoskopie kann die Läsion beispielsweise durch ein Muster verteilter Blutgefäße erkennbar sein. Die Bildverarbeitung in der ungeprüften japanischen Patentveröffentlichung Nr. 2006-230206 ist jedoch nicht in der Lage, die Blutgefäße wirksam von dem umgebenden Gewebe zu unterscheiden, und erfordert somit für eine richtige Diagnose den Vergleich mit einem Normalspektrumbild.
  • Eine Aufgabe der vorliegenden Erfindung ist es daher, Abbildungen eines Blutgefäßes oder einer Läsion unter Verwendung von Weißlichtbeleuchtung in einem elektronischen Endoskopsystem zu verbessern.
  • Gemäß vorliegender Erfindung wird eine Signalverarbeitungsvorrichtung für ein elektronisches Endoskop angegeben, die einen Gradationskompensationsprozessor enthält.
  • Der Gradationskompensationsprozessor kompensiert R-, G- und B-Gradationen durch Steuern von R-, G- und B-Farbtonkurven, die eine Beziehung zwischen Eingangswerten und Ausgangswerten des jeweiligen R-, G- und B-Signals definieren. Die R-Farbtonkurve ist so geformt, dass sie die Ausgangswerte des R-Signals zusammendrückt, wenn die Einganswerte des R-Signals in einem relativ tiefen Bereich liegen, und die Ausgangwerte expandiert, wenn die Eingangswerte in einem relativ hohen Bereich liegen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Aufgaben und Vorteile der vorliegenden Erfindung ergeben sich besser aus der folgenden Beschreibung unter Bezugnahme auf die anhängenden Zeichnungen, in denen
  • 1 ein Blockschaltbild ist, das die allgemeine Struktur eines elektronischen Endoskopsystems eines Ausführungsbeispiels schematisch darstellt;
  • 2 ein Blockschaltbild ist, das das Konzept des Gradationskompensationsprozesses schematisch darstellt;
  • 3 ein Beispiel für ein Bedienmenü zum Wählen eines der Gradationskompensationsprozesse oder einer Betriebsart ist;
  • 4 ein Beispiel für eine derartige Farbtonkurve gibt;
  • 5 ein weiteres Beispiel für eine derartige Farbtonkurve gibt;
  • 6A6C Bildverbesserungsprozesse für den Magen darstellen;
  • 7A7C Bildverbesserungsprozesse für den Dickdarm darstellen;
  • 8A8B Bildverbesserungsprozesse für die Speiseröhre darstellen;
  • 9 Beispiele für Farbtonkurven gibt, die für Verdauungsorgane, einschließlich des Magens, eingestellt sind;
  • 10 Beispiele für Farbtonkurven gibt, die für den Dickdarm eingestellt sind, und
  • 11 Beispiele für Farbtonkurven gibt, die für die Speiseröhre eingestellt sind.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Die vorliegende Erfindung wird nachfolgend unter Bezugnahme auf die in den Zeichnungen dargestellten Ausführungsbeispiele beschrieben.
  • 1 ist ein Blockschaltbild, das die allgemeine Struktur eines elektronischen Endoskopsystems eines Ausführungsbeispiels zeigt, bei dem die vorliegende Erfindung eingesetzt wird.
  • Wie auf dem Gebiet der Technik wohlbekannt ist, enthält das elektronische Endoskopsystem 10 im Allgemeinen einen Betrachtungsvorrichtungsabschnitt 11 mit einem Schlauch zum Einführen in den Körper, eine Verarbeitungseinheit 12, an der der Betrachtungsvorrichtungsabschnitt 11 lösbar angebracht ist und die Bildsignale von dem Betrachtungsvorrich tungsabschnitt 11 empfängt, um die Bildverarbeitung auszuführen, sowie (eine) Ausgabevorrichtung(en), wie z. B. einen Monitor 13 zum Anzeigen der Bilder von der Verarbeitungseinheit 12 und/oder einen Drucker 14 zum Aufzeichnen der Bilder.
  • Eine Fotolinse 15 und eine Abbildungsvorrichtung 16 sind am distalen Ende des Schlauchs des Betrachtungsvorrichtungsabschnitts 11 angeordnet. Ein Zeittaktgenerator 17, der innerhalb des Betrachtungsvorrichtungsabschnitts 11 angeordnet sein kann, steuert die Abbildungsvorrichtung 16 an. Die Abbildungsvorrichtung 16 nimmt Bilder innerhalb des Körpers mit Weißlicht auf, das von einer innerhalb der Verarbeitungseinheit 12 angeordneten Lichtquelle 19 durch eine Lichtleitfaser 18 zugeführt werden kann.
  • Die analogen Bildsignale der RGB-Komplementärfarben, die durch die Abbildungsvorrichtung 16 gewonnen werden, werden bei einer analogen Frontend-Schaltung 20 in digitale Bildsignale umgewandelt und dann durch eine Farbinterpolationsschaltung 21 und eine Matrixschaltung 22 in RGB-Signale umgewandelt. Dann werden die RGB-Signale bei einem RGB/YCrCb-Wandler 23 in YCrCb-Signale umgewandelt und der Verarbeitungseinheit 12 zugeführt.
  • Die der Verarbeitungseinheit 12 zugeführten YCrCb-Signale werden dann über eine CPU 24 z. B. einem DSP 25 zugeführt. Die YCrCb-Signale werden bei dem DSP 25 der Bildverarbeitung, wie beispielsweise Konturkompensation und dergleichen, unterzogen und dann in die RGB-Signale umgewandelt. Die RGB-Signale werden kann temporär in einem (flüchtigen) Bildspeicher 26 gespeichert. Dann werden die RGB-Signale bei dem DSP 25 unter Anweisungen von der CPU 24 hinsichtlich in dem (nicht flüchtigen) Speicher M gespeicherten Daten einem vorbestimmten Gradationskompensationsprozess unterzogen und dann einer Skalierungssteuerung 27 zugeführt. Die bezüglich der Gradation kompensierten RGB-Signale werden dann einer Skalierungssteuerung 27 zugeführt und nachfolgend der Größenkompensation unterzogen, die ausgehend von der Bildgröße ausgeführt wird, und dann an den Monitor 13 oder den Drucker 14 ausgegeben.
  • Ein Bedienfeld 28 und eine Anzeigevorrichtung 29, wie z. B. ein LCD-Monitor, sind ebenfalls mit der CPU 24 verbunden, so dass eine GUI mit Tasten an dem Bedienfeld 28 und der Anzeigevorrichtung 29 vorgesehen sein kann. Mit anderen Worten: Der Benutzer kann eine Betriebsart wählen oder verschiedene Elemente einstellen, indem er das Bedienfeld 28 bedient, während er auf die Anzeigevorrichtung 29 blickt.
  • Unter Bezugnahme auf die 2 und 3 werden als nächstes die Gradationskompensationsprozesse des vorliegenden Ausführungsbeispiels beschrieben. 2 ist ein Blockschaltbild, das das Konzept der Gradationskompensationsprozesse schematisch darstellt. 3 gibt ein Beispiel für ein Bedienmenü, d. h. ein Bildschirmfenster zum Wählen eines der Gradationsprozesse, das auf der Anzeigevorrichtung 29 angezeigt wird.
  • Für jedes R-Signal RIN, G-Signal GIN und B-Signal BIN wird ein entsprechender Gradationskompensationsprozess separat ausgeführt. Es werden also eine R-Gradationskompensation 31R für das R-Signal RIN, eine G-Gradationskompensation 31G für das G-Signal GIN und eine B-Gradationskompensation 31B für das B-Signal BIN ausgeführt. Die R-Gradationskompensation, die G-Gradationskompensation und die B-Gradationskompensation enthalten jeweils eine Vielzahl von Gradations kompensationsmustern, die als Farbtonkurven in dem Speicher M gespeichert sind.
  • 2 zeigt schematisch eine Beispielsituation, in der die R-Gradationskompensation die Farbtonkurven TR1–TR3 enthält, die G-Gradationskompensation die Farbtonkurven TG1–TG3 enthält und die B-Gradationskompensation die Farbtonkurven TB1–TB3 enthält. In 2 sind Kombinationen der RGB-Farbtonkurven (TR1, TG1, TB1), (TR2, TG2, TB2) und (TR3, TG3, TB3) zu einem Satz zusammengefasst, und dadurch wird ein Satz von RGB-Farbtonkurven-Kombinationen gemäß einem Wahlsignal SEL ausgewählt. Bei vorliegendem Ausführungsbeispiel sind sechs oder mehr Sätze der RGB-Farbtonkurven-Kombinationen für sechs Betrachtungsbetriebsarten, die später besprochen werden, vorbereitet. Jede Farbtonkurve kann jedoch in dem Speicher M als durch Kompensationsparameter spezifizierte Gleichung gespeichert sein, und es kann auch eine Nachschlagetabelle verwendet werden.
  • Die Gradationskompensationsprozesse gemäß der gewählten Kombination der RGB-Farbtonkurven werden jeweils für das R-Signal RIN, das G-Signal GIN und das B-Signal BIN ausgeführt, und dann werden kompensierte RGB-Signale als R-Signal ROUT, G-Signal GOUT und B-Signal BOUT jeweils an die Skalierungssteuerung 27 (siehe 1) ausgegeben. Es sei darauf hingewiesen, dass bei vorliegendem Ausführungsbeispiel die Gradationskompensation an jedem der R-, G- und B-Signale ausgeführt wird, um Pit-Pattern des Magens, Blutgefäße im Dickdarm und dergleichen, je nach betrachtetem Organ, hervorzuheben.
  • Farbtonkurven werden mittels einer Betrachtungsbetriebsart in dem auf der Anzeigevorrichtung 29 angezeigten Bedienmenü ausgewählt. Wie in
  • 3 gezeigt, sind auf dem Bildschirm S der Anzeigevorrichtung 29 Kästen P1–P6 angezeigt, die einer Vielzahl von Betrachtungsbetriebsarten (z. B. sechs Betriebsarten) entsprechen. Einer der Kasten P1–P6, der einer gewünschten Betrachtungsbetriebsart entspricht, kann durch die Tastenbetätigung des Benutzers auf dem Bedienfeld 28 (siehe 1) ausgewählt werden. Bei vorliegendem Ausführungsbeispiel gehören zu den Beispielen für die Betrachtungsbetriebsarten zwei manuelle Betriebsarten (P1 und P2) sowie Betriebsarten, die speziell für bestimmte Organe ausgelegt sind, z. B. eine Magen-Betriebsart (P3), eine Dickdarm-Betriebsart (P4), eine Speiseröhre-Betriebsart (P5) und eine Automatik-Betriebsart (P6), die ein Betrachtungsziel automatisch identifiziert und die für das identifizierte Ziel geeignete Gradationskompensation durchführt.
  • Die manuellen Betriebsarten (P1 und P2) sind die Betriebsarten, in denen der Benutzer die jeweilige R-, G- und B-Gradation manuell kompensiert, und stehen für das Speichern der entsprechenden Kompensationsparameter im Speicher zur Verfügung, so dass die RGB-Gradationskompensationsprozesse später auf die von dem Benutzer eingestellten Kompensationsparameter zurückgreifen können. Die Magen-Betriebsart (P3), die Dickdarm-Betriebsart (P4) und die Speiseröhre-Betriebsart (P5) sind die RGB-Kompensationsbetriebsarten, die die Kompensationsparamter anwenden, die vor Auslieferung der Vorrichtung für den Magen, den Dickdarm und die Speiseröhre eingestellt und im Speicher M gespeichert wurden. Ferner wendet die Automatik-Betriebsart (P6) eine bestimmte Bildverarbeitung, einen Pattern-Vergleichsprozess und dergleichen, auf von der Abbildungsvorrichtung 16 aufgenommene Bilder an, um eine Art von Ziel automatisch zu identifizieren, und wendet den RGB-Kompensationsprozess mit den (zuvor in dem Speicher M gespeicherten) auf das spezielle Ziel oder Organ eingestellten Kompensationspa rametern an. Ein weiteres Beispiel für ein Zielorgan, neben Magen, Dickdarm und Speiseröhre, könnte die Lunge sein.
  • Die CPU 24 wählt eine Betrachtungsbetriebsart gemäß einem Signal von dem Bedienfeld 28 und gibt das der gewählten Betrachtungsbetriebsart entsprechende Wahlsignal SEL an den DSP 25 aus. Der DSP 25 ruft die dem Wahlsignal SEL entsprechenden Kompensationsparameter aus dem Speicher M ab, um die RGB-Gradationskompensation auszuführen. Im Übrigen führt die CPU 24, wenn die Automatik-Betriebsart (P6) gewählt ist, eine Merkmalsextraktion zu einem in dem Bildspeicher 26 gespeicherten Bilddatenelement aus, um das betrachtete Objekt anhand seines Musters zu identifizieren, und gibt das dem spezifizierten Ziel oder Organ entsprechende Wahlsignal SEL aus. Beispielsweise kann die Identifikation des Ziels, wie im Falle des Magens, durch Erfassen von Muster innerhalb des Ausgangs oder von Barrett-Mustern ausgeführt werden. Im Falle des Dickdarms kann das Ziel durch Extrahieren von Haustramustern erkannt werden. Die Identifikation erfolgt also durch Erfassen eines charakteristischen Musters in jedem Organ.
  • Wenn dagegen eine Betrachtungsbetriebsart ohne jegliche RGB-Gradationskompensation durch Betätigen einer Taste an dem Bedienfeld 29, z. B. durch Drücken einer bestimmten Taste gewählt wurde, werden die R-, G- und B-Signale der Skalierungssteuerung 27 zugeführt, ohne dass sie an dem DSP 25 einem RGB-Gradationskompensationsprozess unterzogen wurden.
  • Das Prinzip des RGB-Gradationskompensationsprozesses des vorliegenden Ausführungsbeispiels wird unter Bezugnahme auf die 4 und 5 erläutert.
  • Die Luminanzverteilung in einem durch das elektronische Endoskop aufgenommenen Bild kann im Allgemeinen gleich der normalen Verteilung sein. Die Verteilung von Histogrammen für jede R-, G- und B-Farbkomponente hängt jedoch von Merkmalen des Betrachtungsabschnitts ab, wie z. B. Strukturmuster, Gefäßmuster und ihre Größe. Bei vorliegendem Ausführungsbeispiel werden die R-, G- und B-Farbtonkurven gesteuert, um die R-, G- und B-Gradation zu kompensieren, und somit um die Histogramme der R-, G- und B-Farbkomponenten so zu transformieren, dass sie die spezifischen Merkmale (z. B. die Strukturmuster und Blutgefäßmuster des betrachteten Objekts) hervorheben, um die Betrachtung zu erleichtern.
  • Wenn die Verteilung des Histogramms für eine bestimmte Farbkomponente klein ist, konzentrieren sich die Pixelwerte der Farbkomponente im Allgemeinen um den Mittelwert und das Bild der Farbe hat einen hohen Kontrast. Wenn eine Transformation zum Reduzieren der Verteilung des Histogramms an einer bestimmten Farbkomponente durchgeführt wird, werden daher die Muster, die hauptsächlich aus dieser Farbkomponente bestehen, visuell verbessert. Ist dagegen die Verteilung des Histogramms für eine bestimmte Farbkomponente groß, so hat das Bild einen geringen Kontrast. Wenn daher eine Transformation zum Erhöhen der Verteilung des Histogramms an einer bestimmten Farbkomponente durchgeführt wird, so werden die Muster, die hauptsächlich aus dieser Farbkomponente zusammengesetzt sind, unscharf abgebildet, und Muster, die aus den anderen Farben bestehen, werden ihrerseits verhältnismäßig verbessert dargestellt.
  • Bei vorliegendem Ausführungsbeispiel wird die Verteilung des Histogramms für die R-, G- und B-Farbkomponente jeweils verändert und die Verteilung wird verschoben, indem die Farbtonkurve für jede der R-, G- und B-Farbkomponenten gesteuert wird. Die 4 und 5 zeigen zwei Typen beispielhafter Muster der Farbtonkurve, die als auf das vorliegende Ausführungsbeispiel anwendbar erachtet werden können. Bei vorliegendem Ausführungsbeispiel werden diese beiden Typen von Farbtonkurven für jede der R-, G- und B-Farbkomponenten geeignet modifiziert und miteinander kombiniert, um die RGB-Gradationen geeignet zu kompensieren.
  • In 4 und 5 ist die Linie L eine gerade Linie, die durch y = x repräsentiert wird, und entspricht dem Fall, in dem keine Gradationskompensation durchgeführt wird. Am Punkt P, der durch die Koordinaten x = xp und y = yp repräsentiert wird, befindet sich ein Schnittpunkt der Farbtonkurven T1 und T2 mit der Linie L. Ferner repräsentiert x = xm den maximalen Wert (z. B. 255) der Eingangspixelwerte und y = ym repräsentiert den maximalen Wert (z. B. 255) der Ausgangspixelwerte.
  • Wie aus den 4 und 5 hervorgeht, konzentrieren sich die Ausgangspixelwerte in einem Bereich, in dem die Neigung der Tangente oder die Ableitung der Farbtonkurve größer als 1 ist, und sind in einem Bereich gestreut, in dem die Neigung der Tangente oder die Ableitung kleiner als 1 ist. Wird die Farbtonkurve T1 der 4 als y = f1(x) angegeben, ist die Funktion f1(x) eine kontinuierliche Funktion, die x < f1(x) in 0 < x < xp und x > f1(x) in xp < x < xm erfüllt. Die Neigung der Funktion f1(x) ist nämlich bei x = xp kleiner als 1, d. h. die Ableitung f1'(xp) < 1, und daher sind die Ausgangspixelwerte um den Schnittpunkt P herum dicht (d. h. konzentriert). Ferner ist die Ableitung f1'(x) der Farbtonkurve T1 größer als 1 (f1'(x) > 1), um x = 0 und x = xm herum, und somit sind die Ausgangspixelwerte um den minimalen Pixelwert und den maximalen Pixelwert herum transparent (gestreut).
  • Wird andererseits die Farbtonkurve T2 der 5 als y = f2(x) angegeben, ist die Funktion f2(x) eine kontinuierliche Funktion, die x > f2(x) in 0 < x < xp und x < f2(x) in xp < x < xm erfüllt. Die Neigung der Funktion f2(x) bei x = xp ist nämlich größer als 1, d. h. die Ableitung f2'(xp) > 1, und daher sind die Ausgangspixelwerte um den Schnittpunkt P herum transparent (d. h. gestreut). Ferner ist hinsichtlich der Farbtonkurve T2 die Ableitung f2'(x) kleiner als 1(f2'x) < 1), um x = 0 und x = xm herum, und somit sind die Ausgangspixelwerte um den minimalen Pixelwert und den maximalen Pixelwert herum dicht (konzentriert).
  • Im Folgenden werden unter Bezugnahme auf die 6 bis 8 Prinzipien der Bildverbesserungsprozesse (Farbtransformationsprozesse) erläutert, die zum Hervorheben von Bereichen mit Läsionen im Magen, dem Dickdarm und in der Speiseröhre verwendet werden. Es sei darauf hingewiesen, dass die 6 bis 8 die Bildverbesserungsprozesse für den Magen, den Dickdarm bzw. die Speiseröhre darstellen sollen.
  • Bei innerhalb des Körpers aufgenommenen Bildern ist, ungeachtet an welchem Ort sie aufgenommen werden, im Allgemeinen die Rate der R-Farbkomponente im Luminanzsignal verglichen mit denen der G- und der B-Farbkomponente hoch. Daher entspricht bei dem Bildverbesserungsprozess der vorliegenden Erfindung die Steuerung der R-Farbkomponente im Wesentlichen einer Luminanzkontraststeuerung, und die Steuerung der G-und der B-Farbkomponenten entspricht im Wesentlichen einer Tönungskontraststeuerung.
  • 6A ist eine schematische Darstellung der Verteilung der R-, G- und B-Pixelwerte für ein Bild, das man normalerweise beim Aufnehmen eines Bildes im Magen erhält (Bild einer normalen Schleimhaut) und für ein Bild, das im Wesentlichen duktale Strukturen enthält, was für Bereiche mit Läsionen im Magen typisch ist (ein Bild duktaler Strukturen). Insbesondere zeigt sie Bereiche, in denen sich die Verteilung jedes Histogramms der R-, G- und B-Pixelwerte für das Bild der normalen Schleimhaut und das Bild duktaler Strukturen vor Ausführen der Bildverbesserungsprozesse der vorliegenden Erfindung konzentriert.
  • Was die R-Farbpixelwerte betrifft, so konzentrieren sich die Pixelwerte im Wesentlichen in einem Hoch-Bereich sowohl in dem Bild der normalen Schleimhaut als auch in dem Bild der duktalen Struktur. Für die G-Farbpixelwerte dagegen konzentrieren sich die Werte im Wesentlichen in einem mittleren Bereich des Bildes der normalen Schleimhaut und konzentrieren sich im mittleren Bereich und zu dem Hoch-Bereich des Bildes der duktalen Struktur. Was die B-Farbpixelwerte betrifft, so konzentrieren sich die Werte im Wesentlichen in einem Tief-Bereich und dem mittleren Bereich des Bildes der normalen Schleimhaut und konzentrieren sich im Wesentlichen im mittleren Bereich und dem Hoch-Bereich des Bildes der duktalen Struktur.
  • 6B zeigt schematisch wie die R-, G- und B-Pixelwerte des Bildes der normalen Schleimhaut und des Bildes der duktalen Struktur der 6A durch die Bildverarbeitung für die R-Komponente in der Magen-Betriebsart des vorliegenden Ausführungsbeispiels verändert werden. Bei der Bildverarbeitung für die R-Komponente werden die Pixelwerte der R-Komponente in dem mittleren Bereich und dem Hoch-Bereich in Pixel werte in dem Tief-Bereich und dem mittleren Bereich transformiert (in dem die Verteilung enger ist). Was das Bild der normalen Schleimhaut des Magens betrifft, handelt es sich bei dem größten Teil der Pixelwerte im Hoch-Bereich um solche der R-Komponente, weshalb bei der obigen Bildverarbeitung Pixel mit dem Pixelwert innerhalb des Hoch-Bereichs nahezu verschwinden und das Bild dunkel wird (ein Bereich A1). Was das Bild der duktalen Struktur des Magens betrifft, so existieren dagegen auch viele Pixel der G-Farbkomponente und der B-Farbkomponente mit einem Pixelwert innerhalb des Hoch-Bereichs, und so wird das Bild relativ hell gehalten, obwohl die Pixelwerte der R-Komponente in dem Hoch-Bereich nahezu verschwunden sind (ein Bereich A2).
  • Durch Anwenden der oben erwähnten Bildverarbeitung auf ein in dem Magen aufgenommenes endoskopisches Bild derart, dass die Pixelwerte der R-Komponente innerhalb des mittleren Bereichs und des Hoch-Bereichs in den Tief-Bereich und den mittleren Bereich transformiert werden (Verengen der Verteilung), wird daher der Luminanzkontrast zwischen Bereichen, die die duktale Struktur enthalten, und den verbleibenden Bereichen, die die normale Schleimhaut enthalten, verbessert. Daher sind die Bildbereiche, die im Wesentlichen die duktale Struktur enthalten, gegenüber den umgebenden Bereichen hell hervorgehoben.
  • 6C zeigt schematisch wie R-, G- und B-Pixelwerte des Bildes der normalen Schleimhaut und des Bildes der duktalen Struktur der 6A durch die Bildverarbeitung für die G- und die B-Komponente in der Magen-Betriebsart des vorliegenden Ausführungsbeispiels verändert werden. Bei vorliegendem Ausführungsbeispiel werden die Pixelwerte der G- und der B-Komponente im mittleren Bereich in Pixelwerte im Tief-Bereich und im Hoch-Bereich (mit separierter Verteilung) transformiert. Zum Bei spiel werden die Pixelwerte in den Tief-Bereich oder in den Hoch-Bereich transformiert, wobei ein vorbestimmter Wert im mittleren Bereich als Grenze gesetzt wird.
  • Im mittleren Bereich des Bildes der normalen Schleimhaut sind Pixelwerte der B- und der G-Farbkomponente hauptsächlich über den relativ tiefen Bereich des mittleren Bereichs verteilt. In dem mittleren Bereich des Bildes der duktalen Struktur dagegen, sind Pixelwerte der B- und der G-Farbkomponente hauptsächlich über den relativ hohen Bereich des mittleren Bereichs verteilt. Durch geeignetes Einstellen des oben erwähnten vorbestimmten Wertes, werden daher die G- und die B-Komponente des Bildes der normalen Schleimhaut in dem mittleren Bereich in Pixelwerte im Tief-Bereich transformiert, und die G- und die B-Komponente des Bildes der duktalen Struktur im mittleren Bereich werden in Pixelwerte im Hoch-Bereich transformiert. Pixelwerte der G- und der B-Komponente im mittleren Bereich des in dem Magen aufgenommenen endoskopischen Bildes werden nämlich separiert, wodurch das Bild der normalen Schleimhaut im Wesentlichen in den Tief-Bereich transformiert wird (ein Bereich A3), und das Bild der duktalen Struktur im Wesentlichen in den Hoch-Bereich transformiert wird (ein Bereich A4).
  • Was Bildbereiche betrifft, die im Wesentlichen das Bild der normalen Schleimhaut enthalten, sind dadurch die G- und die B-Farbkomponente im Wesentlichen in dem Tief-Bereich verteilt, und was Bildbereiche betrifft, die im Wesentlichen das Bild der duktalen Struktur enthalten, sind die Gund die B-Farbkomponente im Wesentlichen im Hoch-Bereich verteilt. Daher sind die G- und die B-Komponente von den Bereichen des in dem Magen aufgenommenen endoskopischen Bildes, die im Wesentlichen das Bild der duktalen Struktur enthalten, verstärkt und der Tonkontrast ist hervorgehoben.
  • Unter Bezugnahme auf die 7A bis 7C wird der Bildverbesserungsprozess für den Dickdarm beschrieben. 7A zeigt schematisch die Verteilung der R-, G- und B-Pixelwerte für ein Bild, das man normalerweise erhält, wenn ein Bild innerhalb des Dickdarms aufgenommen wird (Bild der normalen Schleimhaut) und für ein Bild, das im Wesentlichen ein Pit-Pattern enthält, das für Bereiche mit Läsionen innerhalb des Dickdarms typisch ist (Pit-Pattern-Bild). Es zeigt nämlich Bereiche, in denen sich die Verteilung des jeweiligen Histogramms der R-, G- und B-Pixelwerte für das Bild der normalen Schleimhaut und das Pit-Pattern-Bild konzentriert, bevor der Bildverbesserungsprozess der vorliegenden Erfindung ausgeführt wird.
  • Die Pixelwerte der R-Farbkomponente des Bildes der normalen Schleimhaut in dem Dickdarm konzentrieren sich im Wesentlichen im mittleren Bereich und im Hoch-Bereich, und die R-Farbpixelwerte des Pit-Pattern-Bildes konzentrieren sich im Wesentlichen im Hoch-Bereich. Die G-Farbpixelwerte dagegen konzentrieren sich im Wesentlichen im mittleren Bereich und auf der tieferen Seite des Hoch-Bereichs des Bildes der normalen Schleimhaut, und sie konzentrieren sich im Wesentlichen im Hoch-Bereich des Pit-Pattern-Bildes. Was ferner die B-Farbpixelwerte betrifft, so konzentrieren sich die Werte im mittleren Bereich des Bildes der normalen Schleimhaut und konzentrieren sich im Wesentlichen über den mittleren Bereich und den Hoch-Bereich des Pit-Pattern-Bildes.
  • 7B zeigt schematisch wie die R-, G- und B-Pixelwerte des Bildes der normalen Schleimhaut und des Pit-Pattern-Bildes der 7A durch die Bildverarbeitung für die R-Komponente in der Dickdarm-Betriebsart des vorliegenden Ausführungsbeispiels verändert werden. Bei der Bildverarbeitung für die R-Komponente werden, ähnlich wie bei derjenigen der Magen-Betriebsart, die Pixelwerte der R-Komponente im mittleren Bereich und im Hoch-Bereich in Pixelwerte im Tief-Bereich und im mittleren Bereich transformiert (die Verteilung wird verengt). Was das Bild der normalen Schleimhaut des Dickdarms betrifft, handelt es sich bei der Mehrheit der Pixelwerte im Hoch-Bereich um Pixel der R-Komponente, obwohl auch einige Pixel der G-Komponente vorhanden sind, die Pixelwerte im Hoch-Bereich haben. Bei obiger Bildverarbeitung verschwinden daher Pixel mit einem Wert innerhalb des Hoch-Bereichs nahezu, und das Bild wird dunkel (ein Bereich A5). Bei dem Pit-Pattern-Bild des Dickdarms dagegen, existieren auch viele Pixel der G-Farbkomponente und der B-Farbkomponente mit Pixelwerten innerhalb des Hoch-Bereichs, weswegen das Bild relativ hell gehalten wird, obwohl die Pixelwerte der R-Komponente innerhalb des Hoch-Bereichs nahezu verschwunden sind (ein Bereich A6).
  • Durch Anwenden der oben erwähnten Bildverarbeitung auf ein innerhalb eines Dickdarms aufgenommenes endoskopisches Bild derart, dass die Pixelwerte der R-Komponente innerhalb des mittleren Bereichs und des Hoch-Bereichs in den Tief-Bereich und den mittleren Bereich transformiert werden (Verengen der Verteilung), wird folglich der Luminanzkontrast zwischen Bereichen, die das Pit-Pattern enthalten, und den verbleibenden Bereichen, die die normale Schleimhaut enthalten, verbessert. Daher sind die Bildbereiche, die im Wesentlichen das Pit-Pattern enthalten, gegenüber den umgebenden Bereichen hell hervorgehoben.
  • 7C zeigt schematisch wie die R-, G- und B-Pixelwerte des Bildes der normalen Schleimhaut und des Pit-Pattern-Bildes der 7A durch die Bildverarbeitung für die G- und die B-Komponente bei der Dickdarm-Betriebsart des vorliegenden Ausführungsbeispiels verändert werden. Bei vorliegendem Ausführungsbeispiel werden die Pixelwerte der G- und der B-Komponente im mittleren Bereich in Pixelwerte im Tief-Bereich und im Hoch-Bereich transformiert (d. h. die Verteilung wird separiert). Beispielsweise werden die Pixelwerte in den Tief-Bereich oder in den Hoch-Bereich transformiert, wobei ein vorgegebener Wert in dem mittleren Bereich als Grenze gesetzt wird.
  • Im mittleren Bereich des Bildes der normalen Schleimhaut sind Pixelwerte der B-Komponente hauptsächlich über einen relativ tiefen Bereich des mittleren Bereichs verteilt. Obwohl Pixelwerte der G-Komponente über den mittleren Bereich und den Hoch-Bereich verteilt sind, liegt ferner der Mittelpunkt der Verteilung in dem tieferen Bereich des mittleren Bereichs. Dagegen befindet sich, obwohl Pixelwerte der B-Komponente des Pit-Pattern-Bildes über den mittleren Bereich und den Hoch-Bereich verteilt sind, der größte Teil der Verteilung oberhalb des oberen Bereichs des mittleren Bereichs. Durch geeignetes Einstellen des oben erwähnten vorgegebenen Wertes, werden daher die G- und die B-Komponente des Bildes der normalen Schleimhaut in Pixelwerte im Tief-Bereich transformiert, und die G- und die B-Komponente des Pit-Pattern-Bildes werden in Pixelwerte im Hoch-Bereich transformiert. Pixelwerte der G- und der B-Komponente im mittleren Bereich des innerhalb des Dickdarms aufgenommenen endoskopischen Bildes werden also durch die Bildverarbeitung des vorliegenden Ausführungsbeispiels separiert, so dass das Bild der normalen Schleimhaut im Wesentlichen in den Tief-Bereich transformiert wird (Bereich A7) und das Pit-Pattern-Bild im Wesentlichen in den Hoch-Bereich transformiert wird (Bereich A8).
  • Für Bildbereiche, die im Wesentlichen das Bild der normalen Schleimhaut enthalten, sind die G- und die B-Farbkomponente daher im Wesentlichen im Tief-Bereich verteilt, und für Bildbereiche, die im Wesentlichen das Pit-Pattern-Bild enthalten, sind die G- und die B-Farbkomponente im Wesentlichen im Hoch-Bereich verteilt. Daher sind die G- und die B-Komponente von Bereichen, die im Wesentlichen das Pit-Pattern-Bild des innerhalb des Dickdarms aufgenommenen endoskopischen Bildes enthalten, verstärkt, und der Farbtonkontrast ist hervorgehoben, wie es auch bei der Magen-Betriebsart der Fall ist.
  • Unter Bezugnahme auf die 8A und 8B wird der Bildverbesserungsprozess für die Speiseröhre beschrieben. 8A zeigt schematisch die Verteilung der R-, G- und B-Pixelwerte für ein Bild, das man normalerweise erhält, wenn ein Bild innerhalb einer Speiseröhre aufgenommen wird (ein Bild der normalen Schleimhaut) und für ein Bild, das im Wesentlichen einen Bereich enthält, in dem die Farbe verblasst, was für Bereiche mit Läsionen innerhalb der Speiseröhre typisch ist (verblassendes Bild). Sie zeigt nämlich Bereiche, in denen sich die Verteilung des jeweiligen Histogramms der R-, G- und B-Pixelwerte für das Bild der normalen Schleimhaut und für das verblassende Bild konzentriert, bevor der Bildverbesserungsprozess des vorliegenden Ausführungsbeispiels durchgeführt wird.
  • Die Pixelwerte der R-Farbkomponente des Bildes der normalen Schleimhaut in der Speiseröhre konzentrieren sich im Wesentlichen im mittleren Bereich und im Hoch-Bereich, während sich die R-Farbpixelwerte des verblassenden Bildes im Wesentlichen im Hoch-Bereich konzentrieren. Die G- und die B-Farbpixelwerte dagegen konzentrieren sich im Wesentlichen im mittleren Bereich des Bildes der normalen Schleimhaut und konzentrieren sich im Wesentlichen über den mittleren Bereich und den Hoch-Bereich des verblassenden Bildes.
  • 8B zeigt schematisch wie die R-, die G- und die B-Pixelwerte des Bildes der normalen Schleimhaut und des verblassenden Bildes der 8A durch die Bildverarbeitung für die R-Komponente in der Speiseröhre-Betriebsart des vorliegenden Ausführungsbeispiels verändert werden. Bei der Bildverarbeitung für die R-Komponente werden, ähnlich wie bei derjenigen der Magen-Betriebsart und der Dickdarm-Betriebsart, die Pixelwerte der R-Komponente im mittleren Bereich und im Hoch-Bereich in Pixelwerte im Tief-Bereich und im mittleren Bereich transformiert (die Verteilung wird verengt). Was das Bild der normalen Schleimhaut der Speiseröhre betrifft, so sind die meisten Pixelwerte im Hoch-Bereich solche der R-Komponente, so dass mit der obigen Bildverarbeitung Pixel mit Pixelwerten in dem Hoch-Bereich nahezu verschwinden und das Bild dunkel wird (ein Bereich A9). Bei dem verblassenden Bild der Speiseröhre dagegen gibt es auch zahlreiche Pixel der G-Farbkomponente und der B-Farbkomponente, deren Pixelwert innerhalb des Hoch-Bereichs liegt, so dass das Bild relativ hell gehalten wird, obwohl die Pixelwerte der R-Komponente innerhalb des Hoch-Bereichs nahezu verschwunden sind (ein Bereich A10).
  • Durch derartiges Anwenden der oben erwähnten Bildverarbeitung auf ein innerhalb einer Speiseröhre aufgenommenes endoskopisches Bild, dass die Pixelwerte der R-Komponente innerhalb des mittleren Bereichs und des Hoch-Bereichs in den Tief-Bereich und den mittleren Bereich trans formiert werden (d. h. Verengen der Verteilung), wird daher der Luminanzkontrast zwischen Bereichen, die das verblassende Bild enthalten, und den verbleibenden Bereichen, die die normale Schleimhaut enthalten, verbessert. Daher sind die Bildbereiche, die im Wesentlichen das verblassende Bild enthalten, gegenüber den umgebenden Bereichen hell hervorgehoben. Im Übrigen werden bei der Speiseröhre-Betriebsart die Pixelwerttransformationen für die G- und die B-Komponente nicht ausgeführt.
  • Im Folgenden werden unter Bezugnahme auf die 9 bis 11 Beispiele der Farbtonkurven erläutert, die in den Bildverbesserungsprozessen in jeder der oben erwähnten Betriebsarten verwendet werden. 9 gibt ein Beispiel für Farbtonkurven, die für Verdauungsorgane, einschließlich des Magens, eingestellt sind, 10 bezieht sich auf den Dickdarm und 11 auf die Speiseröhre. In den 9 bis 11 repräsentiert die Abszisse jeweils den Eingangspixelwert x, und die Ordinate repräsentiert den Ausgangspixelwert y, wie es auch bei den 4 und 5 der Fall ist. Ferner repräsentiert die gerade Linie L y = x, und der minimale Wert und der maximale Wert der Eingangs- und der Ausgangspixelwerte ist 0 bzw. 255 (ansonsten als xm bezeichnet).
  • Jede der R-, G- und B-Farbtonkurven in den 9 und 10 sowie die R-Farbtonkurve in 11 kann durch die Funktion f(x) = (A1 – A2)/(1 + exp[(x – xd/α]) + A2 repräsentiert werden, wobei A1, A2 und xd Parameter zum Einstellen der Form der Kurven sind. Was die R-Farbtonkurven TR1 und TR3 für das Verdauungsorgan (den Magen) und für die Speiseröhre betrifft, die in den 9 und 11 angezeigt sind, so sind die Parameter A1, A2, xd und α jeweils auf –5, 500, 300 und 70 gesetzt. Ferner sind in 9 die Parameter für die G-Farbtonkurve TG1 auf -28, 259, 100 und 45 gesetzt, und die Parameter für die B-Farbtonkurve TB1 sind auf – 17, 259, 110 und 40 gesetzt. Es sei darauf hingewiesen, dass diese Werte verwendet werden, wenn der minimale Wert und der maximale Wert der Eingangswerte 0 und 255 sind.
  • Die G-Farbtonkurve TG1 ist eine Kurve, deren Form dem Buchstaben „S” entspricht und die die Linie L in einem Punkt PG1(x = x3) schneidet. Wenn die G-Farbtonkurve TG1 als y = fg1(x) angegeben wird (eine Funktion, die nicht auf die oben besprochene Funktion f(x) beschränkt ist), erfüllt die Funktion fg1 die folgenden Bedingungen: fg1(x3) = x3 und fg1(x) < x für 0 < x < x3, und fg1(x1) > x für x3 < x < xm (= 255). Für die Ableitung fg1'(x) von fg1(x) erfüllt sie ferner die folgenden Bedingungen: fg1'(x1) = 1(0 < x1 < x3) und fg1'(x5) = 1(x3 < x5 < xm). Daher wird der Ausgangswert des G-Signals expandiert, wenn Eingangssignale in einem mittleren Bereich XG1 liegen, (x1 < x < x5 mit x = x3 als Mittelpunkt der Expansion), und in einem Tief-Bereich, (0 < x < 1), und ebenso in einem Hoch-Bereich, (x5 < x < xm), zusammengedrückt. Es sei darauf hingewiesen, dass x3 auf einen Wert gesetzt wird, der kleiner ist als der Medianwert des Histogramms der G-Komponente.
  • Die B-Farbtonkurve TB1 ist ebenfalls eine Kurve mit einer Form entsprechend dem Buchstaben „S”, die die Linie L in einem Punkt PB1 (x = x4 > x3) schneidet. Wenn die B-Farbtonkurve TB1 als y = fb1(x) beschrieben wird (wobei diese Funktion nicht auf die oben besprochene Funktion f(x) beschränkt ist), erfüllt die Funktion fb1 die folgenden Bedingungen: fb1(x4) = x4 und fb1(x) < x für 0 < x < x4 und fg1(x1) > x für x4 < x < xm (= 255). Ferner erfüllt die Ableitung fb1'(x) von fb1(x) die folgenden Bedingungen: fg1'(x2) = 1(0 < x2 < x4) und fg1'(x6) = 1(x2 < x6 < xm). Daher wird der Ausgangswert des B-Signals expandiert, wenn Eingangssignale in einem mittleren Bereich XB1 oder x2 < x < x6 lie gen, wobei x = x4 der Mittelpunkt der Expansion ist, und in einem Tief-Bereich, 0 < x < x2, sowie in einem Hoch-Bereich, x6 < x < xm, zusammengedrückt. Es sei darauf hingewiesen, dass x4 auf einen Wert gesetzt wird, der kleiner als der Medianwert des Histogramms der B-Komponente ist.
  • Wird dagegen die Funktion der R-Farbtonkurven TR1 und TR3 als y = fr1(x) angegeben (wobei diese Funktion nicht auf die oben besprochene Funktion f(x) beschränkt ist), so erfüllt die Funktion fr1 die folgenden Bedingungen: fr1(x) = x3 und fg1(x) < x für 0 ≤ x ≤ xm. Ferner erfüllt die Ableitung fr1'(x) von fr1(x) fr1'(x7) = 1(x6 < x7 < xm). Daher wird der Ausgangswert des R-Signals expandiert, wenn Eingangsignale in einem Hoch-Bereich XR1 liegen (x7 < x < xm), und in einem Tief-Bereich zusammengedrückt, x < x7. Es sei darauf hingewiesen, dass bei vorliegendem Ausführungsbeispiel die Werte von x1 – x7 entsprechend der Reihenfolge ihrer Indexbezeichnungen geordnet sind.
  • In 9 enthält also zumindest der mittlere Bereich XB1 für das B-Signal einen Bereich, der höher ist als der mittlere Bereich XG1 für das G-Signal, oder der mittlere Bereich XG1 für das G-Signal enthält einen Bereich, der niedriger ist als der mittlere Bereich XB1 für das B-Signal, und der Hoch-Bereich XR1 für das R-Signal enthält einen Bereich, der höher ist als die mittleren Bereiche XG1 und XB1 für das G- bzw. das B-Signal. Außerdem überlappt bei dem Beispiel der 9 der Hoch-Bereich XR1 für das R-Signal nicht mit den mittleren Bereichen XG1 und XB1 des G- bzw. des B-Signals.
  • Nun werden unter Bezugnahme auf 10 Merkmale der Farbtonkurven TR2, TG2 und TB2 für den Dickdarm erläutert. Die Farbtonkurven TR2, TG2 und TB2 sind durch die oben besprochene Funktion f(x) repräsen tiert, wobei die Parameter A1, A2, xd und α jeweils auf (0, 300, 200, 40), (–5, 350, 120, 30) und (–5, 350, 120, 30) gesetzt sind. Bei dem Beispiel der 10 sind also die G-Farbtonkurve TG2 und die B-Farbtonkurve TB2 identisch. Jedoch erreicht bei vorliegendem Ausführungsbeispiel der Ausgangswert der Farbtonkurven TG2 und TB2 den maximalen Wert 255 bei x = x11 und in x > x11, y ist eine Konstante mit einem Maximalwert von 255.
  • Die G- und die B-Farbtöne TG2 und TB2 sind Kurven mit einer Form entsprechend dem Buchstaben „S”, der die Linie L in einem Punkt PG2 (x = x9) schneidet. Wenn die G- und die B-Farbtonkurven TG2 und TB2 als y = f2(x) angegeben werden (wobei diese Funktion nicht auf die oben besprochene Funktion f(x) beschränkt ist), erfüllt die Funktion f2 die folgenden Bedingungen: f2(x9) = x9 und f2(x) < x für 0 < x < x9 und f2(x) > x für x9 < x < xm (= 255). Ferner erfüllt die Ableitung f2'(x) von f2(x) die folgenden Bedingungen: f2'(x8) = 1(0 < x8 < x9) und f2'(x) = 0 für x11 < x ≤ xm. Daher werden die Ausgangswerte des G- und des B-Signals expandiert, wenn Eingangssignale in einem mittleren Bereich XGB2 liegen, x8 < x < x11 mit x = x9 als Mittelpunkt der Expansion, und in einem Tief-Bereich, 0 < x < x8, ebenso wie in einem Hoch-Bereich, x11 < x < xm, zusammengedrückt. Es sei darauf hingewiesen, dass x9 auf einen Wert gesetzt wird, der kleiner ist als die Medianwerte des Histogramms der G- und der B-Komponente.
  • Wenn die Funktion der R-Farbtonkurven TR2 als y = fr2(x) angegeben wird (wobei diese Funktion nicht auf die oben besprochene Funktion f(x) beschränkt ist), so erfüllt die Funktion fr2 die folgenden Bedingung: fr2(x) = x für 0 ≤ x ≤ xm. Ferner erfüllt sie im Falle der Ableitung fr2'(x) von fr2(x) fr2'(x10) = 1(x9 < x10 < xm). Daher wird der Ausgangswert des R-Signals expandiert, wenn Eingangssignale in einem Hoch-Bereich XR2 liegen (x10 < x < xm), und in einem Tief-Bereich zusammengedrückt, x < x10. Es sei darauf hingewiesen, dass bei vorliegendem Ausführungsbeispiel die Werte von x8 bis x11 in der Reihenfolge ihrer Indexbezeichnungen geordnet sind.
  • In 10 enthält also zumindest der Hoch-Bereich XR2 für das R-Signal einen Bereich, der höher ist als der mittlere Bereich XGB für das G- und das B-Signal. Ferner überlappt bei dem Beispiel der 10 der mittlere Bereich XGB des G- und des B-Signals nicht mit dem Hoch-Bereich XR2 des R-Signals. Es sei darauf hingewiesen, dass die Farbtonkurven TG3 und TB3 für die G- und die B-Komponente in der Speiseröhre-Betriebsart mit der Linie y = x zusammenfallen.
  • Wie oben beschrieben, werden gemäß vorliegendem Ausführungsbeispiel die strukturellen Muster der Blutgefäßmuster in einem Bild zur Betrachtung hervorgehoben, indem jedes der R-, G- und B-Farbkomponentenhistogramme durch Steuern der Farbtonkurven der R-, G- und B-Signale transformiert wird, wodurch Merkmale eines Läsionsbereichs auch dann ausreichend hervorgehoben werden, wenn bei einem elektronischen Endoskopsystem Weißlichtbeleuchtung verwendet wird.
  • Obwohl bei vorliegendem Ausführungsbeispiel die Gradationdkompensationsprozesse für die R-, G- und B-Signale nach der RGB-Umwandlung in der Verarbeitungseinheit ausgeführt werden, können die Gradationskompensationsprozesse jederzeit nach der Verarbeitung im analogen Frontend und vor Anzeigen eines Bildes durchgeführt werden. Ferner wird bei vorliegendem Ausführungsbeispiel die Wahl einer Betrachtungsart oder eines Zielorgans mit der an der Verarbeitungseinheit vorgesehenen Anzeigevor richtung ausgeführt. Die Wahl kann jedoch ebenso durch einen Rechner mit einem Monitor, der an die Verarbeitungseinheit angeschlossen ist, ausgeführt werden.
  • Ferner wird es der Benutzer nach dem vorliegenden Ausführungsbeispiel nicht seltsam finden, ein endoskopisches Bild mit hervorgehobener Läsion (ein Bild, das den erfindungsgemäßen Gradationskompensationsprozessen unterzogen wurde) mit einem normalen endoskopischen Bild (einem Bild, das nicht den erfindungsgemäßen Gradationskompensationsprozessen) unterzogen wurde) zu vergleichen, da Luminanz und Farbton über das gesamte Bild durch die erfindungsgemäße Gradationskompensation des vorliegenden Ausführungsbeispiels nicht sichtbar verändert sind.
  • Zwar wurde das Ausführungsbeispiel der vorliegenden Erfindung hier unter Bezugnahme auf die anhängenden Zeichnungen beschrieben, doch kann der Fachmann selbstverständlich zahlreiche Modifikationen und Änderungen vornehmen, ohne vom Umfang der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2006-061620 [0002]
    • - JP 2006-239206 [0002, 0003]
    • - JP 2006-230206 [0003]

Claims (8)

  1. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop, umfassend: einen Gradationskompensationsprozessor, der R-, G- und B-Gradationen durch Steuern von R-, G-, und B-Farbtonkurven kompensiert, die eine Beziehung zwischen Eingangswerten und Ausgangswerten für R-, G- und B-Signale einzeln definieren; und wobei die R-Farbtonkurve so geformt ist, dass die Ausgangswerte des R-Signals zusammengedrückt werden, wenn die Eingangswerte des R-Signals in einem relativ tiefen Bereich liegen, und die Ausgangswerte expandiert werden, wenn die Eingangswerte in einem relativ hohen Bereich liegen.
  2. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 1, bei der die G- und die B-Farbtononkurven so geformt sind, dass die Ausgangswerte des G- und des B-Signals zusammengedrückt werden, wenn die Einganswerte des G- und des B-Signals in ihrem jeweiligen tiefen Bereich und in ihrem jeweiligen hohen Bereich liegen, und die Ausgangswerte expandiert werden, wenn die Eingangswerte relativ zu dem niedrigen und dem hohen Bereich des G- und des B-Signals, in ihrem jeweiligen mittleren Bereich liegen.
  3. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 1, bei der der hohe Bereich des R-Signals einen Bereich enthält, der höher ist als die mittleren Bereiche des G- und des B-Signals.
  4. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 1, bei der zumindest der mittlere Bereich des B-Signals einen Bereich enthält, der höher ist als der mittlere Bereich des G-Signals, oder der mittlere Bereich des G-Signals einen Bereich enthält, der tiefer ist als der mittlere Bereich für das B-Signal.
  5. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 4, bei der der hohe Bereich des R-Signals nicht mit den mittleren Bereichen für das G-Signal und das B-Signal überlappt.
  6. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 3, bei der die G-Farbtonkurve und die B-Farbtonkurve identisch sind.
  7. Signalverarbeitungsvorrichtung für ein elektronisches Endoskop nach Anspruch 6, bei der der mittlere Bereich des G-Signals und des B-Signals mit dem hohen Bereich des R-Signals überlappen.
  8. Elektronisches Endoskopsystem, umfassend: einen Gradationskompensationsprozessor, der R-, G- und B-Gradationen durch Steuern von R-, G-, und B-Farbtonkurven kompensiert, die eine Beziehung zwischen Eingangswerten und Ausgangswerten für R-, G- und B-Signale einzeln definieren; und wobei die R-Farbtonkurve so geformt ist, dass die Ausgangswerte des R-Signals zusammengedrückt werden, wenn die Eingangswerte des R-Signals in einem relativ tiefen Bereich liegen, und die Ausgangswerte expandiert werden, wenn die Eingangswerte in einem relativ hohen Bereich liegen.
DE102009032249.3A 2008-07-08 2009-07-08 Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem Active DE102009032249B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-177943 2008-07-08
JP2008177943 2008-07-08
JP2008-274566 2008-10-24
JP2008274566A JP5467754B2 (ja) 2008-07-08 2008-10-24 電子内視鏡用信号処理装置および電子内視鏡装置

Publications (2)

Publication Number Publication Date
DE102009032249A1 true DE102009032249A1 (de) 2010-02-25
DE102009032249B4 DE102009032249B4 (de) 2022-10-06

Family

ID=41504791

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009032249.3A Active DE102009032249B4 (de) 2008-07-08 2009-07-08 Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem

Country Status (3)

Country Link
US (2) US8253783B2 (de)
JP (1) JP5467754B2 (de)
DE (1) DE102009032249B4 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5259141B2 (ja) * 2007-08-31 2013-08-07 オリンパスメディカルシステムズ株式会社 被検体内画像取得システム、被検体内画像処理方法および被検体内導入装置
JP5631764B2 (ja) * 2011-01-25 2014-11-26 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2013005884A (ja) * 2011-06-23 2013-01-10 Hoya Corp 画像強調装置及び方法
JP5926909B2 (ja) 2011-09-07 2016-05-25 オリンパス株式会社 蛍光観察装置
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6067264B2 (ja) 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
JP6112879B2 (ja) * 2013-01-28 2017-04-12 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP6176978B2 (ja) * 2013-01-31 2017-08-09 オリンパス株式会社 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム
US9760158B2 (en) * 2014-06-06 2017-09-12 Intel Corporation Forcing a processor into a low power state
CN105992546B (zh) 2015-01-21 2018-08-28 Hoya株式会社 内窥镜系统
JP6461739B2 (ja) * 2015-07-28 2019-01-30 富士フイルム株式会社 画像処理装置及び内視鏡システム並びに画像処理装置の作動方法
JP6566395B2 (ja) * 2015-08-04 2019-08-28 国立大学法人佐賀大学 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム
DE112016000094B4 (de) 2015-08-13 2019-07-11 Hoya Corporation Vorrichtung zur Berechnung von Analysewerten und elektronisches Endoskopsystem
WO2017026540A1 (ja) 2015-08-13 2017-02-16 Hoya株式会社 評価値計算装置及び電子内視鏡システム
WO2019198576A1 (ja) * 2018-04-11 2019-10-17 富士フイルム株式会社 医療画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061620A (ja) 2004-08-30 2006-03-09 Olympus Corp 内視鏡用映像信号処理装置
JP2006230206A (ja) 2005-02-22 2006-09-07 Maki Mfg Co Ltd 長ネギの根元部清浄装置および長ネギの処理装置
JP2006239206A (ja) 2005-03-04 2006-09-14 Fujinon Corp 内視鏡装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63290539A (ja) * 1987-05-22 1988-11-28 Olympus Optical Co Ltd 内視鏡用画像入力装置
US6466256B1 (en) * 1996-04-05 2002-10-15 Asahi Kogaku Kogyo Kabushiki Kaisha Video-signal processing device connectable to an electronic endoscope
JP3887453B2 (ja) * 1997-05-23 2007-02-28 オリンパス株式会社 内視鏡装置
JP4189062B2 (ja) * 1998-07-06 2008-12-03 セイコーエプソン株式会社 電子機器
JP3961765B2 (ja) * 2000-12-28 2007-08-22 ペンタックス株式会社 電子内視鏡システム
JP4424216B2 (ja) * 2004-03-30 2010-03-03 セイコーエプソン株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2006025334A1 (ja) * 2004-08-30 2006-03-09 Olympus Corporation 内視鏡装置
EP1698272B1 (de) * 2005-03-04 2012-12-05 FUJIFILM Corporation Endoskop und Bildverarbeitungseinrichtung
JP2006288612A (ja) * 2005-04-08 2006-10-26 Olympus Corp 画像表示装置
JP2007208413A (ja) * 2006-01-31 2007-08-16 Olympus Corp 色補正装置および色補正方法ならびに色補正プログラム
US7976172B2 (en) * 2006-03-17 2011-07-12 Casio Computer Co., Ltd. Projection apparatus, projection method, and computer program
JP2007248997A (ja) * 2006-03-17 2007-09-27 Casio Comput Co Ltd 投影装置、投影方法、及び、プログラム
JP4846786B2 (ja) * 2006-03-29 2011-12-28 富士通株式会社 液晶表示素子及びそれを備えた電子ペーパー並びに画像処理方法
JP5006759B2 (ja) * 2007-10-29 2012-08-22 Hoya株式会社 電子内視鏡用信号処理装置および電子内視鏡装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061620A (ja) 2004-08-30 2006-03-09 Olympus Corp 内視鏡用映像信号処理装置
JP2006230206A (ja) 2005-02-22 2006-09-07 Maki Mfg Co Ltd 長ネギの根元部清浄装置および長ネギの処理装置
JP2006239206A (ja) 2005-03-04 2006-09-14 Fujinon Corp 内視鏡装置

Also Published As

Publication number Publication date
US20120274753A1 (en) 2012-11-01
JP5467754B2 (ja) 2014-04-09
US20100007724A1 (en) 2010-01-14
JP2010036017A (ja) 2010-02-18
DE102009032249B4 (de) 2022-10-06
US8704885B2 (en) 2014-04-22
US8253783B2 (en) 2012-08-28

Similar Documents

Publication Publication Date Title
DE102009032249B4 (de) Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem
DE10164297B4 (de) Elektronisches Endoskopsystem
DE10324693B4 (de) Vorrichtung zur automatischen Bildsignalverstärkung für ein elektronisches Endoskop
DE102009022331B4 (de) Endoskopprozessor und Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE3715859C2 (de) Farbbildverarbeitungssystem
DE102006001647B4 (de) Bilddatenprozessor und elektronisches Endoskopsystem
DE102008053741A1 (de) Elektronisches Endoskopsystem und Signalprozessor
DE10226582B4 (de) Elektronisches Endoskop mit Farbeinstellfunktion
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE102006042670A1 (de) Elektronisches Endoskopsystem
DE602005003749T2 (de) Elektronisches Endoskop und Methode zur Kontrolle der Bildhelligkeit für ein elektronisches Endoskop
DE102004006260B4 (de) Videoendoskopeinrichtung
DE19721713C2 (de) Elektronisches Endoskop
DE102006005528A1 (de) Elektronisches Endoskopsystem
KR20080111121A (ko) 내시경용 화상 처리 장치 및 내시경 장치
DE102004016369A1 (de) Elektronisches Endoskopsystem
DE10108406A1 (de) Endoskopsystem und Videokamera für ein Endoskop
DE112015005595T5 (de) Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
CN101442678A (zh) 用于内窥镜图像的图像处理的方法和设备
DE112016000067T5 (de) Bildverarbeitungseinrichtung
DE102007051889A1 (de) Elektronisches Endoskop

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120620

R082 Change of representative

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final