DE112018004156T5 - Prozessor für elektronisches endoskop und elektronisches endoskopsystem - Google Patents

Prozessor für elektronisches endoskop und elektronisches endoskopsystem Download PDF

Info

Publication number
DE112018004156T5
DE112018004156T5 DE112018004156.5T DE112018004156T DE112018004156T5 DE 112018004156 T5 DE112018004156 T5 DE 112018004156T5 DE 112018004156 T DE112018004156 T DE 112018004156T DE 112018004156 T5 DE112018004156 T5 DE 112018004156T5
Authority
DE
Germany
Prior art keywords
pixel
region
signal level
electronic endoscope
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018004156.5T
Other languages
English (en)
Inventor
Takao Makino
Jurgen Glatz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of DE112018004156T5 publication Critical patent/DE112018004156T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/94
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

Ein Prozessor für ein elektronisches Endoskop umfasst: eine Regionserkennungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitungszielregion zu erfassen, die aus Pixelinformationen eines aufgenommenen Bildes eines lebenden Gewebes erweitert werden soll; und eine Verbesserungsverarbeitungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitung an der von der Regionserkennungseinheit erfassten Verbesserungsverarbeitungszielregion durchzuführen. Die Regionserkennungseinheit ist so konfiguriert, dass sie einen Kandidaten-Extraktionsprozess des Extrahierens eines fokussierten Pixels als ein Kandidat für eine Verbesserungsverarbeitungszielregion wiederholt, wenn ein Signalpegelwert des fokussierten Pixels kleiner ist als Signalpegelwerte von zwei am weitesten von dem fokussierten Pixel entfernten Pixeln auf beiden Seiten in irgendeiner Vielzahl von Pixelanordnungsrichtungen in einer Region, die von einem Einzelbild umgeben ist, der eine Region mit dem fokussierten Pixel als Zentrum umgibt, während eine Größe des Einzelbilds geändert wird, und dass sie die Verbesserungsverarbeitungszielregion auf der Grundlage von Pixeln definiert, die als die Kandidaten extrahiert wurden.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft einen Prozessor für ein elektronisches Endoskop und ein elektronisches Endoskopsystem, die ein aufgenommenes Bild eines lebenden Gewebes erfassen und eine Verbesserungsverarbeitung an dem aufgenommenen Bild durchführen.
  • Stand der Technik
  • Eine elektronische Endoskopvorrichtung wird zur Beobachtung und Behandlung eines lebenden Gewebes in einem menschlichen Körper verwendet. Ein Prozess zum Verbessern von Oberflächenunregelmäßigkeiten, der einen konkaven Abschnitt sichtbar macht, so dass die Oberflächenunregelmäßigkeiten des lebenden Gewebes aus einem aufgenommenen Bild beobachtet werden können, das durch Abbilden des lebenden Gewebes unter Verwendung der elektronischen Endoskopvorrichtung erhalten wird, wird an dem aufgenommenen Bild durchgeführt, und das Ergebnis wird auf einem Display angezeigt. Da ein Läsionsteil des lebenden Gewebes mehr Unregelmäßigkeiten auf der Oberfläche aufweist als ein gesunder Teil, ist die Anzeige des aufgenommenen Bildes mit verbesserten Oberflächenunregelmäßigkeiten nützlich, um den Läsionsteil zu finden.
  • Es ist eine elektronische Endoskopvorrichtung bekannt, die einen konkaven Abschnitt auf einer Oberfläche eines lebenden Gewebes zuverlässig hervorheben und infolgedessen sogar einen Teil einer leichten Läsion ohne Aufsicht zuverlässig diagnostizieren kann (Patentliteratur 1).
  • Diese elektronische Endoskopvorrichtung erzeugt ein Videofarbsignal basierend auf einem Einzelbild von Farbpixelsignalen, die von einem Festkörperbildsensor gelesen werden, der an einer distalen Spitze eines Videoskops vorgesehen ist. Die elektronische Endoskopvorrichtung enthält eine Vergleichseinrichtung zum Vergleichen eines Signalpegelwerts eines Farbpixelsignals, das einem bestimmten Pixel entspricht, das in einem Einzelbild von Farbpixelsignalen mit Signalpegelwerten von Farbpixelsignalen, die allen benachbarten umgebenden Pixeln entsprechen, die zu der Umgebung des spezifischen Pixels in einer vorbestimmten Pixelanordnungsrichtung benachbart sind, enthalten ist; und eine Farbbalance-Änderungseinrichtung zum Ändern der Farbbalance eines Videofarbsignals durch Ändern des Signalpegelwerts des Farbpixelsignals, das dem spezifischen Pixel gemäß einem Vergleichsergebnis, das durch die Vergleichseinrichtung erhalten wird, entspricht.
  • Literaturnachweis
  • Patentschrift
  • Patentliteratur 1: JP 3869698 B2
  • Kurzdarstellung der Erfindung
  • Technisches Problem
  • Die elektronische Endoskopvorrichtung extrahiert einen konkaven Abschnitt von Oberflächenunregelmäßigkeiten eines lebenden Gewebes mit einer Schleimhaut, indem sie die Signalpegelwerte der Farbpixelsignale vergleicht, die allen benachbarten umgebenden Pixeln entsprechen, die an die Umgebung des spezifischen Pixels in der vorbestimmten Richtung des Pixelarrays und einem Signalpegelwert des spezifischen Pixels angrenzen und reduziert ferner einen Signalpegelwert einer spezifischen Farbkomponente eines Pixels des extrahierten konkaven Abschnitts, um ein Pixel zu erzeugen, in dem eine Farbe eines Teils, der dem konkaven Abschnitt entspricht, geändert wurde, als Bild mit den verbesserten Oberflächenunregelmäßigkeiten.
  • In der elektronischen Endoskopvorrichtung wird beim Extrahieren eines Teils des konkaven Abschnitts der Signalpegelwert des spezifischen Pixels mit den Signalpegelwerten der Farbpixelsignale verglichen, die allen benachbarten umgebenden Pixeln entsprechen, die an die Umgebung des spezifischen Pixels in der spezifischen Richtung des Pixelarrays angrenzen, aber nicht alle Pixel, die sich in den konkaven Abschnitten befinden, werden in vielen Fällen zu Pixeln, die geändert werden müssen. Insbesondere sind die benachbarten umgebenden Pixel, die in den Vergleichseinrichtungen verwendet werden, Pixel an Positionen, die in Bezug auf das spezifische Pixel festgelegt sind, insbesondere sind sie benachbarte Pixel, die dem spezifischen Pixel in der Auf-Ab-Richtung, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung benachbart sind. Somit gibt es einen Fall, in dem der Bereich des konkaven Abschnitts nicht auf ein Pixel beschränkt ist, sondern mehrere Pixel enthält, wenn das aufgenommene Bild ein Nahbild ist, das in der Nähe eines lebenden Gewebes abgebildet wurde, das ein Objekt ist. In diesem Fall wird ein Pixel, das dem Pixel im konkavsten Teil benachbart ist, nicht als Pixel festgelegt, für das ein Signalpegelwert eines Farbpixelsignals geändert werden soll, obwohl es sich in einigen Fällen im konkaven Abschnitt befindet. Wenn ferner der konkave Teil in einem weiten Bereich einschließlich der benachbarten umgebenden Pixel vorhanden ist, wird das Pixel des konkavsten Teils nicht als Pixel festgelegt, für das in einigen Fällen ein Signalpegelwert eines Farbpixelsignals geändert werden soll. Zusätzlich zu dem Fall, in dem das aufgenommene Bild das Nahbild ist, gibt es einen Fall, in dem die Größe eines konkaven Abschnitts groß ist und der konkave Teil einen Bereich von mehreren Pixeln in einem aufgenommenen Bild abdeckt. Selbst in diesem Fall ist es wahrscheinlich, dass das oben beschriebene Problem auftritt. Selbst wenn dasselbe lebende Gewebe mit elektronischen Videoskopen mit unterschiedlichen Auflösungen von aufgenommenen Bildern abgebildet wird, unterscheidet sich ein Pixel, das als konkaver Teil extrahiert und einer Änderungsverarbeitung unterzogen werden soll, in Abhängigkeit von der Auflösung.
  • Daher besteht eine Aufgabe der vorliegenden Erfindung darin, einen Prozessor für ein elektronisches Endoskop und ein elektronisches Endoskopsystem bereitzustellen, die in der Lage sind, eine Verbesserungsverarbeitung einer größeren Anzahl von konkaven Abschnitten als im Stand der Technik durchzuführen, wenn ein aufgenommenes Bild eines lebenden Gewebes erfasst wird und die Verbesserungsverarbeitung des aufgenommenen Bildes durch Verbessern der Genauigkeit der Extraktion konkaver Teile für verschiedene große und kleine konkave Teile im aufgenommenen Bild oder zuverlässiges Extrahieren konkaver Teile im aufgenommenen Bild durchgeführt wird, selbst wenn die Auflösung des aufgenommenen Bildes unterschiedlich ist.
  • Lösung des Problems
  • Ein Aspekt der vorliegenden Erfindung ist ein Prozessor für ein elektronisches Endoskop, der ein aufgenommenes Bild eines lebenden Gewebes erfasst und eine Verbesserungsverarbeitung durchführt. Der Prozessor umfasst: eine Regionserkennungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitungszielregion zu erfassen, der aus Pixelinformationen eines aufgenommenen Bildes eines lebenden Gewebes erweitert werden soll; und eine Verbesserungsverarbeitungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitung an der von der Regionserkennungseinheit erfassten Verbesserungsverarbeitungszielregion durchzuführen.
  • Die Regionserkennungseinheit ist so konfiguriert, dass sie einen Kandidaten-Extraktionsprozess des Extrahierens eines fokussierten Pixels als ein Kandidat für eine Verbesserungsverarbeitungszielregion wiederholt, wenn ein Signalpegelwert des fokussierten Pixels kleiner ist als Signalpegelwerte von zwei am weitesten von dem fokussierten Pixel entfernten Pixeln auf beiden Seiten in irgendeiner Vielzahl von Pixelanordnungsrichtungen in einer Region, die von einem Einzelbild umgeben ist, der eine Region mit dem fokussierten Pixel als Zentrum umgibt, während eine Größe des Einzelbilds geändert wird, und dass sie die Verbesserungsverarbeitungszielregion auf der Grundlage von Pixeln definiert, die als die Kandidaten durch Ändern der Größe extrahiert wurden.
  • Es ist bevorzugt, dass die Regionserkennungseinheit das fokussierte Pixel als Kandidaten für die Verbesserungsverarbeitungszielregion definiert, wenn eine Differenz zwischen jedem der Signalpegelwerte der am weitesten entfernten Pixel und dem Signalpegelwert des fokussierten Pixels größer als ein Schwellenwert 1 ist, der mindestens 2 oder mehr bei einem diskretisierten Signalpegel im Signalpegelwert beträgt.
  • Es ist bevorzugt, dass der Schwellenwert 1 größer ist, wenn die Einzelbildgröße größer ist.
  • Es ist bevorzugt, dass der Schwellenwert 1 gemäß einer Position eines Organs in einer Körperhöhle festzulegen ist, die ein Objekt des aufgenommenen Bildes ist.
  • Es ist bevorzugt, dass die Regionserkennungseinheit konfiguriert ist, um zu bestimmen, ob das fokussierte Pixel der Kandidat für die Verbesserungsverarbeitungszielregion ist, wenn ein Absolutwert einer Differenz jedes der Signalpegelwerte der am weitesten entfernten Pixel in Bezug auf das fokussierte Pixel kleiner als ein Schwellenwert 2 ist.
  • Es ist bevorzugt, dass die Regionserkennungseinheit ein Pixel definiert, das als Kandidat für die Verbesserungsverarbeitungszielregion in einer Pixelarrayrichtung mehrmals als ein Schwellenwert 3 unter vier Pixelarrayrichtungen einer Auf-Ab-Richtung, einer Links-Rechts-Richtung, einer oberen linken-unteren rechten Richtung und einer oberen rechten-unteren linken Richtung in dem Einzelbild mit der gleichen Größe im Kandidaten-Extraktionsprozess als die Verbesserungsverarbeitungszielregion unter den als Kandidaten extrahierten Pixeln extrahiert wurde.
  • Es ist bevorzugt, dass das Einzelbild ein Einzelbild von (2 · i + 1) × (2 · i + 1) Pixeln ist, wobei i eine natürliche Zahl von 1 bis 6 ist.
  • Es ist bevorzugt, dass die Verbesserungsverarbeitung die Verarbeitung des Reduzierens des Signalpegelwerts der erkannten Verbesserungsverarbeitungszielregion ist.
  • Es ist bevorzugt, dass der Signalpegelwert ein Signalpegelwert eines Luminanzsignals des aufgenommenen Bildes oder ein Signalpegelwert einer R-Komponente unter den RGB-Komponenten des aufgenommenen Bildes ist.
  • Ein weiterer Aspekt der vorliegenden Erfindung ist ein elektronisches Endoskopsystem, das Folgendes umfasst: den Prozessor für ein elektronisches Endoskop; und ein elektronisches Endoskop, das mit dem Prozessor für ein elektronisches Endoskop verbunden ist und das aufgenommene Bild des lebenden Gewebes ausgibt.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß dem Prozessor für ein elektronisches Endoskop und dem oben beschriebenen elektronischen Endoskopsystem ist es möglich, die Verbesserungsverarbeitung einer größeren Anzahl von konkaven Abschnitten als im Stand der Technik durchzuführen, indem die Extraktionsgenauigkeit für konkave Abschnitte für mehrere große und kleine konkave Abschnitte im aufgenommenen Bild oder zuverlässiges Extrahieren der konkaven Abschnitte im aufgenommenen Bild verbessert wird, selbst wenn die Auflösung des aufgenommenen Bildes unterschiedlich ist.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration eines elektronischen Endoskopsystems der vorliegenden Ausführungsform darstellt.
    • 2 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration einer in 1 dargestellten Recheneinheit darstellt.
    • 3 ist eine Ansicht, die ein Beispiel der Abbildung eines lebenden Gewebes durch ein in 1 dargestelltes Endoskop darstellt.
    • 4(a) und 4(b) sind Ansichten, die Beispiele eines aufgenommenen Bildes veranschaulichen, das von dem elektronischen Endoskopsystem erhalten wird und eine Region eines konkaven Abschnitts eines Objekts enthält.
    • 5(a) bis 5(c) sind Ansichten, die Beispiele eines Verfahrens veranschaulichen, das von einer Recheneinheit der vorliegenden Ausführungsform ausgeführt wird.
    • 6 ist ein Flussdiagramm, das ein Beispiel eines Flusses eines Regionserkennungsverfahrens einer Ausführungsform darstellt, die von dem elektronischen Endoskopsystem durchgeführt wird.
  • Beschreibung von Ausführungsformen
  • Ein Prozessor eines elektronischen Endoskopsystems gemäß der vorliegenden Ausführungsform extrahiert Regionen, die in einem aufgenommenen Bild verbessert werden müssen, das durch Abbilden eines lebenden Gewebes in dem System erhalten wird, beispielsweise Regionen konkaver Teile des lebenden Gewebes, und führt die Verbesserungsverarbeitung auf den Regionen durch. Die Regionen, die verbessert werden müssen, beispielsweise die Regionen der konkaven Abschnitte, haben verschiedene Größen. Außerdem ändert sich die Region des konkaven Abschnitts im aufgenommenen Bild in Abhängigkeit vom Grad der Nähe zwischen einem Objekt und einem Endoskop. Somit wird in einer Ausführungsform ein Kandidaten-Extraktionsprozess des Extrahierens eines fokussierten Pixels als ein Kandidat für eine Verbesserungsverarbeitungszielregion wiederholt, wenn ein Signalpegelwert des fokussierten Pixels kleiner ist als Signalpegelwerte von zwei am weitesten von dem fokussierten Pixel entfernten Pixeln auf beiden Seiten in irgendeiner Vielzahl von Pixelanordnungsrichtungen in einer Region, die von einem Einzelbild umgeben ist, der eine Region mit dem fokussierten Pixel als Zentrum zum Zeitpunkt des Extrahierens einer Region umgibt, in der ein konkaver Teil aus dem aufgenommenen Bild verbessert werden muss, wiederholt wird, während die Größe des Bildes geändert wird, und die Verbesserungsverarbeitungszielregion auf der Grundlage der Pixel definiert wird, die als Kandidaten durch Änderung der Größe extrahiert wurden. Da die Kandidatenregion durch Ändern der Größe des Einzelbilds auf diese Weise extrahiert wird, ist es möglich, die Extraktionsgenauigkeit des konkaven Abschnitts für verschiedene Größen von konkaven Abschnitten in dem aufgenommenen Bild zu verbessern. Selbst wenn die Auflösung des aufgenommenen Bildes unterschiedlich ist, kann der konkave Teil des aufgenommenen Bildes zuverlässig extrahiert werden. Infolgedessen ist es möglich, die Verbesserungsverarbeitung an einer größeren Anzahl von konkaven Abschnitten als im Stand der Technik durchzuführen.
  • Nachfolgend wird das elektronische Endoskopsystem der vorliegenden Ausführungsform unter Bezugnahme auf die Zeichnungen detailliert beschrieben.
  • 1 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration eines elektronischen Endoskopsystems 1 der vorliegenden Ausführungsform darstellt. Wie in 1 dargestellt, ist das elektronische Endoskopsystem 1 ein auf medizinische Verwendung spezialisiertes System und umfasst ein elektronisches Videoskop (Endoskop) 100, einen Prozessor 200 und einen Monitor 300.
  • Der Prozessor 200 umfasst eine Systemsteuerung 21 und eine Zeitsteuerung 22. Die Systemsteuerung 21 führt verschiedene im Speicher 23 gespeicherte Programme aus und steuert das gesamte elektronische Endoskopsystem 1 ganzheitlich. Die Systemsteuerung 21 ist mit einem Bedienfeld 24 verbunden. Die Systemsteuerung 21 ändert jeden Betrieb des elektronischen Endoskopsystems 1 und Parameter für jeden Betrieb gemäß einer Bedienungsanweisung, die in das Bedienfeld 24 eingegeben wird. Die Zeitsteuerung 22 gibt einen Taktimpuls zum Einstellen des Betriebszeitpunkts einzelner Einheiten auf einzelne Schaltungen in dem elektronischen Endoskopsystem 1 aus.
  • Der Prozessor 200 enthält eine Lichtquellenvorrichtung 201. Die Lichtquellenvorrichtung 201 sendet ein Beleuchtungslicht L aus, das konfiguriert ist, um ein Objekt wie ein lebendes Gewebe in einer Körperhöhle zu beleuchten. Das Beleuchtungslicht L umfasst weißes Licht, pseudoweißes Licht oder spezielles Licht. Gemäß einer Ausführungsform ist es bevorzugt, dass die Lichtquellenvorrichtung 201 einen Modus zur konstanten Emission von weißem Licht oder pseudoweißem Licht als Beleuchtungslicht L und einen Modus zur abwechselnden Emission von weißem Licht oder pseudoweißem Licht und speziellem Licht als Beleuchtungslicht L, und das weiße Licht, das pseudoweiße Licht oder das spezielle Licht basierend auf dem ausgewählten Modus emittiert. Das weiße Licht ist Licht mit einer flachen spektralen Intensitätsverteilung im sichtbaren Lichtband, und das pseudoweiße Licht ist Licht, das eine Mischung aus Licht mehrerer Wellenlängenbänder ist und eine nicht flache spektrale Intensitätsverteilung aufweist. Das spezielle Licht ist Licht in einem schmalen Wellenlängenband wie blau und grün im sichtbaren Lichtband. Das Licht im blauen oder grünen Wellenlängenband wird zum Zeitpunkt der Verbesserung und Beobachtung eines bestimmten Teils in einem lebenden Gewebe verwendet. Das von der Lichtquellenvorrichtung 201 emittierte Beleuchtungslicht L wird durch die Sammellinse 25 auf eine einfallende Endfläche eines Lichttragbündels (LCB) 11 fokussiert, das ein Bündel von optischen Fasern ist, das auf das LCB 11 einfallen soll.
  • Das auf das LCB 11 einfallende Beleuchtungslicht L breitet sich innerhalb des LCB 11 aus. Das Beleuchtungslicht L, das sich durch das LCB 11 ausbreitet, wird von einer Austrittsendfläche des LCB 11 emittiert, die an einer distalen Spitze des elektronischen Videoskops 100 angeordnet ist, um über eine Lichtverteilungslinse 12 auf das Objekt gerichtet zu sein. Das Rücklicht von dem mit dem Beleuchtungslicht L von der Lichtverteilungslinse 12 beleuchteten Objekt erzeugt über eine Objektivlinse 13 ein optisches Bild auf einer Lichtempfangsfläche des Festkörperbildsensors 14.
  • Der Festkörperbildsensor 14 ist ein Einzelplattenfarben-CCD-Bildsensor (Single-Plate Color Charge Coupled Device) mit einer Bayer-Pixelanordnung. Der Festkörperbildsensor 14 akkumuliert ein optisches Bild, das durch jedes der Pixel auf der Lichtaufnahmefläche erzeugt wird, als Ladungen, die der Lichtmenge entsprechen, und erzeugt und gibt Bildsignale von Rot (R), Grün (G) und Blau aus (B). Es ist zu beachten, dass der Festkörperbildsensor 14 nicht auf einen CCD-Bildsensor beschränkt ist und durch einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder andere Arten von Bildgebungsvorrichtungen ersetzt werden kann. Der Festkörperbildsensor 14 kann einen komplementären Farbfilter enthalten.
  • Eine Treibersignalverarbeitungsschaltung 15 ist in einem Verbindungsabschnitt bereitgestellt, in dem das elektronische Videoskop 100 mit dem Prozessor 200 verbunden ist. Ein Bildsignal eines Objekts wird von dem Festkörperbildsensor 14 in einem vorbestimmten Einzelbildzyklus in die Treibersignal-Verarbeitungsschaltung 15 eingegeben. Der Bildzyklus beträgt beispielsweise 1/30 Sekunden. Die Treibersignal-Verarbeitungsschaltung 15 führt eine vorbestimmte Verarbeitung an dem vom Festkörperbildsensor 14 eingegebenen Bildsignal durch und gibt das verarbeitete Bildsignal an eine Vorstufen-Signalverarbeitungsschaltung 26 des Prozessors 200 aus.
  • Die Treibersignal-Verarbeitungsschaltung 15 greift auch auf den Speicher 16 zu und liest gerätespezifische Informationen des elektronischen Videoskops 100 aus. Die in dem Speicher 16 aufgezeichneten gerätespezifischen Informationen des elektronischen Videoskops 100 umfassen beispielsweise die Anzahl der Pixel und die Empfindlichkeit des Festkörperbildsensors 14, eine betriebsfähige Bildrate, eine Modellnummer oder dergleichen. Die Treibersignal-Verarbeitungsschaltung 15 gibt die aus dem Speicher 16 gelesenen gerätespezifischen Informationen an die Systemsteuerung 21 aus. Beispiele für diese gerätespezifischen Informationen können Informationen umfassen, die für ein Element eindeutig sind, wie beispielsweise die Anzahl der Pixel und die Auflösung des Festkörperbildsensors 14, und Informationen bezüglich eines optischen Systems wie einen Blickwinkel, eine Brennweite und eine Schärfentiefe.
  • Die Systemsteuerung 21 führt verschiedene Berechnungen basierend auf den gerätespezifischen Informationen des elektronischen Videoskops 100 durch und erzeugt ein Steuersignal. Die Systemsteuerung 21 steuert den Betrieb und das Timing verschiedener Schaltungen in dem Prozessor 200 unter Verwendung des erzeugten Steuersignals, um eine Verarbeitung durchzuführen, die für das mit dem Prozessor 200 verbundene elektronische Videoskop 100 geeignet ist.
  • Die Zeitsteuerung 22 liefert einen Taktimpuls an die Treibersignal-Verarbeitungsschaltung 15 gemäß der Zeitsteuerung durch die Systemsteuerung 21. Die Treibersignal-Verarbeitungsschaltung 15 führt eine Antriebssteuerung des Festkörperbildsensors 14 zu einem Zeitpunkt durch, der mit der Bildrate des auf der Seite des Prozessors 200 verarbeiteten Videobildes gemäß dem von der Zeitsteuerung 22 gelieferten Takt synchronisiert ist.
  • Die Vorstufen-Signalverarbeitungsschaltung 26 führt eine vorbestimmte Signalverarbeitung wie Demosaikverarbeitung, Matrixberechnung und Y/C-Trennung an dem von der Treibersignal-Verarbeitungsschaltung 15 eingegebenen Bildsignal in einem Einzelbildzyklus durch und gibt das verarbeitete Signal an den Bildspeicher 27 aus.
  • Der Bildspeicher 27 puffert das von der Vorstufen-Signalverarbeitungsschaltung 26 eingegebene Bildsignal und puffert ferner ein Bildsignal des verbesserten Bildes, das durch Ausführen der Verbesserungsverarbeitung an dem von der Recheneinheit 29 aus dem Bildspeicher 27 gelesenen Bildsignal erhalten wird, erneut und gibt das gepufferte Bildsignal gemäß dem Zeitsteuern der Zeitsteuerung 22 an die Nachstufen-Signalverarbeitungsschaltung 28 aus.
  • Die Nachstufen-Signalverarbeitungsschaltung 28 verarbeitet das vom Bildspeicher 27 eingegebene Bildsignal, um Monitoranzeigebildschirmdaten zu erzeugen, und wandelt die erzeugten Monitoranzeigebildschirmdaten in ein vorbestimmtes Videoformatsignal um. Das umgewandelte Videoformatsignal wird an den Monitor 300 ausgegeben. Bei dieser Verarbeitung wird ein Bild des Objekts auf einem Anzeigebildschirm des Monitors 300 angezeigt.
  • Die Recheneinheit 29 ist mit der Systemsteuerung 21 verbunden. Die Recheneinheit 29 ist ein Teil, der eine Region extrahiert, die in einem aufgenommenen Bild verbessert werden muss, durch Abbilden eines lebenden Gewebes gespeichert und aus dem Bildspeicher 27 über die Systemsteuerung 21 aufgerufen wird, beispielsweise eine Region eines konkaven Abschnitts von dem lebenden Gewebe, und führt eine Verbesserungsverarbeitung in dieser Region durch. 2 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration der Recheneinheit 29 darstellt. Die Recheneinheit 29 enthält eine Regionserkennungseinheit 30 und eine Verbesserungsverarbeitungseinheit 31.
  • Die Regionserkennungseinheit 30 ist konfiguriert, um eine Verbesserungsverarbeitungszielregion zu erfassen, die aus Pixelinformationen des aufgenommenen Bildes des lebenden Gewebes erweitert werden soll. Als ein Regionserkennungsprozess verwendet die Regionserkennungseinheit 30 ein Einzelbild, das eine Region umgibt, die auf einem fokussierten Pixel zentriert ist, das nachstehend beschrieben wird, um einen Kandidaten-Extraktionsprozess zum Extrahieren eines Kandidaten für eine Verbesserungsverarbeitungszielregion durchzuführen, während wiederholt eine Größe des Einzelbilds geändert wird und definiert eine Verbesserungsverarbeitungszielregion basierend auf Pixeln, die als Kandidaten extrahiert wurden. Hier ist der Kandidaten-Extraktionsprozess ein Kandidaten-Extraktionsprozess des Extrahierens eines fokussierten Pixels als ein Kandidat für die Verbesserungsverarbeitungszielregion wiederholt, wenn ein Signalpegelwert des fokussierten Pixels kleiner ist als Signalpegelwerte von zwei am weitesten von dem fokussierten Pixel entfernten Pixeln auf beiden Seiten in irgendeiner Vielzahl von Pixelanordnungsrichtungen in einer Region, die von einem Einzelbild umgeben ist, der eine Region mit dem fokussierten Pixel als Zentrum umgibt. Selbst wenn es schwierig ist, ein Kandidatenpixel in einem Einzelbild einer bestimmten Größe zu extrahieren, wird daher in einigen Fällen ein Kandidatenpixel in einem Einzelbild einer anderen Größe extrahiert. Details werden später beschrieben.
  • Die Verbesserungsverarbeitungseinheit 31 ist konfiguriert, um eine Verbesserungsverarbeitung an der von der Regionserkennungseinheit erfassten Verbesserungsverarbeitungszielregion 30 durchzuführen. Obwohl die Verbesserungsverarbeitung nicht besonders beschränkt ist, umfasst die Verbesserungsverarbeitung ein Verfahren zum Ändern eines Signalpegelwerts eines Bereichs, der einem konkaven Abschnitt entspricht, um den konkaven Abschnitt zu verbessern, wie später beschrieben wird.
  • Wenn beispielsweise eine Pixelposition eines fokussierten Pixels jeder Farbkomponente von RGB in einem RGB-Farbaufzeichnungsbild als (i, j) ausgedrückt wird, verwendet die Verbesserungsverarbeitungseinheit 31 Differenzdaten ΔRij zwischen einem Wert Rij von Pixeldaten des fokussierten Pixels und einem Durchschnittswert der Pixeldaten der umgebenden Pixel zur Berechnung der erweiterten Pixeldaten rij gemäß den erweiterten Pixeldaten rij = Rij + k · ΔRij. Hierbei ist k ein im Voraus festgelegter Wert oder ein vom Bedienfeld 24 aus eingegebener und festgelegter Wert. Das obige k kann ein konstanter Wert oder ein Wert sein, der sich gemäß einer vorbestimmten Bedingung ändert. Außerdem kann k für jede Farbkomponente unterschiedlich sein. Hier können die umgebenden Pixel die zwei am weitesten entfernten Pixel sein, die mit dem Signalpegelwert des fokussierten Pixels verglichen wurden, wenn die oben beschriebene Verbesserungsverarbeitungszielregion definiert wurde, und können acht benachbarte Pixel sein, die das fokussierte Pixel in Auf-Ab-Richtung, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung, oder können acht Pixel sein, die am weitesten vom fokussierten Pixel entfernt sind, in der Auf-Ab-Richtung, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung im Einzelbild. Wenn die umgebenden Pixel die zwei am weitesten entfernten Pixel sind, die mit dem Signalpegelwert des fokussierten Pixels verglichen wurden, wenn die Verbesserungsverarbeitungszielregion definiert wurde, repräsentiert ΔRij eine Differenz zwischen dem Signalpegelwert Rij des fokussierten Pixels und einem Durchschnittswert der Signalpegelwerte der beiden am weitesten entfernten Pixel des Einzelbilds. Da ΔRij auf diese Weise eine Information ist, die einer Aussparungstiefe des konkaven Abschnitts entspricht, wird der Signalpegelwert für ein Pixel eines konkaven Abschnitts mit einer tieferen Aussparung stark geändert, so dass es möglich ist, ein Bild zu erhalten, in dem die Region des konkaven Abschnitts verbessert wurde.
  • 3 ist eine Ansicht, die ein Beispiel der Abbildung eines lebenden Gewebes A durch das elektronische Videoskop (Endoskop) 100 darstellt. Das lebende Gewebe A hat einen konkaven Abschnitt B, der vom elektronischen Videoskop 100 aus in Tiefenrichtung versenkt ist. Das elektronische Videoskop 100 bildet das lebende Gewebe A einschließlich der konkaven Abschnitte B ab.
  • 4(a) und 4(b) sind Ansichten, die Beispiele eines aufgenommenen Bildes veranschaulichen, das durch das elektronische Endoskopsystem 1 erhalten wird und eine Region C enthält, die dem konkaven Abschnitt B entspricht. In diesem Fall ändert sich eine Größe der Region C in dem erhaltene aufgenommenen Bild in Abhängigkeit von einem Aufnahmeabstand des elektronischen Videoskops 100 zum lebenden Gewebe A. In 4(a) und 4(b) bezeichnet die Region C eine graue Region, der dem rillenförmigen konkaven Abschnitt B entspricht, der sich in eine Richtung erstreckt. Das in 4(b) dargestellte aufgenommene Bild hat einen kürzeren Aufnahmeabstand (Abstand zwischen dem Objekt und dem Festkörperbildsensor 14) als das in 4(a) dargestellte aufgenommene Bild. Somit kann die Breite der Region C ein Pixel groß sein, wie in 4(a) dargestellt, oder die Breite der Region C kann eine Größe von einem Pixel überschreiten, wie in 4(b) dargestellt. In Anbetracht der Region C, deren Größe sich in Abhängigkeit von dem Aufnahmeabstand auf diese Weise ändert, weist die Regionserkennungseinheit 30 eine Vielzahl von Einzelbildern auf, die einen Bereich um ein fokussiertes Pixel herum umgeben, wobei das fokussierte Pixel zum Zeitpunkt der Durchführung des Regionserkennungsverfahrens als das zentrale Pixel verwendet wird.
  • Es ist zu beachten, dass die Recheneinheit 29 ein Softwaremodul sein kann, das als Modul gebildet wird, wenn die Systemsteuerung 21 ein im Speicher 23 gespeichertes Programm startet, und ein Hardwaremodul sein kann, das mit einem Field-Programmable Gate Array (FPGA) konfiguriert ist.
  • 5(a) bis 5(c) sind Ansichten, die Beispiele der Verarbeitung veranschaulichen, die von der Regionserkennungseinheit 30 der Recheneinheit 29 durchgeführt wird. 5(a) bis 5(c) veranschaulichen als Beispiele ein Einzelbild von 3 × 3 Pixeln, ein Einzelbild 55 von 5 × 5 Pixeln und ein Einzelbild 77 von 7 × 7 Pixeln. Die Einzelbilder 33, 55 und 77 sind so angeordnet, dass jedes Pixel in der Mitte des Einzelbilds mit dem fokussierten Pixel in dem aufgenommenen Bild übereinstimmt. Numerische Werte, die in den Pixeln in den 5(b) und 5(c) dargestellt sind, sind Beispiele für Signalpegelwerte von Pixeln. Der Signalpegelwert am fokussierten Pixel beträgt 111.
  • Die Regionserkennungseinheit 30 extrahiert ein fokussiertes Pixel Pf als Kandidaten für die Verbesserungsverarbeitungszielregion, wenn ein Signalpegelwert des fokussierten Pixels Pf kleiner ist als die Signalpegelwerte von zwei am weitesten entfernten Pixeln, die auf beiden Seiten am weitesten von dem fokussierten Pixel Pf entfernt sind, in jeglicher der Auf-Ab-Richtung, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung in einer Region, die von dem Einzelbild 33 umgeben ist, der die Region um das fokussierte Pixel Pf des aufgenommenen Bildes umgibt, zum Beispiel. Im Allgemeinen erreicht das Beleuchtungslicht L zum Zeitpunkt der Abbildung einen ausreichenden konkaven Abschnitt nicht, und das Rücklicht des Beleuchtungslichts L erreicht eine Lichtaufnahmefläche des Festkörperbildsensors 14 nicht, und somit wird der konkave Teil im aufgenommenen Bild als dunkle Region angezeigt. Somit ist es möglich, einen Kandidaten für die Region zu extrahieren, der dem konkaven Abschnitt entspricht, indem untersucht wird, ob der Signalpegelwert des fokussierten Pixels kleiner als der Signalpegelwert eines der am weitesten entfernten Pixel ist.
  • Wenn es schwierig ist, den Kandidaten für die Region zu extrahieren, die dem konkaven Abschnitt in dem Einzelbild 33 entspricht, wird das gleiche Verfahren wie das obige Verfahren unter Verwendung des Einzelbilds 55 anstelle des Einzelbilds 33 durchgeführt. In diesem Fall sind in dem in 5(b) dargestellten Beispiel zwei Pixel, die am weitesten vom fokussierten Pixel Pf entfernt sind und sich auf beiden Seiten in Auf-Ab-Richtung befinden, die Pixel Pu und Pd. Wenn es auch schwierig ist, einen Kandidaten für die Region zu extrahieren, die dem konkaven Abschnitt in dem Einzelbild 55 entspricht, wird ferner das gleiche Verfahren wie das obige Verfahren unter Verwendung des Einzelbilds 77 anstelle des Einzelbilds 55 durchgeführt. In dem in 5(b) dargestellten Beispiel ist es schwierig, den Kandidaten für die Region zu extrahieren, die dem konkaven Abschnitt entspricht. In dem in 5(c) dargestellten Beispiel ist es möglich, einen Kandidaten für die Region zu extrahieren, die dem konkaven Abschnitt in der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung entspricht.
  • Es ist zu beachten, dass es einen Fall gibt, in dem kein am weitesten entferntes Pixel in einem Einzelbild vorhanden ist, wenn sich ein fokussiertes Bild an einem der oberen, unteren, linken und rechten Ende eines aufgenommenen Bildes oder in dessen Nähe befindet. In diesem Fall wird das Verfahren des Extrahierens des Kandidaten in einer der Auf-Ab-Richtungen, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung nicht durchgeführt.
  • Die Regionserkennungseinheit 30 definiert die Verbesserungsverarbeitungszielregion basierend auf den als Kandidaten extrahierten Pixeln durch Ändern der Größe des Einzelbilds. Zum Beispiel ein Pixel mit der Häufigkeit, mit der es als Kandidaten in den Pixelarrayrichtungen der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung für dasselbe Pixel größer als eine voreingestellte Schwellenwertanzahl festgelegt wurde, ist als Verbesserungsverarbeitungszielregion definiert. Das heißt, die Regionserkennungseinheit 30 definiert ein Pixel, das als Kandidat für die Verbesserungsverarbeitungszielregion in der Pixelarrayrichtung mehr als die Schwellenanzahl (Schwellenwert 3) unter den vier Pixelarrayrichtungen der Auf-Ab-Richtung, der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung in dem Einzelbild der gleichen Größe im Kandidaten-Extrahierungsverfahren als Verbesserungsverarbeitungszielregion extrahiert wurde. Wenn der Schwellenwert Null ist, werden alle als Kandidaten extrahierten Pixel als die Verbesserungsverarbeitungszielregionen festgelegt. Wenn die Schwellenwertanzahl eins oder mehrere beträgt, wird ein Pixel, das mehrmals als Kandidat extrahiert wurde als die Schwellenwertanzahl, als Verbesserungsverarbeitungszielregion unter den als Kandidaten extrahierten Pixeln festgelegt. In den Beispielen unter Verwendung der in den 5(a) und 5(b) dargestellten Einzelbild 33, 55 und 77 wird das fokussierte Pixel Pf dreimal als Kandidat extrahiert, da der Signalpegelwert von 111 des fokussierten Pixels Pf kleiner als die Signalpegelwerte ist (Signalpegelwerte von 115 und 125, Signalpegelwerte von 120 und 113 und Signalpegelwerte von 117 und 118) von zwei Pixeln, die auf beiden Seiten am weitesten vom fokussierten Pixel Pf (dem Signalpegelwert von 111) entfernt sind, in der der Links-Rechts-Richtung, der oberen rechten-unteren linken Richtung und der oberen linken-unteren rechten Richtung, wie in 5(c) dargestellt. Somit wird das fokussierte Pixel Pf in dem in 5(c) dargestellten Beispiel als Verbesserungsverarbeitungszielregion festgelegt.
  • 6 ist ein Flussdiagramm, das ein Beispiel eines Flusses des Regionserkennungsverfahrens gemäß der Ausführungsform darstellt, der von der Regionserkennungseinheit 30 durchgeführt wird.
  • Die Regionserkennungseinheit 30 ruft ein aufgenommenes Bild eines aktuellen Einzelbilds auf, das von dem elektronischen Bereich 100 erfasst und über die Systemsteuerung 21 im Bildspeicher 27 gespeichert wurde, um das aufgenommene Bild zu erfassen (Schritt S100).
  • Als nächstes definiert die Regionserkennungseinheit 30 ein fokussiertes Pixel und erfasst einen Signalpegelwert des Pixels (Schritt S102). Es wird angenommen, dass der Signalpegelwert des fokussierten Pixels I1 ist.
  • Als nächstes legt die Regionserkennungseinheit 30 eine Variable i 1 fest und wählt ein Einzelbild von (2 · i + 1) × (2 · i + 1) Pixeln aus (Schritt S104).
  • Die Regionserkennungseinheit 30 ordnet das ausgewählte Einzelbild auf dem aufgenommenen Bild so an, dass ein mittleres Pixel des ausgewählten Einzelbilds mit dem fokussierten Pixel übereinstimmt, und legt eine Pixelanordnungsrichtung für das fokussierte Pixel in die obere linke-untere rechte Richtung (Schritt S106) fest. Die Regionserkennungseinheit 30 erfasst Signalpegelwerte von zwei am weitesten entfernten Pixeln, die sich auf beiden Seiten im Einzelbild in der festgelegten Pixelanordnungsrichtung von dem fokussierten Pixel befinden (Schritt S108). Zu diesem Zeitpunkt sind die Signalpegelwerte der beiden am weitesten entfernten Pixel als I0 und I2 definiert.
  • Die Regionserkennungseinheit 30 berechnet 11-10 und 12-11 und legt die Differenzergebnisse auf S0 und S2 (Schritt S110) fest.
  • Als nächstes bestimmt die Regionserkennungseinheit 30, ob ein Ergebnis der Berechnung eines Absolutwerts von S0 + S2 kleiner als eine vorbestimmte Schwelle TH2 ist (Schritt S112). Hier ist der Absolutwert von S0 + S2 ein Absolutwert einer Differenz zwischen den Signalpegelwerten der beiden am weitesten entfernten Pixel, was eine Bedeutung hat, dass bestimmt wird, ob der Absolutwert der Differenz zwischen den Signalpegelwerten der beiden am weitesten entfernten Pixel kleiner ist als der Schwellenwert TH2. Wenn die Bestimmung negativ ist (Nein), bestimmt die Regionserkennungseinheit 30, dass das fokussierte Pixel kein Kandidat für die Verbesserungsverarbeitungszielregion in der festgelegten Pixelanordnungsrichtung ist, und veranlasst die Verarbeitung, mit Schritt S118 fortzufahren, der später beschrieben wird. Wenn andererseits die Bestimmung positiv ist (Ja), bestimmt die Regionserkennungseinheit 30, ob -S0 und S2 größer als ein Schwellenwert TH1 sind (Schritt S114). Wenn die Bestimmung negativ ist (Nein), bestimmt die Regionserkennungseinheit 30, dass das fokussierte Pixel kein Kandidat für die Verbesserungsverarbeitungszielregion in der definierten Pixelarrayrichtung ist, und veranlasst die Verarbeitung, mit Schritt S118 fortzufahren, der später beschrieben wird. Wenn andererseits die Bestimmung in Schritt S114 positiv ist (Ja), bestimmt die Regionserkennungseinheit 30, dass das fokussierte Pixel der Kandidat für die Verbesserungsverarbeitungszielregion (Kandidat für eine Region, die einem konkaven Abschnitt entspricht) in der Pixelanordnugnsrichtung ist und weist einem Pixelinformations-Aufzeichnungsbereich, der für jede Pixelarrayrichtung entsprechend dem fokussierten Pixel festgelegt ist, ein konkaves Abschnitts-Flag zu (Schritt S116).
  • Als nächstes bestimmt die Regionserkennungseinheit 30, ob die Schritte S108 bis S 118 für alle Pixel in der Pixelarrayrichtung ausgeführt wurden (Schritt S118). Wenn die Bestimmung negativ ist (Nein), legt die Regionserkennungseinheit 30 die Pixelanordnungsrichtung, in der die Verarbeitung der Schritte S108 bis S118 durchgeführt wird, auf eine der Pixelarrayrichtungen, die nicht eingestellt wurden (Schritt S120), fest. Auf diese Weise wird die Verarbeitung der Schritte S 108 bis 120 wiederholt, während die Richtung des Pixelarrays geändert wird, bis die Bestimmung in Schritt S118 positiv wird (Ja). Wenn die Bestimmung in Schritt S118 positiv ist (Ja), bestimmt die Regionserkennungseinheit 30, ob die Häufigkeit, mit der das konkave Abschnitts-Flag in dem aktuell fokussierten Pixel gegeben wurde, einen festgelegten Schwellenwert TH3 überschreitet (Schritt S122). Wenn die Bestimmung positiv ist, legt die Regionserkennungseinheit 30 das fokussierte Pixel als Verbesserungsverarbeitungszielregion fest (die Region, die dem konkaven Abschnitt entspricht) (Schritt S124). Danach fährt die Verarbeitung mit Schritt S130 fort, der später beschrieben wird, um das fokussierte Pixel zu ändern. Die Schwellenanzahl TH3 kann einmal erfolgen, erfolgt jedoch vorzugsweise zweimal oder mehrmals, um die Extraktionsgenauigkeit der Region zu verbessern, die dem konkaven Abschnitt entspricht.
  • Wenn die Bestimmung in Schritt S122 negativ ist (Nein), wird bestimmt, ob die festgelegte Variable i kleiner als 7 ist, d. h. ob alle Einzelbilder von (2 · i + 1) × (2 · i + 1) Pixeln kleiner als das Einzelbild von 15 × 15 Pixeln ausgewählt wurden (Schritt S126). Wenn die Bestimmung positiv ist (Ja), erhöht die Regionserkennungseinheit 30 die Variable i um 1 (Schritt S128), d. h. erhöht die Einzelbildgröße und gibt die Verarbeitung an Schritt S106 zurück. Somit wiederholt die Regionserkennungseinheit 30 die Schritte S106 bis S124, während die Einzelbildgröße allmählich erhöht wird, bis die Bestimmung in Schritt S126 bestätigt wird (Ja).
  • Wenn die Bestimmung in Schritt S126 negativ ist (Nein) oder wenn das fokussierte Pixel in Schritt S124 als Verbesserungsverarbeitungszielregion (die Region, die dem konkaven Abschnitt entspricht) festgelegt ist, bestimmt die Regionserkennungseinheit 30, ob die Berechnung der obigen Verarbeitung mit allen Pixeln des aufgenommenen Bildes als fokussiertem Pixel abgeschlossen wurde (Schritt S130). Wenn die Bestimmung negativ ist (Nein), bewegt die Regionserkennungseinheit 130 das fokussierte Pixel zum nächsten Pixel und legt das nächste Pixel als fokussiertes Pixel fest (Schritt S132). Wenn die Bestimmung in Schritt S130 positiv ist (Ja), beendet die Regionserkennungseinheit 130 das Regionserkennungsverfahren. Auf diese Weise wird die Verarbeitung der Schritte S102 bis S132 wiederholt, bis das Regionserkennungsverfahren für alle Pixel des aufgenommenen Bildes durchgeführt wird.
  • Auf diese Weise ist die Regionserkennungseinheit 30 konfiguriert, um den Kandidaten-Extraktionsprozess des Extrahierens des fokussierten Pixels als Kandidaten für die Verbesserungsverarbeitungszielregion zu wiederholen, wenn der Signalpegelwert des fokussierten Pixels kleiner als die Signalpegelwerte der beiden am weitesten entfernten Pixel in einer der mehreren Pixelarrayrichtungen in der Region ist, der von dem Einzelbild umgeben ist, der die Region um das fokussierte Pixel in dem aufgenommenen Bild umgibt, während die Einzelbildgröße geändert wird, und um die Verbesserungsverarbeitungszielregion basierend auf den als Kandidaten extrahierten Kandidatenpixeln durch Änderung der Größe zu definieren. Hier entspricht das Kandidaten-Extraktionsverfahren dem Verarbeiten der Schritte S106 bis S120 in dem in 6 dargestellten Beispiel des Flusses. Somit ist es möglich, die Genauigkeit der Extraktion von konkaven Abschnitten in Bezug auf verschiedene Größen von konkaven Abschnitten in dem aufgenommenen Bild zu verbessern. Selbst wenn die Auflösung des aufgenommenen Bildes (Abstand auf dem Objekt entsprechend einer Länge von einer Seite jedes Pixels) unterschiedlich ist, kann der konkave Teil in dem aufgenommenen Bild zuverlässig extrahiert werden. Infolgedessen ist es möglich, die Verbesserungsverarbeitung an einer größeren Anzahl von konkaven Abschnitten als im Stand der Technik durchzuführen.
  • Gemäß der Ausführungsform ist es bevorzugt, dass der zu vergleichende Schwellenwert TH2 mit der Differenz zwischen den Signalpegelwerten des am weitesten entfernten Pixels und dem Signalpegelwert des fokussierten Pixels mindestens 2 oder mehr im diskretisierten Signalpegel beträgt.
  • Beispielsweise beträgt in einem diskretisierten 10-Bit-Signalpegel der Schwellenwert TH2 vorzugsweise 32 bis 64. Auf einer Oberfläche des lebenden Gewebes befindet sich eine Schleimhaut, und das Reflexionsvermögen schwankt aufgrund der Schleimhaut. Somit zeigt ein Signalpegelwert eine Änderung ähnlich dem konkaven Abschnitt, selbst wenn es keinen konkaven Abschnitt gibt. Wenn jedoch der Schwellenwert TH2 innerhalb des obigen Bereichs festgelegt wird, ist es möglich, den konkaven Abschnitt des lebenden Gewebes von einer ähnlichen Änderung zu unterscheiden, die wahrscheinlich fälschlicherweise als der konkave Teil erkannt wird.
  • Gemäß der Ausführungsform ist es bevorzugt, dass der Schwellenwert TH1 größer ist, wenn die Einzelbildgröße größer ist. Mit zunehmender Einzelbildgröße nimmt der Abstand zwischen dem fokussierten Pixel und dem am weitesten entfernten Pixel zu, und eine ähnliche Änderung, die wahrscheinlich fälschlicherweise als konkaver Teil erkannt wird, kann im Regionserkennungsverfahren leicht extrahiert werden. Daher ist es bevorzugt, dass der Schwellenwert TH1 größer ist, wenn die Einzelbildgröße größer ist.
  • Es ist bevorzugt, dass die Regionserkennungseinheit 30 konfiguriert ist, um zu bestimmen, ob das fokussierte Pixel der Kandidat für die Verbesserungsverarbeitungszielregion ist, wenn der Absolutwert der Differenz zwischen den Signalpegelwerten der am weitesten entfernten Pixel kleiner als ein Schwellenwert TH2 ist. In dem in 6 dargestellten Beispiel wird, wenn die Bestimmung in Schritt S112 positiv ist, die Bestimmung des Kandidaten für die Verbesserungsverarbeitungszielregion (Region des konkaven Abschnitts) in Schritt S114 durchgeführt. Infolgedessen ist es möglich, eine Verschlechterung der Zuverlässigkeit der Extraktion des Kandidaten selbst für ein aufgenommenes Bild zu unterdrücken, bei dem die Zuverlässigkeit der Extraktion des Kandidaten für den Bereich, der dem konkaven Abschnitt entspricht, aufgrund der großen Änderung im Signalpegelwert des aufgenommenen Bildes wahrscheinlich gering ist.
  • Es ist bevorzugt, dass die Schwellenwerte TH1 und TH2 im Voraus festgelegt werden. Gemäß der Ausführungsform ist es bevorzugt, dass die Schwellenwerte TH1 und TH2 verwandte Informationen enthalten, die den Schwellenwerten TH1 und TH2 für jeden Teil eines Organs in einer Körperhöhle zugeordnet sind. Gemäß der Ausführungsform ist es bevorzugt, den Prozessor 200 so zu konfigurieren, dass er mit der Eingabe der Informationen von dem Bedienfeld 214 an einem beliebigen Teil eines Organs, dem das abzubildende lebende Gewebe entspricht, angewiesen wird, und die Schwellenwerte TH1 und TH2 unter Verwendung der zugehörigen Informationen aus der Eingabe und den angewiesenen Informationen festzulegen. Zusätzlich ist es gemäß der Ausführungsform bevorzugt, eine Entfernung zu messen, in der das elektronische Videoskop 100 eingeführt wird, automatisch jeden Teil eines Organs zu bestimmen, dem das abzubildende lebende Gewebe entspricht, basierend auf der gemessenen Entfernung, und die Schwellenwerte TH1 und TH2 unter Verwendung eines Bestimmungsergebnisses und der zugehörigen Informationen festzulegen. Das heißt, es ist vorzuziehen, dass die Schwellenwerte TH1 und TH2 gemäß einer Position des Organs in der Körperhöhle festgelegt werden, die das Objekt des aufgenommenen Bildes ist.
  • Es ist bevorzugt, dass die Regionserkennungseinheit 30 als Verbesserungsverarbeitungszielregion ein Pixel definiert, das als Kandidat für die Verbesserungsverarbeitungszielregion mindestens zweimal oder öfter extrahiert wurde, ein Pixel, zu dem das konkave Abschnitts-Flag in dem in 6 dargestellten Beispiel zweimal oder öfter unter den Pixeln zugeordnet wurde, die als Kandidaten für die Verbesserungsverarbeitungszielregion (Region des konkaven Abschnitts) extrahiert wurden, indem es möglich ist, einen punktförmigen konkaven Abschnitt oder einen rillenförmigen konkaven Abschnitt, der sich in eine Richtung erstreckt, zuverlässig zu extrahieren.
  • Gemäß der Ausführungsform ist es bevorzugt, dass die an der extrahierten Verbesserungsverarbeitungszielregion durchgeführte Verbesserungsverarbeitung eine Verarbeitung zum Reduzieren des Signalpegelwerts der extrahierten Verbesserungsverarbeitungszielregion ist. Da Regionen, die mehreren konkaven Abschnitten mit unterschiedlichen Größen entsprechen, als Verbesserungsverarbeitungszielregionen unter Verwendung einer Vielzahl von Einzelbildern mit unterschiedlichen Einzelbildgrößen bei der Extraktion der Verbesserungsverarbeitungszielregion extrahiert werden können, ist es möglich, das Bild mit dem verbesserten konkaven Abschnitt durch Reduzieren des Signalpegelwerts der extrahierten Verbesserungsverarbeitungszielregion zuverlässig zu erhalten.
  • Gemäß der Ausführungsform ist es bevorzugt, dass ein Signalpegelwert eines Pixels, das zum Extrahieren der Verbesserungsverarbeitungszielregion verwendet wird, ein Signalpegelwert eines Luminanzsignals des aufgenommenen Bildes oder ein Signalpegelwert einer R-Komponente von RGB-Komponenten ist, wenn das aufgenommene Bild ein Farbbild ist. Der konkave Teil ist ein Teil, in den reflektiertes Licht des lebenden Gewebes kaum eintritt, und ist ein Teil mit geringer Luminanz, und daher ist die Verwendung des Signalpegelwerts des Luminanzsignals geeignet, um die Region zu extrahieren, die dem konkaven Abschnitt der Verbesserungsverarbeitungszielregion entspricht. Andererseits absorbiert das lebende Gewebe Licht in einem Wellenlängenband einer blauen Komponente und einer grünen Komponente. Es ist schwierig, die Region des konkaven Abschnitts von einer Region zu unterscheiden, die durch die Lichtabsorption verdunkelt wird. Daher ist es bevorzugt, wenn die Region, die dem konkaven Abschnitt des lebenden Gewebes entspricht, als Verbesserungsverarbeitungszielregion unter Verwendung des Signalpegelwerts der R-Komponente extrahiert wird.
  • Obwohl insgesamt sechs Arten von Einzelbilder von dem minimalen Einzelbild von 3 × 3 Pixeln bis zur Einzelbildgröße von 13 × 13 Pixel als Einzelbildgrößen in dem in 6 dargestellten Fluss verwendet wurden, gibt es keine besondere Einschränkung für die Einzelbildgröße und Anzahl der zu verwendenden Einzelbilder. Gemäß der Ausführungsform ist es bevorzugt, dass eine Obergrenze der Einzelbildgröße eine Größe ist, die gleich oder kleiner als 13 × 13 Pixel ist, um die Region des konkaven Abschnitts genau zu extrahieren. In dem elektronischen Endoskopsystem 1 werden in vielen Fällen unterschiedliche Typen (unterschiedliche Spezifikationen) der elektronischen Videoskope 100 verwendet, indem das elektronische Videoskop 100 für den einzelnen Prozessor 200 ersetzt wird. Da die Auflösung eines Bildes des Festkörperbildsensors 14 in Abhängigkeit von der Art des elektronischen Videoskops 100 häufig unterschiedlich ist, ändert sich eine Größe der Region, die dem konkaven Abschnitt in dem aufgenommenen Bild entspricht, wie in 4(a) und 4(b) in Abhängigkeit von der Art des für die Bildgebung verwendeten elektronischen Videoskops 100 dargestellt, selbst wenn der gleiche konkave Teil des lebenden Gewebes abgebildet wird. Selbst im Fall des aufgenommenen Bildes des lebenden Gewebes, das denselben konkaven Abschnitt enthält, wird die Extraktion der Region, die dem konkaven Abschnitt entspricht, instabil (wird in einigen Fällen nicht extrahiert oder in anderen Fällen extrahiert). Aus diesem Grund ist die Verbesserung des konkaven Abschnitts in einem verbesserten Bild auch instabil (wird in einigen Fällen nicht extrahiert oder in anderen Fällen extrahiert), und es gibt einen Fall, in dem es schwierig ist, denselben konkaven Abschnitt visuell zu erkennen. Andererseits kann der konkave Teil in dem aufgenommenen Bild zuverlässig extrahiert werden, selbst wenn die Auflösung des aufgenommenen Bildes in der oben beschriebenen Ausführungsform unterschiedlich ist. Infolgedessen kann die Verbesserungsverarbeitung des konkaven Abschnitts zuverlässiger als im Stand der Technik durchgeführt werden.
  • Daher ist es gemäß der Ausführungsform bevorzugt, dass die Regionserkennungseinheit 30 mindestens eines der Anzahl von Einzelbilder und die Einzelbildgröße festlegt, die in der Regionserkennungseinheit 30 verwendet werden sollen, basierend auf Informationen eines Bildsensors wie der Auflösung und die Gesamtzahl der Pixel des Festkörperbildsensors 14 und bildspezifische Informationen, einschließlich optischer Informationen, die sich auf ein optisches System beziehen, wie beispielsweise einen Blickwinkel, eine Brennweite und eine Schärfentiefe. Da ein Bereich einer Länge des Objekts, der ein Pixel des aufgenommenen Bildes einnimmt, aus der bildspezifischen Information bekannt sein kann, kann die Größe des Bereichs des konkaven Abschnitts in dem aufgenommenen Bild bis zu einem gewissen Grad aus dem Bereich der Länge geschätzt werden. Daher kann basierend auf dieser Schätzung mindestens eines der Anzahl von Einzelbildern und die Einzelbildgröße festgelegt werden. In diesem Fall ist es bevorzugt, dass verwandte Informationen, bei denen die oben beschriebenen bildgebenden spezifischen Informationen der Einzelbildgröße und der Anzahl von Einzelbildern zugeordnet sind, vorab im Speicher 23 gespeichert werden. Wenn das elektronische Videoskop 100 mit dem Prozessor 200 verbunden ist, liest das elektronische Videoskop 100 eindeutige Informationen bezüglich des elektronischen Videoskops 100 aus dem Speicher 16 und gibt die gelesenen Informationen an die Systemsteuerung 21 aus. Daher ist es gemäß der Ausführungsform bevorzugt, dass die Regionserkennungseinheit 30 automatisch die Einzelbildgröße und die Anzahl von Einzelbildern entsprechend dem Typ des verbundenen elektronischen Videoskops 100 unter Verwendung der obigen verwandten Informationen aus den im Speicher 23 gespeicherten, bildgebungsspezifischen Informationen, die in den eindeutigen Informationen enthalten sind, die vom elektronischen Videoskop 100 übertragen werden, festzulegen.
  • Obwohl der Prozessor für ein elektronisches Endoskop und das elektronische Endoskopsystem der vorliegenden Erfindung oben ausführlich beschrieben wurden, sind der Prozessor für ein elektronisches Endoskop und das elektronische Endoskopsystem der vorliegenden Erfindung nicht auf die oben beschriebene Ausführungsform beschränkt und können natürlich auf verschiedene Weise in einem Bereich modifiziert oder verändert werden, der nicht vom Umfang der vorliegenden Erfindung abweicht.
  • Bezugszeichenliste
  • 1
    Elektronisches Endoskopsystem
    11
    LCB
    12
    Lichtverteilungslinse
    13
    Objektivlinse
    14
    Festkörperbildsensor
    15
    Treibersignal-Verarbeitungsschaltung
    16
    Speicher
    21
    Systemsteuerung
    22
    Zeitsteuerung
    24
    Bedienfeld
    25
    Sammellinse
    26
    Vorstufen-Signalverarbeitungsschaltung
    27
    Bildspeicher
    28
    Nachstufen-Signalverarbeitungsschaltung
    29
    Recheneinheit
    30
    Regionserkennungseinheit
    31
    Verbesserungsverarbeitungseinheit
    100
    Elektronisches Videoskop
    200
    Prozessor
    300
    Monitor
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 3869698 B2 [0005]

Claims (10)

  1. Prozessor für ein elektronisches Endoskop, der ein aufgenommenes Bild eines lebenden Gewebes erfasst und eine Verbesserungsverarbeitung durchführt, umfassend: eine Regionserkennungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitungszielregion zu erfassen, die aus Pixelinformationen des aufgenommenen Bildes des lebenden Gewebes erweitert werden soll; und eine Verbesserungsverarbeitungseinheit, die konfiguriert ist, um eine Verbesserungsverarbeitung an der von der Regionserkennungseinheit erfassten Verbesserungsverarbeitungszielregion durchzuführen; wobei die Regionserkennungseinheit so konfiguriert ist, dass sie einen Kandidaten-Extraktionsprozess des Extrahierens eines fokussierten Pixels als ein Kandidat für eine Verbesserungsverarbeitungszielregion wiederholt, wenn ein Signalpegelwert des fokussierten Pixels kleiner ist als Signalpegelwerte von zwei am weitesten von dem fokussierten Pixel entfernten Pixeln auf beiden Seiten in irgendeiner Vielzahl von Pixelanordnungsrichtungen in einer Region, die von einem Einzelbild umgeben ist, der eine Region mit dem fokussierten Pixel als Zentrum umgibt, während eine Größe des Einzelbilds geändert wird, und dass sie die Verbesserungsverarbeitungszielregion auf der Grundlage von Pixeln definiert, die als die Kandidaten durch Ändern der Größe extrahiert wurden.
  2. Prozessor für ein elektronisches Endoskop nach Anspruch 1, wobei wenn eine Differenz zwischen jedem der Signalpegelwerte der am weitesten entfernten Pixel und dem Signalpegelwert des fokussierten Pixels größer als ein Schwellenwert 1 ist, der 2 oder mehr bei mindestens einem diskretisierten Signalpegel im Signalpegelwert ist, die Regionserkennungseinheit das fokussierte Pixel als den Kandidaten für die Verbesserungsverarbeitungszielregion definiert.
  3. Prozessor für ein elektronisches Endoskop nach Anspruch 2, wobei der Schwellenwert 1 größer ist, wenn das Einzelbild größer ist.
  4. Prozessor für ein elektronisches Endoskop nach Anspruch 2 oder 3, wobei der Schwellenwert 1 gemäß einer Position eines Organs in einer Körperhöhle festgelegt wird, die ein Objekt des aufgenommenen Bildes ist.
  5. Prozessor für ein elektronisches Endoskop nach einem der Ansprüche 1 bis 4, wobei die Regionserkennungseinheit konfiguriert ist, um zu bestimmen, ob das fokussierte Pixel der Kandidat für die Verbesserungsverarbeitungszielregion ist, wenn ein Absolutwert einer Differenz jedes der Signalpegelwerte der am weitesten entfernten Pixel in Bezug auf das fokussierte Pixel kleiner als ein Schwellenwert 2 ist.
  6. Prozessor für ein elektronisches Endoskop nach einem der Ansprüche 1 bis 5, wobei die Regionserkennungseinheit ein Pixel definiert, das als Kandidat für die Verbesserungsverarbeitungszielregion in einer Pixelarrayrichtung mehrmals als ein Schwellenwert 3 unter vier Pixelarrayrichtungen einer Auf-Ab-Richtung, einer Links-Rechts-Richtung, einer oberen linken-unteren rechten Richtung und einer oberen rechten-unteren linken Richtung in dem Einzelbild mit der gleichen Größe im Kandidaten-Extraktionsprozess als die Verbesserungsverarbeitungszielregion unter den als Kandidaten extrahierten Pixeln extrahiert wurde.
  7. Prozessor für ein elektronisches Endoskop nach einem der Ansprüche 1 bis 5, wobei das Einzelbild ein Einzelbild von (2 · i + 1) × (2 · i + 1) Pixeln ist, wobei i eine natürliche Zahl von 1 bis 6 ist.
  8. Prozessor für ein elektronisches Endoskop nach einem der Ansprüche 1 bis 7, wobei die Verbesserungsverarbeitung die Verarbeitung des Reduzierens des Signalpegelwerts der erkannten Verbesserungsverarbeitungszielregion ist.
  9. Prozessor für ein elektronisches Endoskop nach Anspruch 8, wobei der Signalpegelwert ein Signalpegelwert eines Luminanzsignals des aufgenommenen Bildes oder ein Signalpegelwert einer R-Komponente unter den RGB-Komponenten des aufgenommenen Bildes ist.
  10. Elektronisches Endoskopsystem, umfassend: den Prozessor für ein elektronisches Endoskop nach einem der Ansprüche 1 bis 9; und ein elektronisches Endoskop, das mit dem Prozessor für ein elektronisches Endoskop verbunden ist und das aufgenommene Bild des lebenden Gewebes ausgibt.
DE112018004156.5T 2017-11-06 2018-11-02 Prozessor für elektronisches endoskop und elektronisches endoskopsystem Pending DE112018004156T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017214016 2017-11-06
JP2017-214016 2017-11-06
PCT/JP2018/040855 WO2019088259A1 (ja) 2017-11-06 2018-11-02 電子内視鏡用プロセッサ及び電子内視鏡システム

Publications (1)

Publication Number Publication Date
DE112018004156T5 true DE112018004156T5 (de) 2020-04-30

Family

ID=66333163

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018004156.5T Pending DE112018004156T5 (de) 2017-11-06 2018-11-02 Prozessor für elektronisches endoskop und elektronisches endoskopsystem

Country Status (5)

Country Link
US (1) US11457795B2 (de)
JP (1) JP6756054B2 (de)
CN (1) CN111093465B (de)
DE (1) DE112018004156T5 (de)
WO (1) WO2019088259A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3869698B2 (ja) 2001-10-23 2007-01-17 ペンタックス株式会社 電子内視鏡装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS601219B2 (ja) * 1980-12-27 1985-01-12 株式会社ト−ホ− 紙袋
JP3513219B2 (ja) * 1994-07-12 2004-03-31 キヤノン株式会社 対応点マッチング方法および装置
JP3855360B2 (ja) 1997-04-16 2006-12-06 住友電気工業株式会社 筋状欠陥の検査方法と検査装置
US6614946B1 (en) * 1999-10-08 2003-09-02 Eastman Kodak Company System and method for correcting defects in digital images through selective fill-in from surrounding areas
JP4062175B2 (ja) * 2003-01-09 2008-03-19 セイコーエプソン株式会社 画像処理装置、方法、プログラムおよび該プログラムを記録した記録媒体
EP2138091B1 (de) * 2007-04-24 2013-06-19 Olympus Medical Systems Corp. Medizinische bildverarbeitungsvorrichtung und medizinisches bildverarbeitungsverfahren
JP5106928B2 (ja) 2007-06-14 2012-12-26 オリンパス株式会社 画像処理装置および画像処理プログラム
CN101527047B (zh) 2008-03-05 2013-02-13 深圳迈瑞生物医疗电子股份有限公司 使用超声图像检测组织边界的方法与装置
CN101315669B (zh) * 2008-07-15 2010-07-07 北京石油化工学院 一种浮选泡沫图像的处理方法及装置
WO2012033200A1 (ja) * 2010-09-10 2012-03-15 オリンパスメディカルシステムズ株式会社 撮像装置
JP5959168B2 (ja) * 2011-08-31 2016-08-02 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
WO2014014031A1 (ja) * 2012-07-17 2014-01-23 株式会社ニコン 被写体追尾装置およびカメラ
JP6176978B2 (ja) * 2013-01-31 2017-08-09 オリンパス株式会社 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム
JP5622903B2 (ja) * 2013-08-05 2014-11-12 オリンパス株式会社 画像処理装置、画像処理装置の作動方法および画像処理プログラム
JP2016063928A (ja) 2014-09-24 2016-04-28 パナソニックIpマネジメント株式会社 偏光撮像装置、偏光画像処理装置、およびカラー偏光複合モザイクフィルタ
WO2016072237A1 (ja) * 2014-11-06 2016-05-12 オリンパス株式会社 内視鏡システム
CN107113405B (zh) * 2015-01-20 2019-01-15 奥林巴斯株式会社 图像处理装置、图像处理装置的工作方法、记录介质和内窥镜装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3869698B2 (ja) 2001-10-23 2007-01-17 ペンタックス株式会社 電子内視鏡装置

Also Published As

Publication number Publication date
US11457795B2 (en) 2022-10-04
WO2019088259A1 (ja) 2019-05-09
JPWO2019088259A1 (ja) 2020-07-02
CN111093465B (zh) 2022-07-19
US20200345205A1 (en) 2020-11-05
CN111093465A (zh) 2020-05-01
JP6756054B2 (ja) 2020-09-16

Similar Documents

Publication Publication Date Title
DE102014110131B4 (de) Bildaufnahmevorrichtung
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE112014006127B4 (de) Bilderzeugungsvorrichtung
DE112013005574B4 (de) Bilderzeugungsvorrichtung
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE112015005073B4 (de) Abbildungssystem, enthaltend eine Linse mit longitudinaler chromatischer Aberration, Endoskop und Abbildungsverfahren
DE102018206027A1 (de) Formmessvorrichtung und formmessverfahren
DE102004006260B4 (de) Videoendoskopeinrichtung
DE102007055912A1 (de) Augenliderfassungsvorrichtung, Augenliderfassungsverfahren und zugehöriges Programm
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE112019004880T5 (de) Elektronisches endoskopsystem
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE10126587A1 (de) Elektronisches Endoskop
DE10344397B4 (de) Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung
DE112015002821T5 (de) Beobachtungssystem
DE112014007147T5 (de) Scharfstellsteuerungsvorrichtung, Endoskopvorrichtung und Verfahren zum Steuern der Scharfstellsteuerungsvorrichtung
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE112017001458T5 (de) Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung und Steuerverfahren davon
DE102019103963A1 (de) Ildgebungsvorrichtung
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112020001352T5 (de) Endoskopsystem
DE69628654T2 (de) Messsystem zur bestimmung der globalen modulationsübertragungsfunktion
DE112019007102T5 (de) Endoskopprozessor, informationsverarbeitungsvorrichtung, endoskopsystem, programm und informationsverarbeitungsverfahren
DE112004002663T5 (de) Bildsubtraktion von Beleuchtungsartefakten
DE102014102011A1 (de) System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich

Legal Events

Date Code Title Description
R012 Request for examination validly filed