DE112015002169T5 - Endoskopvorrichtung - Google Patents

Endoskopvorrichtung Download PDF

Info

Publication number
DE112015002169T5
DE112015002169T5 DE112015002169.8T DE112015002169T DE112015002169T5 DE 112015002169 T5 DE112015002169 T5 DE 112015002169T5 DE 112015002169 T DE112015002169 T DE 112015002169T DE 112015002169 T5 DE112015002169 T5 DE 112015002169T5
Authority
DE
Germany
Prior art keywords
light
pixel
luminance component
image
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015002169.8T
Other languages
English (en)
Inventor
Jumpei Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE112015002169T5 publication Critical patent/DE112015002169T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4015Demosaicing, e.g. colour filter array [CFA], Bayer pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Abstract

Eine Endoskopvorrichtung gemäß der Erfindung hat eine Lichtquelleneinheit (3), welche weißes Beleuchtungslicht emittiert einschließlich Lichtstrahlen von roten, grünen und blauen Wellenlängenbändern, und schmalbandiges Beleuchtungslicht mit Licht eines schmalen Bandes in jedem der blauen und grünen Wellenlängenbänder; einen Bildsensor (202) einschließlich einer Mehrzahl von in einer Matrix angeordneten Pixeln für eine fotoelektrische Konversion von von jedem Pixel empfangenem Licht zur Erzeugung eines elektrischen Signals; und ein Farbfilter (202a) auf der Lichtempfangsfläche des Bildsensors (202) aus einer Mehrzahl von Filtereinheiten (U1), welche jeweils gebildet sind aus einem blauen Filter zum Durchlassen des Lichtes des blauen Wellenlängenbandes, einem grünen Filter zum Durchlassen des Lichtes des grünen Wellenlängenbandes und einem roten Filter durch Durchlassen des Lichtes des roten Wellenlängenbandes, wobei in den Filtereinheiten (U1) die Anzahl der blauen Filter und die Anzahl der grünen Filter größer ist als die Anzahl der roten Filter.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft eine Endoskopvorrichtung, die eingerichtet ist zum Einführen in einen lebenden Körper zur Gewinnung einer Bildaufnahme darin.
  • Hintergrund der Erfindung
  • Herkömmlicherweise werden Endoskopvorrichtungen weithin eingesetzt für unterschiedliche Prüfungen im Bereich der Medizin oder Industrie. Mit einer medizinischen Endoskopvorrichtung kann ein Bild in einem Körperhohlraum ohne einen Einschnitt gewonnen werden durch Einschieben eines langgestreckten, biegsamen Einführabschnittes, an dessen distalem Ende ein Bildsensor mit einer Vielzahl von Bildpunkten angeordnet ist, in den Körperhohlraum der Testperson, wie zum Beispiel eines Patienten, wobei die Belastung der Testperson gering ist.
  • Zur Bildaufnahme mit einer derartigen Endoskopvorrichtung ist ein sogenanntes Weißlichtbildaufnahmeverfahren (WLI) bekannt, bei dem weißes Beleuchtungslicht eingesetzt wird, und ein Schmalbandbildaufnahmeverfahren (NBI), bei dem Beleuchtungslicht einschließlich zweier Strahlen schmalbandigen Lichtes mit blauen und grünen Wellenlängenbändern (Schmalband-Beleuchtungslicht) in bekannter Weise eingesetzt werden. Bei dem Bildaufnahmeverfahren mit einer solchen Endoskopvorrichtung ist es wünschenswert, eine Beobachtung auszuführen mit Umschaltungen zwischen dem Weißlichtbildaufnahmeverfahren (WLI-Verfahren) und dem Schmalbandbildaufnahmeverfahren (NBI-Verfahren).
  • Zur Gewinnung eines anzuzeigenden Farbbildes mit den oben beschriebenen Bildaufnahmeverfahren mit einem Bildsensor mit einer einzigen Empfangsfläche wird ein Farbfilter eingesetzt mit einer Mehrzahl von Filtern in einer Matrixanordnung von Filtern, die im Allgemeinen als Bayer-Anordnung bezeichnet wird in Form einer Einheit auf der Lichtempfangsfläche des Bildsensors. Bei einer Bayer-Anordnung werden vier Filter in einer 2×2-Matrix angeordnet, welche Wellenlängenbänder im roten (R), grünen (G), grünen (G) und im blauen (B) durchlassen, sowie G-Filter in Diagonalanordnung, welche das Licht der grünen Wellenlängenbänder durchlassen. Dabei empfängt jeder Bildpunkt das Licht des durch den Filter durchgelassenen Wellenlängenbandes und der Bildsensor erzeugt ein elektrisches Signal bezüglich der Farbkomponente entsprechend dem Licht des Wellenlängenbandes.
  • Beim WLI-Verfahren trägt das Signal einer ein Blutgefäß oder Blutstrukturen am deutlichsten anzeigenden grünen Komponente, also das Signal (G-Signal) des G-Pixels (das Pixel, auf dem der G-Filter angeordnet ist; entsprechendes gilt für das R-Pixel und das B-Pixel), am meisten zur Leuchtkraft des Bildes bei. Beim NBI-Verfahren trägt andererseits ein Signal der blauen Komponente, mit welchem das Blutgefäß und Blutstrukturen auf der Oberfläche des lebenden Körpers deutlich dargestellt werden, also das Signal (B-Signal), welches mit dem B-Pixel gewonnen wird, am stärksten zur Leuchtkraft des Bildes bei.
  • Bei einem Bildsensor mit einem Farbfilter in Bayer-Anordnung gibt es zwei G-Pixel und nur ein B-Pixel im Grundmuster. Bei einer Bayer-Struktur ist deshalb die mit dem NBI-Verfahren gewonnene Auflösung des Farbbildes sehr gering.
  • Um beim NBI-Verfahren die Auflösung zu verbessern, wurde ein Bildsensor beschrieben mit einem Farbfilter, bei dem die B-Pixel (Bildpunkte) im Vergleich zu den R-Pixeln und G-Pixeln dichter gepackt sind (siehe beispielsweise Patent-Literatur 1).
  • Liste des Standes der Technik
  • Patentliteratur
    • Patentliteratur 1: JP 2006-297093 A
  • Kurzbeschreibung
  • Technisches Problem
  • Wird der Farbfilter gemäß Patentliteratur 1 eingesetzt, kann zwar die Auflösung des Farbbildes im NBI-Verfahren erhöht werden, jedoch ist die Dichte der G-Pixel geringer als die der B-Pixel und im WLI-Verfahren wird die Auflösung bedenklich geschwächt. Deshalb besteht ein Bedarf an einer Technik, die in der Lage ist, Bilder mit hoher Auflösung in beiden Aufnahmeverfahren zu gewinnen.
  • Die vorliegende Erfindung steht im Zusammenhang mit den obigen Erwägungen und hat die Bereitstellung einer Endoskopvorrichtung zum Ziel, mit welcher ein Bild hoher Auflösung sowohl im Weißlichtbildaufnahmeverfahren als auch im Schmalbandbildaufnahmeverfahren gewonnen werden kann.
  • Lösung des Problems
  • Zur Überwindung der oben beschriebenen Probleme und zum Erreichen des genannten Ziels weist eine Endoskopvorrichtung gemäß der Erfindung folgendes auf: eine Lichtquelleneinheit, eingerichtet zum Emittieren von weißem Beleuchtungslicht mit Lichtstrahlen einschließlich Strahlung mit roten, grünen und blauen Wellenlängenbändern, oder zur Emission von schmalbandigem Beleuchtungslicht mit schmalbandigem Licht in jedem der blauen und grünen Wellenlängenbänder; einem Bildsensor mit einer Vielzahl von Pixeln (Bildpunkten) in Matrix-Anordnung und eingerichtet für eine fotoelektrische Konversion (Wandlung) von durch die Vielzahl von Pixeln empfangenem Licht zur Erzeugung entsprechender elektrischer Signale; und einen Farbfilter mit einer Vielzahl von Filtereinheiten auf einer Lichtempfangsfläche des Bildsensors, wobei jede der Filtereinheiten gebildet ist aus blauen Filtern zum Durchlassen des Lichtes des blauen Wellenlängenbandes, grünen Filtern zum Durchlassen von Licht des grünen Wellenlängenbandes und roten Filtern zum Durchlassen von Licht des roten Wellenlängenbandes, wobei die Anzahl der blauen Filter und die Anzahl der grünen Filter größer ist als die Anzahl der roten Filter.
  • Vorteilhafte Wirkungen der Erfindung
  • Mit der Erfindung ist es möglich, ein Bild mit hoher Auflösung sowohl im Weißlichtbildaufnahmeverfahren als auch im Schmalbandbildaufnahmeverfahren zu gewinnen.
  • Kurzbeschreibung der Figuren
  • 1 ist eine schematische Darstellung des Aufbaus einer Endoskopvorrichtung gemäß einem Ausführungsbeispiel der Erfindung.
  • 2 zeigt schematisch den Aufbau der Endoskopvorrichtung gemäß dem Ausführungsbeispiel mit weiteren Einzelheiten.
  • 3 zeigt schematisch eine Konfiguration eines Pixels bei einem Ausführungsbeispiel der Erfindung.
  • 4 zeigt schematisch eine Konfiguration eines Farbfilters gemäß einem Ausführungsbeispiel der Erfindung.
  • 5 zeigt ein Beispiel für die Eigenschaften eines jeden Filters eines Farbfilters gemäß einem Ausführungsbeispiel der Erfindung, wobei der Graph die Beziehung darstellt zwischen einer Wellenlänge des Lichtes und der Transmission eines jeden Filters.
  • 6 zeigt mit einem Graphen die Beziehung zwischen der Wellenlänge und der Menge an Beleuchtungslicht, welche durch eine Beleuchtungseinheit einer Endoskopvorrichtung gemäß einem Ausführungsbeispiel der Erfindung emittiert wird.
  • 7 zeigt mit Graphen die Beziehung zwischen der Wellenlänge und der Transmission des Beleuchtungslichtes durch einen Schaltfilter in der Beleuchtungseinheit der Endoskopvorrichtung gemäß dem Ausführungsbeispiel.
  • 8 erläutert mit einem Blockdiagramm den Aufbau eines wesentlichen Teils eines Prozessors einer Endoskopvorrichtung gemäß dem Ausführungsbeispiel.
  • 9 zeigt schematisch eine Bewegungsdetektion zwischen Bildern mit unterschiedlichen Aufnahmezeiten, ausgeführt durch eine Bewegungsvektordetektionsverarbeitungseinheit gemäß dem Ausführungsbeispiel.
  • 10 ist ein Flussdiagramm zur Erläuterung der Signalverarbeitung durch den Prozessor der Endoskopvorrichtung gemäß dem Ausführungsbeispiel.
  • 11 zeigt schematisch eine Konfiguration eines Farbfilters gemäß einer ersten Abwandlung des Ausführungsbeispiels.
  • 12 ist eine schematische Darstellung einer Konfiguration eines Farbfilters gemäß einer zweiten Abwandlung des Ausführungsbeispiels.
  • 13 ist eine schematische Darstellung einer Konfiguration eines Farbfilters gemäß einer dritten Abwandlung des Ausführungsbeispiels.
  • Beschreibung von Ausführungsbeispielen
  • Nachfolgend werden verschiedene Beispiele für die Ausführung der vorliegenden Erfindung näher erläutert (nachfolgend mit ”Ausführungsbeispiel” bezeichnet). Dabei wird abgestellt auf eine medizinische Endoskopvorrichtung zur Aufnahme eines Bildes in einer Körperhöhlung eines Untersuchungsgegenstandes, wie eines Patienten, und zur Anzeige des Bildes. Die Erfindung ist jedoch nicht auf solche Beispiele beschränkt. Gleiche Bezugszeichen werden verwendet für einander funktionsähnliche Elemente.
  • 1 zeigt schematisch den Aufbau einer Endoskopvorrichtung gemäß einem Ausführungsbeispiel der Erfindung. 2 zeigt schematisch die Konfiguration der Endoskopvorrichtung. Eine Endoskopvorrichtung 1 gemäß den 1 und 2 hat ein Endoskop 2, welches in-vivo Bilder eines aufzunehmenden Bereiches mit einem Einführabschnitt aufnimmt, welcher in den Körperhohlraum des Untersuchungsgegenstandes eingeführt wird, eine Lichtquelleneinheit 3, welche vom distalen Ende des Endoskopes 2 abzugebendes Licht erzeugt, einen Prozessor 4, welcher eine vorgegebene Bildverarbeitung bezüglich eines elektrischen Signals ausführt, welches durch das Endoskop 2 gewonnen wird, und welcher den Gesamtbetrieb der Endoskopvorrichtung 1 steuert, und eine Anzeigeeinheit 5, welche das in-vivo Bild, wie vom Prozessor 4 verarbeitet, anzeigt. Die Endoskopvorrichtung 1 gewinnt das in-vivo Bild in dem Körperhohlraum mittels des Einführabschnittes 21, welcher in beispielsweise den Patienten eingeführt ist. Ein Benutzer, wie ein Arzt, beobachtet das gewonnene in-vivo Bild zur Prüfung, ob eine Blutung oder ein Tumor an den zu detektierenden Stellen vorliegt. In 2 kennzeichnet ein Pfeil mit durchgezogener Linie die Übertragung eines elektrischen Signals bezüglich des Bildes, während ein Pfeil mit gestrichelter Linie die Übertragung eines elektrischen Signals bezüglich der Steuerung kennzeichnet.
  • Das Endoskop 2 ist mit dem Einführabschnitt 21 versehen, welcher eine langgestreckte Form aufweist und biegsam ist, sowie mit einer Betätigungseinheit 22 am proximalen Ende des Einführabschnittes 21 zur Aufnahme von unterschiedlichen Betätigungssignalen, und mit einer Universalleitung 23, die sich entgegengesetzt zur Richtung des Einführabschnittes von der Betätigungseinheit 26 ausgehend erstreckt und unterschiedliche Kabel aufweist zum Anschluss an die Lichtquelle 3 und den Prozessor 4.
  • Der Einführabschnitt 21 hat einen distalen Endabschnitt 24 mit einem Bildsensors 202 einschließlich Pixeln (Bildpunkten) (Fotodioden), welche in Matrix-Anordnung Licht empfangen, welches durch fotoelektrische Wandlung Bildsignale erzeugt, einen biegsamen Abschnitt 25 aus einer Vielzahl von Biegeelementen, und einen langgestreckten biegsamen Rohrabschnitt 26, welcher sich an das proximale Ende des biegsamen Abschnittes 25 anschließt.
  • Die Betätigungseinheit 22 hat einen Drehknopf 221 zum Biegen des biegbaren Abschnittes 25 nach oben und unten sowie nach rechts und links, eine Behandlungsinstrument-Einführeinheit 222, durch welche Behandlungsinstrumente, wie eine in-vivo-Greifzange, ein elektrisches Skalpell oder eine Vorrichtung zur Probennahme, in den Körperhohlraum des Patienten einführbar sind, und eine Mehrzahl von Schaltern 223 zur Eingabe von Befehlssignalen bezüglich der Lichtquelleneinheit 3 zur Ausführung einer Beleuchtung, eines Betriebssignals für das Behandlungsinstrument und eine externe, an den Prozessor 4 angeschlossene Einrichtung, ein Wasser-Abgabesignal, ein Absaugsignal und dergleichen. Das über die Behandlungsinstrument-Einführeinheit 222 eingeführte Behandlungsinstrument ragt aus einer Öffnung (nicht dargestellt) aus einem Behandlungsinstrument-Kanal (nicht dargestellt) am distalen Ende des distalen Endabschnittes 24 hervor. Die Schalter 223 können auch einen Beleuchtungslicht-Umschalter aufweisen zum Umschalten des Beleuchtungslichtes (Bildaufnahmemodus) der Lichtquelleneinheit 3.
  • Die Universalleitung 23 hat zumindest einen Lichtleiter 203 und eine Kabelanordnung mit einer oder mehreren Signalleitungen darin. Die Kabelanordnung überträgt und empfängt Signale zwischen dem Endoskop 2 und der Lichtquelle 3 sowie dem Prozessor 4 für zum Beispiel Einstelldaten und weiterhin eine Signalleitung für die Übertragung und den Empfang von Bildsignalen, eine Signalleitung für die Übertragung und den Empfang von Betriebssignalen bezüglich des Bildsensors 202 und dergleichen.
  • Das Endoskop 2 ist mit einem optischen Abbildungssystem 201, dem Bildsensor 202, dem Lichtleiter 203, einer Beleuchtungslinse 204, einem Analog/Digital-Wandler 205 und mit einer Speichereinheit 206 für die Bilddaten versehen.
  • Das optische Abbildungssystem 201 am distalen Endabschnitt 24 sammelt Licht von zumindest dem zu beobachtenden Bereich. Das optische Abbildungssystem 201 wird aus einer oder mehreren Linsen gebildet. Das optische Abbildungssystem 201 kann auch mit einem Zoom-Mechanismus versehen sein zum Ändern eines Aufnahmeraumwinkels und mit einem Fokussiermechanismus zum Ändern eines Brennpunktes.
  • Der Bildsensor 202 steht senkrecht zur optischen Achse des optischen Abbildungssystems 201 und führt eine fotoelektrische Wandlung für das durch das optische Abbildungssystem 201 geformte Bild aus zur Erzeugung des entsprechenden elektrischen Signals (Bildsignals). Der Bildsensor 202 ist beispielsweise eine ladungsgekoppelte Einrichtung (CCD), ein Komplementär-Metalloxid-Halbleiter (CMOS) oder dergleichen.
  • 3 zeigt schematisch eine Konfiguration von Pixeln des Bildsensors gemäß dem Ausführungsbeispiel. Der Bildsensor 202 hat eine Vielzahl von Pixeln zum Empfang von Licht in Matrixanordnung über das optische Abbildungssystem 201. Der Bildsensor 202 erzeugt ein Bildsignal entsprechend den elektrischen Signalen, welche durch fotoelektrische Wandlung in den Pixeln erzeugt werden. Das Bildsignal enthält einen Pixelwert (Luminanzwert) für jedes Pixel, Positionsinformationen bezüglich des Pixels und dergleichen. In 3 ist das in der i-ten Reihe und der j-ten Spalte angeordnete Pixel mit Pij bezeichnet.
  • Der Bildsensor 202 ist mit einem Farbfilter 202a zwischen dem optischen Abbildungssystem 201 und dem Bildsensor 202 versehen einschließlich einer Vielzahl von Filtern, von denen ein jeder Licht durchlässt mit einem individuell eingestellten Wellenlängenband. Der Farbfilter 202a ist auf der Lichtempfangsfläche des Bildsensors 202 angeordnet.
  • 4 zeigt schematisch ein Beispiel für eine Konfiguration eines Farbfilters gemäß dem Ausführungsbeispiel. Der Farbfilter 202a gemäß diesem Ausführungsbeispiel wird gewonnen durch Anordnung von Filtereinheiten U1, die jeweils aus 16 Filtern gebildet werden in einer Anordnung gemäß einer 4×4-Matrix mit Pixeln Pij. Mit anderen Worten: der Farbfilter 202 wird gewonnen durch wiederholte Anordnung einer Filterstruktur mit der Filtereinheit U1 als Grundmuster. Ein Filter, welcher das Licht eines vorgegebenen Wellenlängenbandes durchlässt, ist auf der Lichtempfangsfläche eines jeden Pixels angeordnet. Deshalb empfängt das Pixel Pij, auf dem der Filter angeordnet ist das Licht des Wellenlängenbandes, welches der Filter durchlässt. Beispielsweise empfängt das Pixel Pij, auf dem der Filter angeordnet ist, welcher das Licht eines grünen Wellenlängenbandes durchlässt, das Licht des grünen Wellenlängenbandes. Nachfolgend wird das Pixel Pij, welches das Licht des grünen Wellenlängenbandes empfängt, als G-Pixel bezeichnet. Entsprechend wird das Pixel, welches Licht eines blauen Wellenlängenbandes empfängt, als B-Pixel und das Pixel, welches Licht eines roten Wellenlängenbandes empfängt, als R-Pixel bezeichnet.
  • Die Filtereinheit U1 lässt das Licht des blauen (B) Wellenlängenbandes HB, eines grünen (G) Wellenlängenbandes HG und eines roten (R) Wellenlängenbandes HR durch. Die Filtereinheit U1 ist aus einem oder einer Mehrzahl von blauen Filtern (B-Filter), welche das Licht des Wellenlängenbandes HB durchlassen, grünen Filtern (G-Filter), welche das Licht des Wellenlängenbandes HG durchlassen, und roten Filtern (R-Filter), welche das Licht des Wellenlängenbandes HR durchlassen, geformt; dabei ist die Anzahl der B-Filter und der G-Filter so gewählt, dass sie jeweils größer ist als die Anzahl der R-Filter. Das blaue Wellenlängenband HB reicht von 400 nm zu 500 nm, das grüne Wellenlängenband HG reicht von 480 nm bis 600 nm und das rote Wellenlängenband HR reicht von 580 nm bis 700 nm, jeweils als Beispiel.
  • Entsprechend 4 ist die Filtereinheit U1 bei diesem Ausführungsbeispiel aus acht B-Filtern, welche das Licht des Wellenlängenbandes HB durchlassen, sechs G-Filtern, welche das Licht des Wellenlängenbandes HG durchlassen und zwei R-Filtern, welche das Licht des Wellenlängenbandes HR durchlassen, gebildet. In der Filtereinheit U1 sind die Filter, welche das Licht desselben Wellenlängenbandes durchlassen (die gleichen Farbfilter) so angeordnet, dass sie in Zeilenrichtung und auch in Spaltenrichtung nicht einander benachbart sind. Wenn ein B-Filter an einer Position entsprechend dem Pixel Pij angeordnet ist, wird nachfolgend der B-Filter mit Bij bezeichnet. Ist entsprechend ein G-Filter an einer Position gemäß dem Pixel Pij angeordnet, wird der G-Filter mit Gij bezeichnet und wenn ein R-Filter dort angeordnet ist, wird dieser mit Rij bezeichnet.
  • Die Filtereinheit U1 ist so konfiguriert, dass die Anzahl der B-Filter und der G-Filter nicht kleiner ist als ein Drittel der Gesamtzahl der Filter (hier: 16 Filter), welche die Filtereinheit U1 bilden, und die Anzahl der R-Filter ist kleiner als ein Drittel der Gesamtzahl der Filter. Im Farbfilter 202a (Filtereinheit U1) sind eine Mehrzahl von B-Filtern schachbrettartig angeordnet.
  • 5 zeigt mit einer graphischen Darstellung Charakteristiken von jedem Filter des Farbfilters gemäß dem Ausführungsbeispiel, wobei der Graph die Beziehung zwischen der Wellenlänge des Lichtes und der Transmission des jeweiligen Filters darstellt. In 5 ist die Transmissionskurve jeweils normiert, so dass die Maximalwerte der Transmission der einzelnen Filter gleich sind. Die Kurve Lb (durchgezogene Linie), die Kurve Lg (gestrichelte Linie) und die Kurve Lr (strichpunktierte Linie) in 5 zeigen die Transmissionskurven des B-Filters, des G-Filters bzw. des R-Filters. Entsprechend 5 lässt der B-Filter Licht des Wellenlängenbandes HB durch. Der G-Filter lässt Licht des Wellenlängenbandes HG durch. Der R-Filter lässt Licht des Wellenlängenbandes HR durch.
  • Gemäß den 1 und 2 dient der aus Glasfasern oder dergleichen geformte Lichtleiter 203 als Lichtführung für das durch die Lichtquelleneinheit 3 emittierte Licht.
  • Die Beleuchtungslinse 204 am distalen Ende des Lichtleiters 203 diffundiert das über den Lichtleiter 203 geführte Licht zur Emission aus dem distalen Endabschnitt 24.
  • Der A/D-Wandler 205 wandelt das vom Bildsensor 202 erzeugte Bildsignal analog/digital und gibt das gewandelte Bildsignal an den Prozessor 4.
  • Die Bildinformationenspeichereinheit 206 speichert Daten einschließlich verschiedener Programme zum Betreiben des Endoskops 2, verschiedene Parameter für den Betrieb des Endoskops 2, Identifizierungsinformationen bezüglich des Endoskops 2 etc. Die Bildinformationenspeichereinheit 206 hat eine Identifikationsinformationenspeichereinheit 261, welche Identifikationsinformationen speichert. Die Identifikationsinformationen enthalten spezifische Daten (ID), das Modelljahr, Spezifikationsinformationen, Daten bezüglich eines Übertragungssystems des Endoskops 2, Anordnungsinformationen bezüglich der Filter im Farbfilter 202a etc. Als Bildinformationenspeichereinheit 206 ist beispielsweise ein Flash-Speicher oder dergleichen geeignet.
  • Nunmehr wird eine Konfiguration der Lichtquelleneinheit 3 näher beschrieben. Die Lichtquelleneinheit 3 ist mit einer Beleuchtungseinheit 31 und einer Beleuchtungssteuerung 32 versehen.
  • Die Beleuchtungseinheit 31 schaltet zwischen einer Mehrzahl von Strahlungen des Beleuchtungslichtes mit unterschiedlichen Wellenlängenbändern unter Steuerung durch die Beleuchtungssteuerung 32. Die Beleuchtungseinheit 31 hat eine Lichtquelle 31a, einen Lichtquellenantrieb 31b, einen Schaltfilter 31c, eine Antriebseinheit 31d, einen Antrieb 31e und eine Sammellinse 31f.
  • Die Lichtquelle 31a emittiert weißes Beleuchtungslicht einschließlich Strahlungen im Bereich von roten, grünen und blauen Wellenlängenbändern HB, HG und HR unter Steuerung durch die Beleuchtungssteuerung 32. Das durch die Lichtquelle 31a erzeugte weiße Beleuchtungslicht wird vom distalen Endabschnitt 24 durch den Schaltfilter 31c, die Sammellinse 31f und den Lichtleiter 203 abgegeben. Die Lichtquelle 31a wird verwirklicht durch eine Lichtquelle zur Erzeugung von weißem Licht, wie zum Beispiel eine weiße LED oder eine Xenon-Lampe.
  • Der Lichtquellenantrieb 31b versorgt die Lichtquelle 31a mit Strom, damit diese weißes Beleuchtungslicht unter Steuerung durch die Beleuchtungssteuerung 32 abgeben kann.
  • Der Schaltfilter 31c lässt nur das schmalbandige blaue Licht und das schmalbandige grüne Licht vom durch die Lichtquelle 31a emittierten weißen Beleuchtungslicht durch. Der Schaltfilter 31c ist unter Steuerung durch die Beleuchtungssteuerung 32 entfernbar im optischen Weg des von der Lichtquelle 31a emittierten weißen Beleuchtungslichtes angeordnet. Der Schaltfilter 31c ist also im optischen Weg des weißen Beleuchtungslichtes angeordnet, um nur zwei schmalbandige Strahlen durchzulassen. Im Einzelnen lässt der Schaltfilter 31c schmalbandiges Beleuchtungslicht einschließlich Licht eines schmalen Bandes TB (beispielsweise 400 nm bis 445 nm) durch, welches im Wellenlängenband HB enthalten ist, und Licht eines schmalen Bandes TG (beispielsweise 530 nm bis 550 nm), welches im Wellenlängenband HG enthalten ist. Die schmalen Bänder TB und TG sind Wellenlängenbänder von blauem Licht bzw. grünem Licht, welches stark absorbiert wird durch das Hämoglobin im Blut. Es reicht aus, wenn das schmale Band TB zumindest 405 nm bis 425 nm enthält. Auf dieses zu emittierende Band eingeschränktes Licht wird als schmalbandiges Beleuchtungslicht bezeichnet und eine Beobachtung des Bildes unter Verwendung des schmalbandigen Beleuchtungslichtes wird als schmalbandiger Abbildungsmodus (NBI) bezeichnet.
  • Die aus einem Schrittmotor, einem Gleichstrommotor oder dergleichen gebildete Antriebseinheit 31d bringt den Schaltfilter 31c in den optischen Weg der Lichtquelle 31a oder bewegt ihn aus dem Weg heraus.
  • Der Antrieb 31e versorgt die Antriebseinheit 31d mit einem vorgegebenen Strom unter Steuerung durch die Beleuchtungssteuerung 32.
  • Die Sammellinse 31f sammelt das durch die Lichtquelle 31a emittierte weiße Beleuchtungslicht oder das schmalbandige Beleuchtungslicht, welches den Schaltfilter 31c passiert, und gibt das weiße Beleuchtungslicht bzw. das schmalbandige Beleuchtungslicht aus der Lichtquelleneinheit 3 heraus (Lichtleiter 203).
  • Die Beleuchtungssteuerung 32 steuert den Typ (das Band) des durch die Beleuchtungseinheit 31 abgegebenen Beleuchtungslichtes durch Steuerung des Lichtquellenantriebs 31b zum Ein- und Ausschalten der Lichtquelle 31a und durch Steuerung des Antriebs 31e zur Platzierung oder Entfernung des Schaltfilters 31c in den bzw. aus dem optischen Pfad der Lichtquelle 31a.
  • Die Beleuchtungssteuerung 32 steuert durch Einführen bzw. Entfernen des Schaltfilters 31c in den bzw. aus dem optischen Weg der Lichtquelle 31a eine Schaltung des von der Beleuchtungseinheit 31 emittierten Beleuchtungslichtes auf das weiße Beleuchtungslicht oder das schmalbandige Beleuchtungslicht. Mit anderen Worten: die Beleuchtungssteuerung 32 steuert durch Umschalten zwischen einem Weißlichtabbildungsmodus (WLI), in welchem das weiße Beleuchtungslicht einschließlich Strahlung in den Wellenlängenbändern HB, HG und HR enthalten ist, und einem schmalbandigen Abbildungsmodus (NBI), in welchem das schmalbandige Beleuchtungslicht verwendet wird, in dem Strahlung der schmalen Bänder TB und TG enthalten ist.
  • 6 zeigt mit einem Graphen die Beziehung zwischen der Wellenlänge und einer Lichtmenge an Beleuchtungslicht, welche durch die Beleuchtungseinheit der Endoskopvorrichtung gemäß dem Ausführungsbeispiel emittiert wird. 7 zeigt mit Graphen die Beziehung zwischen der Wellenlänge des Beleuchtungslichtes und der Transmission des Schaltfilters in der Beleuchtungseinheit der Endoskopvorrichtung gemäß diesem Ausführungsbeispiel. Wird der Schaltfilter 31c aus dem optischen Weg der Lichtquelle 31 unter Steuerung durch die Beleuchtungssteuerung 32 entfernt, emittiert die Beleuchtungseinheit 31 das weiße Beleuchtungslicht einschließlich Strahlung der Wellenlängenbänder HB, HG und HR (siehe 6). Ist andererseits der Schaltfilter 31c im optischen Weg der Lichtquelle 31 unter Steuerung durch die Beleuchtungssteuerung 32 angeordnet, emittiert die Beleuchtungseinheit 31 das schmalbandige Beleuchtungslicht einschließlich Strahlung in den schmalen Bändern TB und TG (siehe 7).
  • Nunmehr wird die Konfiguration des Prozessors 4 näher beschrieben. Der Prozessor 4 hat eine Bildverarbeitungseinheit 41, eine Eingabeeinheit 42, eine Speichereinheit 43 und eine Steuereinheit 44.
  • Die Bildverarbeitungseinheit 41 führt eine vorgegebene Bildverarbeitung auf Basis des Abbildungssignals vom Endoskop 2 (A/D-Wandler 205) aus, um ein Anzeigebildsignal für die Anzeigeeinheit 5 zu erzeugen. Die Bildverarbeitungseinheit 41 hat eine Luminanzkomponentenpixel-Auswahleinheit 411, eine Bewegungsvektordetektionsverarbeitungseinheit 412 (Bewegungsdetektionsverarbeitungseinheit), eine Rauschreduktionsverarbeitungseinheit 413, einen Frame-Speicher (Rahmenspeicher) 414, eine Demosaickingverarbeitungseinheit 415, und eine Anzeigebilderzeugungsverarbeitungseinheit 416.
  • Die Luminanzkomponentenpixel-Auswahleinheit 411 bestimmt die Beleuchtungslicht-Schaltoperation durch die Beleuchtungssteuerung 32, d. h. sie bestimmt, ob das weiße Beleuchtungslicht oder das schmalbandige Beleuchtungslicht der Beleuchtungseinheit 31 als Beleuchtungslicht eingesetzt wird. Die Luminanzkomponentenpixel-Auswahleinheit 411 wählt ein Luminanzkomponentenpixel (ein Pixel, welches Licht einer Luminanzkomponente empfängt) aus, welches von der Bewegungsvektordetektionsverarbeitungseinheit 412 und der Demosaickingverarbeitungseinheit 415 entsprechend dem festgelegten Beleuchtungslicht verwendet wird.
  • Die Bewegungsvektordetektionsverarbeitungseinheit 412 detektiert die Bewegung des Bildes als Bewegungsvektor unter Verwendung eines Präsynchronisationsbildes gemäß dem Bildsignal vom Endoskop 2 (A/D-Wandler 205) und eines Präsynchronisationsbildes, welches unmittelbar zuvor gewonnen wurde, worauf ein Rauschreduktionsverfahren mittels einer Rauschreduktionsverarbeitungseinheit 413 angewandt wird (nachfolgend: ”Zirkularbild”). Bei diesem Ausführungsbeispiel detektiert die Bewegungsvektordetektionsverarbeitungseinheit 412 die Bewegung des Bildes in Form eines Bewegungsvektors unter Verwendung des Präsynchronisationsbildes einer Farbkomponente (Luminanzkomponente) des Luminanzkomponentenpixels, welches durch die Luminanzkomponentenpixelauswahleinheit 411 ausgewählt ist, und des Zirkularbildes. Mit anderen Worten: die Bewegungsvektordetektionsverarbeitungseinheit 412 detektiert die Bewegung des Bildes zwischen dem Präsynchronisationsbild und dem Zirkularbild zu verschiedenen Bildaufnahmezeitpunkten (aufgenommen in Zeitreihenfolge) als der Bewegungsvektor.
  • Die Rauschreduktionsverarbeitungseinheit 413 reduziert eine Rauschkomponente des Präsynchronisationsbildes (Bildsignal) durch gewichtete Mittelwertverarbeitung der Bilder unter Verwendung des Präsynchronisationsbildes und des Zirkularbildes. Das Zirkularbild wird gewonnen durch Ausgabe des im Frame-Speicher 414 gespeicherten Präsynchronisationsbildes. Die Rauschreduzierungsverarbeitungseinheit 413 gibt das Präsynchronisationsbild, bezüglich dessen die Rauschreduktionsverarbeitung erfolgt, an den Frame-Speicher 414 ab.
  • Der Frame-Speicher 414 speichert Bildinformationen bezüglich eines ein Bild formenden Frames (Präsynchronisationsbild). Insbesondere speichert der Frame-Speicher 414 die Informationen bezüglich des Präsynchronisationsbildes, für welches das Rauschreduktionsverfahren durch die Rauschreduktionsverarbeitungseinheit 413 durchgeführt wird. Im Frame-Speicher 414 wird bei einer neuen Erzeugung eines Präsynchronisationsbildes durch die Rauschreduktionsverarbeitungseinheit 413 die Information entsprechend dem neu erzeugten Präsynchronisationsbild aktualisiert. Der Frame-Speicher 414 kann zum Beispiel mit einem Halbleiterspeicher, wie einem Videospeicher mit wahlfreiem Zugriff (VRAM) oder auch als Teil der Speichereinheit 43 realisiert sein.
  • Die Demosaickingverarbeitungseinheit 415 bestimmt eine Interpolationsrichtung aus einer Korrelation von Farbinformationen (Pixelwerten) einer Mehrzahl von Pixeln auf Basis des Bildsignales, für welches die Rauschreduktionsverarbeitungseinheit 413 die Rauschreduktion durchführt, und interpoliert auf Basis der Farbinformationen von Pixeln, welche in der festgestellten Interpolationsrichtung angeordnet sind, wodurch ein Farbbildsignal erzeugt wird. Die Demosaickingverarbeitungseinheit 415 führt eine Interpolation aus bezüglich der Luminanzkomponente auf Basis des Luminanzkomponentenpixels, welches durch die Luminanzkomponentenpixelauswahleinheit 411 ausgewählt ist, und führt sodann die Interpolation bezüglich der Farbkomponente aus, die verschieden ist von der Luminanzkomponente, wodurch das Farbbildsignal erzeugt wird.
  • Die Anzeigebilderzeugungsverarbeitungseinheit 416 führt bezüglich des von der Demosaickingverarbeitungseinheit 415 erzeugten elektrischen Signals eine Gradationskonversion, eine Vergrößerung, eine Hervorhebung für Blutgefäße und Geäder des lebenden Körpers oder dergleichen aus. Die Anzeigebilderzeugungsverarbeitungseinheit 416 führt hierauf eine vorgegebene Verarbeitung aus und gibt dann das Ergebnis als Anzeigebildsignal an die Anzeigeeinheit 5.
  • Die Bildverarbeitungseinheit 41 führt, zusätzlich zu der oben beschriebenen Demosaickingverarbeitung, eine OB-Klemmung, eine Verstärkungseinstellung und dergleichen aus. Bei der OB-Klemmverarbeitung erfolgt eine Korrektur eines Versatzbetrages des Schwarzpegels bezüglich des elektrischen Signals vom Endoskop 2 (A/D-Wandler 205). Bei der Verstärkungseinstellung erfolgt eine Justierung des Helligkeitspegels bezüglich des Signals, für welches die Demosaickingverarbeitung erfolgt.
  • Die Eingabeeinheit 42 ist eine Schnittstelle zur Eingabe in den Prozessor 4 seitens einer Bedienungsperson und enthält einen Leistungsschalter zum Ein- bzw. Ausschalten des Stromes, einen Modus-Umschaltknopf zum Schalten zwischen einem Aufnahmemodus und verschiedenen anderen Modi, einen Beleuchtungslicht-Schaltknopf zum Schalten des Beleuchtungslichtes der Lichtquelle 3 (Aufnahmemodus) und dergleichen.
  • Die Speichereinheit 43 speichert Daten einschließlich unterschiedlicher Programme zum Betrieb des Endoskopvorrichtung 1, unterschiedlicher Parameter für den Betrieb des Endoskopes und dergleichen. Die Speichereinheit 43 kann auch eine Tabelle speichern über Beziehungen zwischen Daten des Endoskopes 2, beispielsweise den spezifischen Informationen (ID) des Endoskopes 2, und Informationen bezüglich der Filteranordnung des Farbfilters 202a. Die Speichereinheit 43 wird beispielsweise realisiert durch einen Halbleiterspeicher, wie ein Flash-Speicher oder einen dynamischen Speicher mit wahlfreiem Zugriff (DRAM).
  • Die Steuereinheit 44 mit der CPU oder dergleichen führt eine Steuerung bezüglich jeder Komponente einschließlich des Endoskopes 2 und der Lichtquelle 3 aus, sowie eine Eingabe-/Ausgabesteuerung für jede Komponente betreffende Daten. Die Steuereinheit 44 überträgt Einstelldaten (beispielsweise bezüglich des auszulesenden Pixels) für die in der Speichereinheit 43 abgelegte Abbildungssteuerung, sowie Zeitfolgesignale bezüglich der Bildaufnahme und dergleichen über eine gegebene Signalleitung zum Endoskop 2. Die Steuereinheit 44 gibt Farbfilterinformationen (Identifikationsinformationen), welche gewonnen werden über die Abbildungsinformationenspeichereinheit 206, an die Bildverarbeitungseinheit 41 sowie Informationen bezüglich der Anordnung des Schaltfilters 31c entsprechend den Farbfilterinformationen an die Lichtquelleneinheit 3.
  • Nunmehr wird die Anzeigeeinheit 5 näher beschrieben. Die Anzeigeeinheit 5 empfängt das mit dem Prozessor 4 erzeugte Anzeigebildsignal über ein Videokabel, um so das in-vivo Bild entsprechend dem Anzeigebildsignal anzuzeigen. Die Anzeigeeinheit 5 wird beispielsweise realisiert durch ein Flüssigkristallsystem, eine organische LED oder dergleichen.
  • Nunmehr wird die durch die einzelnen Einheiten des Prozessors 4 der Endoskopvorrichtung 1 durchgeführte Signalverarbeitung mit Blick auf 8 näher beschrieben. 8 ist ein Blockdiagramm zur Erläuterung der Konfiguration wesentlicher Teile des Prozessors gemäß diesem Ausführungsbeispiel.
  • Die Luminanzkomponentenpixel-Auswahleinheit 411 stellt den Bildaufnahmemodus fest, also den Weißlichtaufnahmemodus oder den schmalbandigen Aufnahmemodus, mit welchem das eingegebene Bildsignal erzeugt ist. Insbesondere stellt die Luminanzkomponentenpixel-Auswahleinheit 411 den Bildaufnahmemodus, in welchem die Erzeugung stattfindet, auf Basis eines Steuersignales von beispielsweise der Steuereinheit 44 fest (beispielsweise mit Informationen bezüglich des Beleuchtungslichtes und des Aufnahmemodus).
  • Wird festgestellt, dass das eingegebene Aufnahmesignal im Weißlichtabbildungsmodus erzeugt ist, wählt die Luminanzkomponentenpixel-Auswahleinheit 411 das G-Pixel als einzustellendes Luminanzkomponentenpixel aus und gibt die eingestellte Einstellinformation an die Bewegungsvektordetektionsverarbeitungseinheit 412 und die Demosaickingverarbeitungseinheit 415. Insbesondere gibt die Luminanzkomponentenpixel-Auswahleinheit 411 Positionsinformationen bezüglich des als Luminanzkomponentenpixel gesetzten G-Pixels, also zum Beispiel Informationen bezüglich der Zeile und der Spalte des G-Pixels, auf Basis der Identifikationsinformation (Informationen bezüglich des Farbfilters 202a) ab.
  • Wird andererseits festgestellt, dass das eingegebene Bildsignal im schmalbandigen Abbildungsmodus erzeugt ist, wählt die Luminanzkomponentenpixel-Auswahleinheit 411 das B-Pixel als einzustellendes Luminanzkomponentenpixel aus und gibt die eingestellte Information an die Bewegungsvektordetektionsverarbeitungseinheit 412 und die Demosaickingverarbeitungseinheit 415.
  • Nunmehr wird die durch die Bewegungsvektordetektionsverarbeitungseinheit 412 und die Rauschreduktionsverarbeitungseinheit 413 ausgeführte Verarbeitung näher beschrieben. 9 zeigt schematisch eine Bewegungsdetektion zwischen zu unterschiedlichen Zeiten aufgenommenen Bildern (Zeit t), wie sie durch die Bewegungsvektordetektionsverarbeitungseinheit gemäß diesem Ausführungsbeispiel ausgeführt wird. Entsprechend 9 detektiert die Bewegungsvektordetektionsverarbeitungseinheit 412 die Bewegung des Bildes zwischen einem ersten Bewegungsdetektionsbild F1 und einem zweiten Bewegungsdetektionsbild F2 als Bewegungsvektor unter Verwendung eines wohlbekannten Block-Angleichungsverfahrens, wobei das erste Bewegungsdetektionsbild F1 auf Basis des Zirkularbildes (”circular image”) und das zweite Bewegungsdetektionsbild F2 auf Basis des zu verarbeitenden Präsynchronisationsbildes eingesetzt werden. Die ersten und zweiten Bewegungsdetektionsbilder F1 und F2 sind Bilder entsprechend Bildsignalen von zwei in der Zeitfolge aufeinanderfolgenden Frames.
  • Die Bewegungsvektordetektionsverarbeitungseinheit 412 hat eine Bewegungsdetektionsbilderzeugungseinheit 412a und eine Block-Abgleichungsverarbeitungseinheit 412b. Die Bewegungsdetektionsbilderzeugungseinheit 412a führt die Interpolation der Luminanzkomponente entsprechend dem durch die Luminanzkomponentenpixel-Auswahleinheit 411 ausgewählten Luminanzkomponentenpixel aus, um die Bewegungsdetektionsbilder (erste und zweite Bewegungsdetektionsbilder F1 und F2) zu erzeugen, zu welchen der Pixelwert oder ein interpolierter Pixelwert (nachfolgend mit ”interpolierter Wert” bezeichnet) der Luminanzkomponente entsprechend jedem Pixel hinzugefügt wird. Die Interpolation erfolgt bezüglich jedes Präsynchronisationsbildes und Zirkularbildes. Das Verfahren der Interpolation kann dem Verfahren der Luminanzkomponentenerzeugungseinheit 415a, welches später näher beschrieben wird, entsprechen.
  • Die Block-Abgleichungsverarbeitungseinheit 412b detektiert unter Verwendung des Block-Abgleichverfahrens für jedes Pixel den Bewegungsvektor aus den Bewegungsdetektionsbildern, welche durch die Bewegungsdetektionsbildererzeugungseinheit 412a erzeugt werden. Insbesondere detektiert die Block-Abgleichungsverarbeitungseinheit 412b eine Position im ersten Bewegungsdetektionsbild F1, worin sich ein Pixel M1 des zweiten Bewegungsdetektionsbildes F2 beispielsweise hin bewegt. Die Bewegungsvektordetektionsverarbeitungseinheit 412 setzt einen Block B1 (kleiner Bereich) um das Pixel M1 als Maske und tastet das erste Bewegungsdetektionsbild F1 entsprechend der Maske des Blockes B1 um das Pixel in der gleichen Position wie die Position des Pixels M1 des zweiten Bewegungsdetektionsbildes F2 im ersten Bewegungsdetektionsbild F1, um ein zentrales Pixel an einer Position als Pixel M1' einzustellen, wo die Summe eines Absolutwertes der Differenzen zwischen den Masken am kleinsten ist. Die Bewegungsvektordetektionsverarbeitungseinheit 412 detektiert einen Bewegungsbetrag Y1 vom Pixel M1 (Pixel f1) zum Pixel M1' im ersten Bewegungsdetektionsbild F1 als Bewegungsvektor und führt diese Verarbeitung bezüglich aller Pixel aus, für welche die Bildverarbeitung ausgeführt wird. Nachfolgend werden Koordinaten des Pixels M1 mit (x, y) bezeichnet und x- und y-Komponenten des Bewegungsvektors in den Koordinaten (x, y) werden mit Vx(x, y) bzw. Vy(x, y) bezeichnet. Werden die Koordinaten des Pixels M1' im ersten Bewegungsdetektionsbild F1 mit (x', y') bezeichnet, dann sind x' bzw. y' durch die nachfolgenden Gleichungen (1) und (2) gegeben. Die Block-Abgleichverarbeitungseinheit 412 gibt Informationen bezüglich des detektierten Bewegungsvektors (einschließlich der Position der Pixel M1 und M1') an die Rauschreduktionsverarbeitungseinheit 413. x' = x + Vx(x, y) (1) y' = y + Vy(x, y) (2)
  • Die Rauschreduktionsverarbeitungseinheit 413 reduziert das Rauschen des Präsynchronisationsbildes durch gewichtete Mittelwertverarbeitung zwischen den Bildern, dem Präsynchronisationsbild und dem Zirkularbild. Nachfolgend wird ein Signal nach der Rauschreduktionsverarbeitung eines Pixels von Interesse, wie dem Pixel M1 (Koordinaten (x, y)), mit Inr(x, y) bezeichnet. Die Rauschreduktionsverarbeitungseinheit 413 greift auf die Bewegungsvektorinformationen zurück, stellt fest, ob ein Referenzpixel entsprechend dem Pixel von Interesse ein Pixel gleicher Farbe ist, und führt eine unterschiedliche Verarbeitung aus für Fälle gleicher Farbe und Fälle unterschiedlicher Farben. Beispielsweise greift die Rauschreduktionsverarbeitungseinheit 413 auf Informationen des im Frame-Speicher 414 gespeicherten Zirkularbildes, um Informationen bezüglich des Pixels M1' (Signalwert und Farbinformationen des Transmissionslichtes) (Koordinaten von M1': (x', y'), als Referenzpixel entsprechend dem Pixel M1, und prüft dann, ob das Pixel M1' die gleiche Farbe hat wie das Pixel M1.
    • 1). Wenn das Pixel von Interesse und das Referenzpixel die gleiche Farbe haben.
  • Haben das Pixel von Interesse (also das untersuchte Pixel) und das Referenzpixel die gleiche Farbe (d. h. die Pixel empfangen Licht der gleichen Farbkomponente), erzeugt die Rauschreduktionsverarbeitungseinheit 413 das Signal Inr(x, y) durch Ausführung einer gewichteten Mittelwertverarbeitung unter Verwendung eines Pixels sowohl des Präsynchronisationsbildes und des Zirkularpixels durch Anwenden der nachfolgenden Gleichung (3). Inr(x, y) = coef × I(x, y) + (1 – coef) × I'(x', y') (3) wobei I(x, y) ein Signalwert des untersuchten Pixels des Präsynchronisationsbildes ist und
    I'(x', y') ein Signalwert des Referenzpixels des Zirkularbildes ist.
  • Der Signalwert enthält den Pixelwert oder den Interpolationswert. Ein Koeffizient coef ist eine willkürliche reelle Zahl, welche die Gleichung 0 < coef < 1 erfüllt. Der Koeffizient coef kann so gewählt werden, dass ein vorgegebener Wert im Voraus eingestellt wird oder dass eine Bedienungsperson über die Eingabeeinheit 42 einen beliebigen Wert einsetzt.
    • 2). Wenn das zu untersuchende Pixel von Interesse und das Referenzpixel verschiedene Farben haben.
  • Haben das zu untersuchende Pixel und das Referenzpixel verschiedene Farben (d. h. es sind Pixel zum Empfang von Licht verschiedener Farbkomponenten), interpoliert die Rauschreduktionsverarbeitungseinheit 413 den Signalwert im Referenzpixel des Zirkularbildes mit einem peripheren Pixels gleicher Farbe. Die Rauschreduktionsverarbeitungseinheit 413 erzeugt das Signal Inr(x, y) nach der Rauschreduktion gemäß beispielsweise der nachfolgenden Gleichung (4).
  • Figure DE112015002169T5_0002
  • Sind I(x, y) und I(x' + i, y' + j) die Signalwerte der Pixel gleicher Farbe, gilt w(x' + i, y' + j) = 1, während dann, wenn I(x, y) und I(x' + i, y' + j) die Signalwerte der Pixel verschiedener Farben sind, die Gleichung w(x' + i, y' + j) = 0 erfüllt ist.
  • In Gleichung (4) ist w() eine Funktion zum Extrahieren des Pixels gleicher Farbe und nimmt den Wert 1 an, wenn das periphere Pixel (x' + i, y' + j) die gleiche Farbe hat wie das zu untersuchende Pixel (x, y), während die Funktion den Wert 0 annimmt, wenn die Farben verschieden sind. K ist ein Parameter zur Einstellung der Größe einer peripheren Region. Der Parameter K nimmt den Wert 1 an bei einem G-Pixel oder einem B-Pixel (K = 1), während der Parameter den Wert 2 annimmt, bei einem R-Pixel (K = 2).
  • Nunmehr wird die Interpolationsverarbeitung durch die Demosaickingverarbeitungseinheit 415 näher beschrieben. Die Demosaickingverarbeitungseinheit 415 erzeugt das Farbbildsignal durch Interpolation auf Basis des Signals (Signal Inr(x, y)), welches gewonnen wird durch den Rauschreduktionsprozess durch die Rauschreduktionsverarbeitungseinheit 413. Die Demosaickingverarbeitungseinheit 415 enthält eine Luminanzkomponentenerzeugungseinheit 415a, eine Farbkomponentenerzeugungseinheit 415b und eine Farbbilderzeugungseinheit 415c. Die Demosaickingverarbeitungseinheit 415 ermittelt die Interpolationsrichtung aus der Korrelation der Farbinformationen (Pixelwerte) einer Mehrzahl von Pixeln auf Basis des Luminanzkomponentenpixels, welcher durch die Luminanzkomponentenpixelauswahleinheit 411 ausgewählt ist, und die Interpolation erfolgt auf Basis der Farbinformationen der Pixel, welche in der ermittelten Interpolationsrichtung angeordnet sind, wodurch das Farbbildsignal erzeugt wird.
  • Die Luminanzkomponentenerzeugungseinheit 415a ermittelt die Interpolationsrichtung mit Hilfe des Pixelwertes, welcher erzeugt wird durch das Luminanzkomponentenpixel, welches durch die Luminanzkomponentenpixelauswahleinheit 411 ausgewählt ist, und interpoliert die Luminanzkomponente bezüglich des von dem Luminanzkomponentenpixel verschiedenen Pixels auf Basis der festgestellten Interpolationsrichtung zur Erzeugung des Bildsignals zur Formung eines Bildes, in welchem jedes Pixel einen Pixelwert hat oder den interpolierten Wert der Luminanzkomponente.
  • Insbesondere ermittelt die Luminanzkomponentenerzeugungseinheit 415a eine Kantenrichtung als Interpolationsrichtung aus einer gut bekannten Luminanzkomponente (Pixelwert) und führt die Interpolation in der Interpolationsrichtung bezüglich eines zu interpolierenden Nicht-Luminanzkomponentenpixels aus. Wird das B-Pixel als Luminanzkomponentenpixel ausgewählt, berechnet beispielsweise die Luminanzkomponentenerzeugungseinheit 415a einen Signalwert B(x, y) der B-Komponente als dem Nicht-Luminanzkomponentenpixel in den Koordinaten (x, y) aus den nachfolgenden Gleichungen (5) bis (7) entsprechend der festgestellten Kantenrichtung.
  • Ist die Änderung der Luminanz in Horizontalrichtung größer als in Vertikalrichtung, stellt die Luminanzkomponentenerzeugungseinheit 415a fest, dass die Vertikalrichtung die Kantenrichtung ist und berechnet den Signalwert B(x, y) mit der nachfolgenden Gleichung (5). B(x, y) = 1 / 2{B(x, y – 1) + B(x, y + 1)} (5)
  • Beim Bestimmen der Kantenrichtung wird eine Richtung nach oben und unten gemäß 3 als Vertikalrichtung genommen und eine Richtung nach links und rechts wird als Horizontalrichtung genommen. Bezüglich der Vertikalrichtung ist eine Richtung nach unten positiv und bezüglich der Links-Rechts-Richtung ist eine Richtung nach rechts positiv.
  • Ist die Änderung der Luminanz in Vertikalrichtung größer als in Horizontalrichtung, stellt die Luminanzkomponentenerzeugungseinheit 415a fest, dass die Horizontalrichtung die Kantenrichtung ist und berechnet den Signalwert B(x, y) mit der nachfolgenden Gleichung (6). B(x, y) = 1 / 2{B(x – 1, y) + B(x + 1, y)} (6)
  • Ist die Differenz der Änderung der Luminanz in Vertikalrichtung und in Horizontalrichtung klein (die Änderung der Luminanz in beiden Richtungen ist flach) stellt die Luminanzkomponentenerzeugungseinheit 415a fest, dass die Kantenrichtung weder die Vertikalrichtung noch die Horizontalrichtung ist und berechnet den Signalwert B(x, y) mit der nachfolgenden Gleichung (7). In diesem Falle berechnet die Luminanzkomponentenerzeugungseinheit 415a den Signalwert B(x, y) durch Verwendung der Signalwerte der Pixel in Vertikalrichtung und in Horizontalrichtung. B(x, y) = 1 / 4{B(x – 1, y) + B(x + 1, y) + B(x, y + 1) + B(x, y – 1)} (7)
  • Die Luminanzkomponentenerzeugungseinheit 415a interpoliert den Signalwert B(x, y) der B-Komponente des Nicht-Luminanzkomponentenpixels mit den obigen Gleichungen (5) bis (7) und erzeugt damit das Bildsignal, in welchem zumindest das bildformende Pixel den Signalwert (Pixelwert oder Interpolationswert) des Signals der Luminanzkomponente hat.
  • Wenn andererseits das G-Pixel als Luminanzkomponentenpixel ausgewählt wird, interpoliert die Luminanzkomponentenerzeugungseinheit 415a zuerst einen Signalwert G(x, y) des G-Signals in dem R-Pixel mit den nachfolgenden Gleichungen (8) bis (10) entsprechend der festgestellten Kantenrichtung. Danach interpoliert die Luminanzkomponentenerzeugungseinheit 415a den Signalwert G(x, y) ähnlich wie den Signalwert B(x, y) (Gleichungen (5) bis (7)).
  • Ist die Änderung der Luminanz in einer Richtung schräg aufwärts größer als in einer Richtung schräg abwärts, stellt die Luminanzkomponentenerzeugungseinheit 415a fest, dass die Richtung schräg abwärts die Kantenrichtung ist und berechnet den Signalwert G(x, y) mit der nachfolgenden Gleichung (8). G(x, y) = 1 / 2{G(x – 1, y – 1) + G(x + 1, y + 1)} (8)
  • Ist die Änderung der Luminanz in einer Richtung schräg abwärts größer als in einer Richtung schräg aufwärts, bestimmt die Luminanzkomponentenerzeugungseinheit 415a, dass die Richtung schräg aufwärts die Kantenrichtung ist und berechnet den Signalwert G(x, y) mit der nachfolgenden Gleichung (9). G(x, y) = 1 / 2{G(x + 1, y – 1) + G(x – 1, y + 1)} (9)
  • Ist die Differenz zwischen der Änderung der Luminanz in Richtung schräg abwärts und der Richtung schräg aufwärts klein (die Änderung der Luminanz in beiden Richtungen ist flach), stellt die Luminanzkomponentenerzeugungseinheit 415a fest, dass die Kantenrichtung weder die Richtung schräg abwärts noch die Richtung schräg aufwärts ist und berechnet den Signalwert G(x, y) durch die nachfolgende Gleichung (10). G(x, y) = 1 / 4{G(x – 1, y – 1) + G(x + 1, y – 1) + G(x – 1, y + 1) + G(x + 1, y + 1)} (10)
  • Das Verfahren zur Interpolation des Signalwertes G(x, y) der G-Komponente (Luminanzkomponente) des R-Pixels in Kantenrichtung (Interpolationsrichtung) (Gleichungen (8) bis (10)) wird nachfolgend näher beschrieben, jedoch ist das Verfahren nicht auf dieses Beispiel beschränkt. Gut bekannte bi-kubische Interpolationen können ebenfalls eingesetzt werden.
  • Die Farbkomponentenerzeugungseinheit 415b interpoliert die Farbkomponente zumindest des das Bild formenden Pixels durch Verwendung der Signalwerte des Luminanzkomponentenpixels und des Farbkomponentenpixels (Nicht-Luminanzkomponentenpixel) zur Erzeugung des ein Bild formenden Bildsignals, wobei jedes Pixel den Wert des Pixels oder den Interpolationswert der Farbkomponente hat. Insbesondere berechnet die Farbkomponentenerzeugungseinheit 415b die Farbdifferenzsignale (R-G und B-G) an Positionen der Nicht-Luminanzkomponentenpixel (B-Pixel und R-Pixel) durch Verwendung des Signals (G-Signal) der Luminanzkomponente (beispielsweise die G-Komponente), welche durch die Luminanzkomponentenerzeugungseinheit 415a interpoliert ist, und führt beispielsweise eine gut bekannte bi-kubische Interpolation aus bezüglich jedes Farbdifferenzsignals. Die Farbkomponentenerzeugungseinheit 415b addiert das G-Signal zum interpolierten Farbdifferenzsignal und interpoliert das R-Signal und das B-Signal für jedes Pixel. Auf diese Weise erzeugt die Farbkomponentenerzeugungseinheit 415b das Bildsignal, welches gewonnen wird durch Addition des Signalwertes (Pixelwert oder interpolierter Wert) der Farbkomponente zu zumindest dem das Bild formenden Pixel durch Interpolation des Signals der Farbkomponente. Mit diesem Verfahren wird eine hochfrequente Komponente der Luminanz der Farbkomponente überlagert und es wird ein Bild mit hoher Auflösung gewonnen. Die Erfindung ist aber nicht hierauf beschränkt; es ist auch möglich, einfach die bi-kubische Interpolation bezüglich des Farbsignals auszuführen.
  • Die Farbbilderzeugungseinheit 415c synchronisiert die Bildsignale der Luminanzkomponente und der Farbkomponente, wie durch die Luminanzkomponentenerzeugungseinheit 415a und die Farbkomponentenerzeugungseinheit 415b erzeugt, und erzeugt das Farbbildsignal einschließlich des Farbbildes (Post-Synchronisationsbild), zu welchem der Signalwert einer RGB-Komponente oder einer GB-Komponente entsprechend jedem Pixel addiert wird. Die Farbbilderzeugungseinheit 415c ordnet die Signale der Luminanzkomponente und der Farbkomponente R-, G-, und B-Kanälen zu. Die Beziehungen zwischen den Kanälen und den Signalen in den Bildaufnahmemodi (WLI und NBI) werden nachfolgend näher beschrieben. Bei dem Ausführungsbeispiel ist das Signal der Luminanzkomponente dem G-Kanal zugeordnet.
    WLI-Modus NBI-Modus
    R-Kanal: R-Signal G-Signal
    G-Kanal: G-Signal B-Signal
    B-Kanal: B-Signal B-Signal
  • Nunmehr wird die Signalverarbeitung durch den Prozessor 4 mit dem obigen Aufbau mit Bezug auf die Figuren näher beschrieben. 10 ist ein Flussdiagramm zur Erläuterung der Signalverarbeitung durch den Prozessor 4 der Endoskopvorrichtung 1 gemäß diesem Ausführungsbeispiel. Wird das elektrische Signal vom Endoskop 2 erhalten, liest die Steuereinheit 44 das Präsynchronisationsbild im elektrischen Signal (Schritt S101). Das elektrische Signal vom Endoskop 2 enthält die durch den Bildsensor 202 erzeugten Präsynchronisationsbilddaten zur Konversion in ein digitales Signal durch den A/D-Wandler 205.
  • Nach Auslesen des Präsynchronisationsbildes greift die Steuereinheit 44 auf die Identifikationsinformationenspeichereinheit 261, um die Steuerinformationen zu gewinnen (beispielsweise Informationen bezüglich des Beleuchtungslichtes (Aufnahmemodus) und Anordnungsinformationen bezüglich des Farbfilters 202a) und gibt entsprechende Daten an die Luminanzkomponentenpixelauswahleinheit 411 (Schritt S102).
  • Die Luminanzkomponentenpixelauswahleinheit 411 bestimmt den Abbildungsmodus entweder als den gewonnenen Weißlichtabbildungsmodus (WLI) oder den schmalbandigen Abbildungsmodus (NBI), gemäß dem das elektrische Signal (ausgelesenes Präsynchronisationsbild) erzeugt wird auf Basis der Steuerinformation, und wählt das Luminanzkomponentenpixel auf Basis dieser Bestimmung aus (Schritt S103). Stellt die Luminanzkomponentenpixelauswahleinheit 411 fest, dass der Modus der WLI-Modus ist, wird das G-Pixel als Luminanzkomponentenpixel ausgewählt, während dann, wenn festgestellt wird, dass der Modus der NBI-Modus ist, das B-Pixel als Luminanzkomponentenpixel ausgewählt wird. Die Luminanzkomponentenpixelauswahleinheit 411 gibt ein Steuersignal bezüglich des ausgewählten Luminanzkomponentenpixels an die Bewegungsvektordetektionsverarbeitungseinheit 412 und an die Demosaickingverarbeitungseinheit 415.
  • Bei Gewinn des Steuersignals bezüglich des Luminanzkomponentenpixels detektiert die Bewegungsvektordetektionsverarbeitungseinheit 412 den Bewegungsvektor auf Basis des Präsynchronisationsbildes und des Zirkularbildes der Luminanzkomponente (Schritt S104). Die Bewegungsvektordetektionsverarbeitungseinheit 412 gibt den detektierten Bewegungsvektor an die Rauschreduktionsverarbeitungseinheit 413.
  • Die Rauschreduktionsverarbeitungseinheit 413 führt die Rauschreduktionsverarbeitung am elektrischen Signal (Präsynchronisationsbild, wie in Schritt S101 ausgelesen) aus unter Verwendung des Präsynchronisationsbildes, des Zirkularbildes und des Bewegungsvektors, wie durch die Bewegungsvektordetektionsverarbeitungseinheit 412 detektiert, aus (Schritt S105). Das elektrische Signal (Präsynchronisationsbild) nach der in Schritt S105 durchgeführten Rauschreduktion wird an die Demosaickingverarbeitungseinheit 415 abgegeben und gespeichert (aktualisiert) im Frame-Speicher 414 als Zirkularbild.
  • Wird das elektronische Signal nach der Rauschreduktion von der Rauschreduktionsverarbeitungseinheit 413 eingegeben, führt die Demosaickingverarbeitungseinheit 415 die Demosaickingverarbeitung auf Basis des elektronischen Signals durch (Schritt S106). Bei der Demosaickingverarbeitung bestimmt die Luminanzkomponentenerzeugungseinheit 415a die Interpolationsrichtung bezüglich der zu interpolierenden Pixel (die von dem Luminanzkomponentenpixel verschiedenen Pixel) unter Verwendung des durch den Pixelsatz erzeugten Pixelwertes als Luminanzkomponentenpixel und interpoliert die Luminanzkomponente des Pixels auf Basis der festgestellten Interpolationsrichtung zur Erzeugung des ein Bild formenden Bildsignales, in welchem jedes Pixel den Pixelwert oder den interpolierten Wert der Luminanzkomponente hat. Danach erzeugt die Farbkomponentenerzeugungseinheit 415b das ein Bild erzeugende Bildsignal für jede Farbkomponente auf Basis des Pixelwertes und des interpolierten Wertes der Luminanzkomponente und den Pixelwert des von dem Luminanzkomponentenpixel verschiedenen Pixels.
  • Ist das Bildsignal für jede Farbkomponente durch die Farbkomponentenerzeugungseinheit 415b erzeugt, erzeugt die Farbbilderzeugungseinheit 415c das das Farbbild erzeugende Farbbildsignal mit dem Bildsignal jeder Farbkomponente (Schritt S107). Die Farbbilderzeugungseinheit 415c erzeugt das Farbbildsignal unter Verwendung der Bildsignale der roten Komponente, der grünen Komponente und der blauen Komponente im WLI-Modus und erzeugt das Farbbildsignal unter Verwendung der Bildsignale der grünen Komponente und der blauen Komponente im NBI-Modus.
  • Ist das Farbbildsignal durch die Demosaickingverarbeitungseinheit 415 erzeugt, führt die Anzeigebilderzeugungsverarbeitungseinheit 416 die Gradationskonversion aus, sowie die Vergrößerung und dergleichen bezüglich des Farbbildsignals zur Erzeugung des Anzeigebildsignals für die Anzeige (Schritt S108). Die Anzeigebilderzeugungsverarbeitungseinheit 416 führt eine vorgegebene Verarbeitung aus und gibt danach das Ergebnis als Anzeigebildsignal an die Anzeigeeinheit 5.
  • Ist das Anzeigebildsignal durch die Anzeigebilderzeugungsverarbeitungseinheit 416 erzeugt, erfolgt eine Bildanzeigeverarbeitung entsprechend dem Anzeigebildsignal (Schritt S109). Das Bild entsprechend dem Anzeigebildsignal wird mit der Anzeigebildverarbeitung auf der Anzeigeeinheit 5 dargestellt.
  • Nach der Erzeugung und der Bilddarstellung des Anzeigebildsignals durch die Anzeigebilderzeugungsverarbeitungseinheit 416 prüft die Steuereinheit 44, ob das Bild ein Endbild ist oder nicht (Schritt S110). Die Steuereinheit 44 beendet das Verfahren, wenn die Verarbeitungsreihe für alle Bilder abgeschlossen ist (Schritt S110: Ja), oder geht zu Schritt S101 zur fortgesetzten Ausführung entsprechender Verarbeitungen, wenn ein noch nicht verarbeitetes Bild verbleibt (Schritt S110: Nein).
  • Obwohl beschrieben wurde, dass jede den Prozessor 4 bildende Einheit eine Hardwarekomponente ist, jedoch ist es auch möglich, die CPU so zu konfigurieren, dass die Funktion jeder Einheit für die obigen Prozesse durch Software ausgeführt wird. Beispielsweise kann die CPU über Software die Signalverarbeitung bezüglich des gewonnenen Bildes vorab ausführen, welches durch den Bildsensor des Kapselendoskops oder dergleichen gewonnen wird. Auch kann ein Teil der jeweiligen Prozesse der einzelnen Funktionseinheiten durch Software ausgeführt werden. In solchen Fällen führt die CPU die Signalverarbeitung entsprechend dem obigen Flussdiagramm aus.
  • Beim obigen Ausführungsbeispiel sind beim auf dem Bildsensor 202 angeordneten Farbfilter 202a die Filter abwechselnd wiederholend in der Filtereinheit U1 angeordnet, wobei die Anzahl der B-Filter und der G-Filter größer ist als die Anzahl der R-Filter im grundlegenden Muster, so dass ein Bild mit hoher Auflösung sowohl im Weißlichtabbildungsmodus als auch im Schmalbandabbildungsmodus gewonnen werden kann.
  • Beim obigen Ausführungsbeispiel ist es möglich, die Bewegung zwischen den Bildern mit einer hohen Genauigkeit zu detektieren, unabhängig vom Abbildungsmodus (NBI-Modus oder WLI-Modus), durch angepasste Umschaltung des Bewegungsvektorsdetektionsprozesses durch die Bewegungsvektordetektionsverarbeitungseinheit 412 entsprechend dem Abbildungsmodus. Insbesondere wird das G-Pixel, mit dem das Blutgefäß und die Äderungen des lebenden Körpers klar dargestellt werden, als Luminanzkomponentenpixel im WLI-Modus ausgewählt und der Bewegungsvektor zwischen den Bildern wird detektiert unter Verwendung des G-Pixels. Andererseits wird im NBI-Modus das B-Pixel, mit welchem das Blutgefäß und die Äderung auf der Oberflächenschicht des lebenden Körpers klar dargestellt werden, als Luminanzkomponentenpixel ausgewählt und der Bewegungsvektor wird unter Verwendung des B-Pixels detektiert. Durch Verwendung des durch eine solche Auswahl des Luminanzkomponentenpixels gewonnenen präzisen Bewegungsvektors kann eine Rauschreduktion durchgeführt werden, mit welcher Störbilder vermieden und Bilder hoher Auflösung gewonnen werden können.
  • Beim obigen Ausführungsbeispiel kann die Umschaltung der Demosaickingverarbeitung entsprechend dem Abbildungsmodus die Auflösung weiter verbessern. Insbesondere wird das G-Pixel als Luminanzkomponentenpixel im WLI-Modus ausgewählt und die Interpolation in Kantenrichtung wird bezüglich des G-Pixels durchgeführt. Das G-Signal wird hinzugefügt nach der Interpolation der Farbdifferenzsignale (R-G und B-G) und die Hochfrequenzkomponente des G-Signals wird der Farbkomponente überlagert. Andererseits wird das B-Pixel als Luminanzkomponentenpixel in dem NBI-Modus ausgewählt und die Interpolation in Kantenrichtung wird mit dem B-Pixel ausgeführt. Das B-Signal wird hinzugefügt nach der Interpolation bezüglich des Farbdifferenzsignals (G-B) und die Hochfrequenzkomponente des B-Signals wird der Farbkomponente überlagert. Mit der beschriebenen Konfiguration kann die Auflösung im Vergleich zu der bekannten bi-kubischen Interpolation verbessert werden. Gemäß der Konfiguration des Ausführungsbeispiels wird das Rauschen des für die Demosaickingverarbeitung verwendeten elektrischen Signals durch die Rauschreduktionsverarbeitungseinheit 413 reduziert, und zwar in einer vorangehenden Stufe der Demosaickingverarbeitungseinheit 415, so dass die Genauigkeit bei der Bestimmung der Kantenrichtung verbessert ist.
  • (Erste Abwandlung)
  • 11 zeigt schematisch eine Konfiguration eines Farbfilters gemäß einer ersten Abwandlung des Ausführungsbeispiels. Der Farbfilter gemäß der ersten Abwandlung ist so gestaltet, dass Filtereinheiten U2, von denen jede aus neun Filtern in einer 3×3-Matrix geformt ist, zweidimensional angeordnet sind. Die Filtereinheit U2 ist gebildet aus vier B-Filtern, fünf G-Filtern und einem R-Filter. In der Filtereinheit U2 sind diejenigen Filter, welche Licht eines Wellenlängenbandes gleicher Farbe durchlassen (gleiche Farbfilter) so angeordnet, dass sie in Zeilenrichtung und Spaltenrichtung nicht einander benachbart sind.
  • Die Filtereinheit U2 ist so gestaltet, dass die Anzahlen der B-Filter und der G-Filter nicht kleiner ist als ein Drittel der Gesamtzahl der Filter (hier: neun), welche die Filtereinheit U2 bilden, und die Anzahl der R-Filter ist kleiner als ein Drittel der Gesamtzahl der Filter. In einem Farbfilter 202a (Filtereinheit U2) formt eine Mehrzahl von B-Filtern einen Teil eines Schachbrettmusters.
  • (Zweite Abwandlung)
  • 12 zeigt schematisch eine Konfiguration eines Farbfilters gemäß einer zweiten Abwandlung des obigen Ausführungsbeispiels. Der Farbfilter gemäß der zweiten Abwandlung ist so gestaltet, dass Filtereinheiten U3, von denen jede aus sechs Filtern in 2×3-Matrixanordnung geformt ist, zweidimensional angeordnet sind. Eine Filtereinheit U3 wird gebildet aus drei B-Filtern, zwei G-Filtern und einem R-Filter. In der Filtereinheit U3 sind diejenigen Filter, welche Licht eines Wellenlängenbandes gleicher Farbe durchlassen (gleiche Farbfilter) so angeordnet, dass sie in Spaltenrichtung und Zeilenrichtung nicht benachbart sind.
  • Die Filtereinheit U3 ist so gestaltet, dass die Anzahlen der B-Filter und der G-Filter nicht kleiner ist als ein Drittel der Gesamtzahl der Filter (sechs), welche die Filtereinheit U3 formen, während die Anzahl der R-Filter kleiner ist als ein Drittel der Gesamtzahl der Filter.
  • (Dritte Abwandlung)
  • 13 zeigt schematisch eine Konfiguration eines Farbfilters gemäß einer dritten Abwandlung des Ausführungsbeispiels. Der Farbfilter gemäß der dritten Abwandlung ist so gestaltet, dass Filtereinheiten U4, von denen jede aus zwölf Filtern in einer 2×6-Matrixanordnung geformt ist, zweidimensional angeordnet sind. Eine Filtereinheit U4 ist durch sechs B-Filter, vier G-Filter und zwei R-Filter gebildet. In der Filtereinheit U4 sind diejenigen Filter, welche Licht eines Wellenlängenbandes gleicher Farbe (gleiche Farbfilter) durchlassen, so angeordnet, dass sie einander in Zeilenrichtung und in Spaltenrichtung nicht benachbart sind, wobei mehrere B-Filter in einem Zick-Zack-Muster angeordnet sind.
  • Die Filtereinheit U4 ist so gestaltet, dass die Anzahlen der B-Filter und der G-Filter nicht kleiner ist als ein Drittel der Gesamtzahl der Filter (12), welche die Filtereinheit U4 bilden, wobei die Anzahl der R-Filter kleiner ist als ein Drittel der Gesamtzahl der Filter. In dem Farbfilter 202a (Filtereinheit U4) sind eine Mehrzahl von B-Filtern schachbrettartig angeordnet.
  • Der Farbfilter 202a gemäß dem obigen Ausführungsbeispiel kann so gestaltet sein, dass die Anzahl der B-Filter, welche Licht des Wellenlängenbandes HB durchlassen, und die Anzahl der G-Filter, welche Licht des Wellenlängenbandes HG durchlassen, größer ist als die Anzahl der R-Filter, welche Licht des Wellenlängenbandes HR in der Filtereinheit durchlassen; diese Bedingung kann zusätzlich zu den obigen Anordnungsmerkmalen gelten. Die oben beschriebenen Filtereinheiten haben Filter in Anordnungen gemäß einer 4×4-Matrix, einer 3×3-Matrix, einer 2×3-Matrix oder einer 2×6-Matrix, jedoch ist die Anzahl der Zeilen und Spalten nicht auf solche Beispiele beschränkt.
  • Zwar ist der Farbfilter 202a mit einer Vielzahl von Filtern, von denen jeder Licht eines vorgegebenen Wellenlängenbandes durchlässt, bei den obigen Ausführungsbeispielen auf der Lichtempfangsfläche des Bildsensors 202 angeordnet, jedoch kann auch jeder Filter individuell auf jedem Pixel des Bildsensors 202 angeordnet sein.
  • Die Endoskopvorrichtung 1 gemäß dem obigen Ausführungsbeispiel schaltet das von der Beleuchtungseinheit 31 emittierte Beleuchtungslicht zwischen dem weißen Beleuchtungslicht und dem schmalbandigen Beleuchtungslicht durch Einfügen/Entfernen des Schaltfilters 31c bezüglich des von einer Lichtquelle 31a emittierten weißen Beleuchtungslichtes zwar um, jedoch ist es auch möglich, zwischen zwei Lichtquellen umzuschalten, welche das weiße Beleuchtungslicht bzw. das schmalbandige Beleuchtungslicht emittieren. Werden zwei Lichtquellen geschaltet zur Emission des weißen Beleuchtungslichtes oder des schmalbandigen Beleuchtungslichtes, ist es auch möglich, ein Kapselendoskop mit der Lichtquelleneinheit mit dem Farbfilter und dem Bildsensor etc. zu versehen.
  • Beim obigen Ausführungsbeispiel ist der A/D-Wandler 205 zwar am distalen Endabschnitt 24 der Endoskopvorrichtung 1 angeordnet, jedoch kann diese Anordnung auch am Prozessor 4 erfolgen. Die Konfiguration bezüglich der Bildverarbeitung kann auch erfolgen mit dem Endoskop 2, einem Verbinder zwischen dem Endoskop 2 und dem Prozessor 4 und der Betriebseinheit 22. Beim Beispiel wird das an den Prozessor 4 angeschlossene Endoskop 2 identifiziert mit der in der Identifikationsinformationsspeichereinheit 261 in der oben beschriebenen Endoskopvorrichtung 1 abgespeicherten Identifikationsinformation, jedoch ist es auch möglich, eine Identifikationseinheit an einem Verbindungsteil (Konnektor) zwischen Prozessor 4 und Endoskop 2 vorzusehen. Beispielsweise kann ein Stift für die Identifikation am Endoskop 2 vorgesehen sein zur Identifikation des an den Prozessor 4 angeschlossenen Endoskops.
  • Beim Ausführungsbeispiel wird zwar der Bewegungsvektor nach der Synchronisation bezüglich der Luminanzkomponente durch die Bewegungsdetektionsbilderzeugungseinheit 412a detektiert, jedoch ist die Erfindung nicht hierauf beschränkt. Als ein anderes Verfahren kann der Bewegungsvektor aus dem Luminanzsignal (Pixelwert) vor der Synchronisation detektiert werden. Erfolgt dabei eine Anpassung zwischen den Pixeln gleicher Farbe, kann der Pixelwert nicht von einem vom Luminanzkomponentenpixel verschiedenen Pixel (Nicht-Luminanzkomponentenpixel) gewonnen werden, so dass das Anpassungsintervall beschränkt ist; jedoch kann der Betriebsaufwand für die Blockanpassung reduziert werden. Dabei wird der Bewegungsvektor nur für das Luminanzkomponentenpixel detektiert, so dass es erforderlich ist, den Bewegungsvektor bezüglich des Nicht-Luminanzkomponentenpixels zu interpolieren. Für die Interpolation kann dabei das gut bekannte bi-kubische Interpolationsverfahren verwendet werden.
  • Beim obigen Ausführungsbeispiel erfolgt die Rauschreduktion bezüglich des Präsynchronisationsbildes zwar vor der Demosaickingverarbeitung durch die Demosaickingverarbeitungseinheit 415, jedoch ist es auch möglich, dass die Rauschreduktionsverarbeitungseinheit 413 die Rauschreduktion bezüglich des Farbbildes ausführt, welches von der Demosaickingverarbeitungseinheit 415 ausgegeben wird. Da in diesem Fall alle Referenzpixel die gleichen Farbpixel sind, ist eine arithmetische Verarbeitung gemäß Gleichung (4) nicht erforderlich und es ist damit möglich, den Rechenaufwand für die Rauschreduktion zu reduzieren.
  • Industrielle Anwendbarkeit
  • Wie oben beschrieben, ist die erfindungsgemäße Endoskopvorrichtung nützlich für die Gewinnung von Bildern mit hoher Auflösung sowohl im Weißlichtbeleuchtungsmodus als auch im Schmalbandbeleuchtungsmodus.
  • Bezugszeichenliste
  • 1
    Endoskopvorrichtung
    2
    Endoskop
    3
    Lichtquelleneinheit
    4
    Prozessor
    5
    Anzeigeeinheit
    21
    Einführabschnitt
    22
    Betätigungseinheit
    23
    Universalverbinder
    24
    distaler Endabschnitt
    31
    Beleuchtungseinheit
    31a
    Lichtquelle
    31b
    Lichtquellenantrieb
    31c
    Schaltfilter
    31d
    Antriebseinheit
    31e
    Antrieb
    31f
    Sammellinse
    32
    Beleuchtungssteuerung
    41
    Bildverarbeitungseinheit
    42
    Eingabeeinheit
    43
    Speichereinheit
    44
    Steuereinheit
    201
    optisches Abbildungssystem
    202
    Bildsensor
    202a
    Farbfilter
    203
    Lichtleiter
    204
    Beleuchtungslinse
    205
    Analog/Digital-Wandler
    206
    Bildinformationsspeichereinheit
    261
    Identifikationsinformationsspeichereinheit
    411
    Luminanzkomponentenpixelauswahleinheit
    412
    Bewegungsvektordetektionsverarbeitungseinheit (Bewegungsdetektionsverarbeitungseinheit)
    412a
    Bewegungsdetektionsbildverarbeitungseinheit
    412b
    Blockanpassungsverarbeitungseinheit
    413
    Rauschreduktionsverarbeitungseinheit
    414
    Frame-Speicher
    415
    Demosaickingverarbeitungseinheit
    415a
    Luminanzkomponentenerzeugungseinheit
    415b
    Farbkomponentenerzeugungseinheit
    415c
    Farbbilderzeugungseinheit
    416
    Anzeigebilderzeugungsverarbeitungseinheit
    U1 bis U4
    Filtereinheit

Claims (9)

  1. Endoskopvorrichtung, aufweisend: eine Lichtquelleneinheit, eingerichtet zur Emission von weißem Beleuchtungslicht einschließlich Lichtstrahlen aus roten, grünen und blauen Wellenlängenbändern, oder zur Emission von schmalbandigem Beleuchtungslicht mit schmalbandigem Licht in jedem der blauen und grünen Wellenlängenbänder; einen Bildsensor mit einer Mehrzahl von Pixeln in Matrix-Anordnung und eingerichtet für eine fotoelektrische Konversion von durch jedes der Mehrzahl von Pixeln empfangenem Licht zur Erzeugung eines elektrischen Signals; und einen Farbfilter mit einer Mehrzahl von Filtereinheiten auf einer Lichtempfangsfläche des Bildsensors, wobei jede Filtereinheit aus blauen Filtern zum Durchlassen des Lichtes des blauen Wellenlängenbandes, grünen Filtern zum Durchlassen des Lichtes des grünen Wellenlängenbandes und roten Filtern zum Durchlassen des Lichtes des roten Wellenlängenbandes gebildet ist, und wobei die Anzahl der blauen Filter und die Anzahl der grünen Filter größer ist als die Anzahl der roten Filter.
  2. Endoskopvorrichtung gemäß Anspruch 1, bei der jede der Filtereinheiten so konfiguriert ist, dass die Anzahl der blauen Filter und die Anzahl der grünen Filter nicht kleiner ist als ein Drittel einer Gesamtzahl der Filter, die jede der Filtereinheiten bilden, und die Anzahl der roten Filter kleiner ist als ein Drittel der Gesamtzahl der Filter.
  3. Endoskopvorrichtung gemäß Anspruch 1, bei der die blauen Filter zumindest teilweise ein Schachbrettmuster bilden.
  4. Endoskopvorrichtung gemäß Anspruch 1, weiterhin aufweisend: eine Luminanzkomponentenpixelauswahleinheit, eingerichtet zur Auswahl eines Luminanzkomponentenpixels zum Empfang von Licht einer Luminanzkomponente aus der Mehrzahl von Pixeln entsprechend dem Typ des durch die Lichtquelleneinheit emittierten Beleuchtungslichtes; und eine Demosaickingverarbeitungseinheit, eingerichtet zur Erzeugung eines Farbbildsignals mit einer Mehrzahl von Farbkomponenten auf Basis des durch die Luminanzkomponentenpixelauswahleinheit ausgewählten Luminanzkomponentenpixels.
  5. Endoskopvorrichtung gemäß Anspruch 4, bei der die Luminanzkomponentenpixelauswahleinheit eingerichtet ist: zur Selektion eines Pixels als Luminanzkomponentenpixel zum Empfang des Lichtes durch das grüne Filter, wenn die Lichtquelleneinheit das weiße Beleuchtungslicht emittiert; und zur Selektion eines Pixels als Luminanzkomponentenpixel zum Empfang des Lichtes durch das blaue Filter, wenn die Lichtquelleneinheit das schmalbandige Beleuchtungslicht emittiert.
  6. Endoskopvorrichtung gemäß Anspruch 4, bei der die Demosaickingverarbeitungseinheit aufweist: eine Luminanzkomponentenerzeugungseinheit, eingerichtet zur Interpolation einer Luminanzkomponente eines Pixels, welches verschieden ist vom Luminanzkomponentenpixel, auf Basis eines Pixelwertes des Luminanzkomponentenpixels, welches durch die Luminanzkomponentenpixelauswahleinheit ausgewählt ist, um so ein Bildsignal der Luminanzkomponente zu erzeugen, und eine Farbkomponentenerzeugungseinheit, eingerichtet zur Interpolation einer Farbkomponente, die verschieden ist von der Luminanzkomponente auf Basis der durch die Luminanzkomponentenerzeugungseinheit erzeugten Luminanzkomponente, um so ein Bildsignal der Farbkomponente zu erzeugen.
  7. Endoskopvorrichtung gemäß Anspruch 1, weiterhin aufweisend: eine Luminanzkomponentenpixelauswahleinheit, eingerichtet zum Auswählen eines Luminanzkkomponentenpixels zum Empfang von Licht der Luminanzkomponente aus der Mehrzahl von Pixeln entsprechend dem Typ des von der Lichtquelleneinheit emittierten Beleuchtungslichtes; und eine Bewegungsdetektionsverarbeitungseinheit, eingerichtet zur Bewegungsdetektion eines aufgenommenen Bildes, welches erzeugt ist auf Basis des durch die Pixel in zeitlichem Ablauf erzeugten elektrischen Signals, wobei das elektrische Signal aus der durch die Luminanzkomponentenpixelauswahleinheit ausgewählte Luminanzkomponente ist.
  8. Endoskopvorrichtung gemäß Anspruch 7, bei der die Luminanzkomponentenpixelauswahleinheit eingerichtet ist für: eine Auswahl eines Pixels als Luminanzkomponentenpixel zum Empfang des Lichtes durch das grüne Filter, wenn die Lichtquelleneinheit das weiße Beleuchtungslicht emittiert; und eine Auswahl eines Pixels als Luminanzkomponentenpixel zum Empfang des Lichtes durch das blaue Filter, wenn die Lichtquelleneinheit schmalbandiges Beleuchtungslicht emittiert.
  9. Endoskopvorrichtung gemäß Anspruch 7, weiterhin aufweisend eine Rauschreduktionsverarbeitungseinheit, eingerichtet zur Reduktion einer Rauschkomponente im aufgenommenen Bild auf Basis der durch die Bewegungsdetektionsverarbeitungseinheit detektierten Bewegung.
DE112015002169.8T 2014-06-16 2015-02-05 Endoskopvorrichtung Withdrawn DE112015002169T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014123403A JP6346501B2 (ja) 2014-06-16 2014-06-16 内視鏡装置
JP2014-123403 2014-06-16
PCT/JP2015/053245 WO2015194204A1 (ja) 2014-06-16 2015-02-05 内視鏡装置

Publications (1)

Publication Number Publication Date
DE112015002169T5 true DE112015002169T5 (de) 2017-01-19

Family

ID=54935204

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015002169.8T Withdrawn DE112015002169T5 (de) 2014-06-16 2015-02-05 Endoskopvorrichtung

Country Status (5)

Country Link
US (1) US20170055816A1 (de)
JP (1) JP6346501B2 (de)
CN (1) CN106455949A (de)
DE (1) DE112015002169T5 (de)
WO (1) WO2015194204A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117036A1 (ja) * 2015-01-20 2016-07-28 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
JP6630895B2 (ja) * 2016-02-18 2020-01-15 キヤノン株式会社 信号処理装置及び画像ノイズ低減方法
CN111295124B (zh) * 2017-11-09 2023-02-28 奥林巴斯株式会社 内窥镜系统、内窥镜图像的生成方法和处理器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0796005B2 (ja) * 1987-10-27 1995-10-18 オリンパス光学工業株式会社 内視鏡装置
JP3268891B2 (ja) * 1992-08-14 2002-03-25 オリンパス光学工業株式会社 内視鏡撮像装置
US20060232668A1 (en) * 2005-04-18 2006-10-19 Given Imaging Ltd. Color filter array with blue elements
JP5191090B2 (ja) * 2005-07-15 2013-04-24 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP4717103B2 (ja) * 2008-07-18 2011-07-06 オリンパス株式会社 信号処理システム及び信号処理プログラム
US20100220215A1 (en) * 2009-01-12 2010-09-02 Jorge Rubinstein Video acquisition and processing systems
US20110080506A1 (en) * 2009-10-07 2011-04-07 Ping-Kuo Weng Image sensing device and system
JP5554253B2 (ja) * 2011-01-27 2014-07-23 富士フイルム株式会社 電子内視鏡システム
JP2011177532A (ja) * 2011-05-02 2011-09-15 Olympus Medical Systems Corp 内視鏡装置
EP2769665A4 (de) * 2012-05-01 2015-08-26 Olympus Medical Systems Corp Endoskopvorrichtung
US10210599B2 (en) * 2013-08-09 2019-02-19 Intuitive Surgical Operations, Inc. Efficient image demosaicing and local contrast enhancement

Also Published As

Publication number Publication date
US20170055816A1 (en) 2017-03-02
CN106455949A (zh) 2017-02-22
JP6346501B2 (ja) 2018-06-20
JP2016002188A (ja) 2016-01-12
WO2015194204A1 (ja) 2015-12-23

Similar Documents

Publication Publication Date Title
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE112015005595T5 (de) Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
DE4136034C2 (de)
US5751340A (en) Method and apparatus for reducing the inherently dark grid pattern from the video display of images from fiber optic bundles
DE60007052T2 (de) Chirurgisches Gerät mit eingebautem Bildsensor
DE112015002905T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopsystem
DE112015005531T5 (de) Bildverarbeitungsvorrichtung, Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, Programm zum Betreiben einer Bildverarbeitungsvorrichtung und Endoskopeinrichtung
DE10101064B4 (de) Elektronisches Endoskopsystem
DE102004006260B4 (de) Videoendoskopeinrichtung
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE112017001293T5 (de) Endoskop, vorrichtung zur bildverarbeitung, verfahren zur bildverarbeitung und programm
DE112014007038T5 (de) Endoskopvorrichtung
CN107205629B (zh) 图像处理装置和摄像系统
DE10345418A1 (de) Diagnoseunterstützungsvorrichtung
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112016000094B4 (de) Vorrichtung zur Berechnung von Analysewerten und elektronisches Endoskopsystem
DE112015006389T5 (de) Bildgebungsvorrichtung
DE112015002169T5 (de) Endoskopvorrichtung
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
DE112015005326T5 (de) Endoskopvorrichtung
DE112020001352T5 (de) Endoskopsystem
DE112017002933B4 (de) Elektronische Endoskopverarbeitungseinrichtung und elektronisches Endoskopsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee