DE112015005595T5 - Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung - Google Patents

Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung Download PDF

Info

Publication number
DE112015005595T5
DE112015005595T5 DE112015005595.9T DE112015005595T DE112015005595T5 DE 112015005595 T5 DE112015005595 T5 DE 112015005595T5 DE 112015005595 T DE112015005595 T DE 112015005595T DE 112015005595 T5 DE112015005595 T5 DE 112015005595T5
Authority
DE
Germany
Prior art keywords
light
motion detection
image
pixel
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015005595.9T
Other languages
English (en)
Inventor
Jumpei Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE112015005595T5 publication Critical patent/DE112015005595T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Eine Bildverarbeitungsvorrichtung gemäß der vorliegenden Erfindung umfasst: eine Bewegungserfassungsbilderzeugungseinheit (411), die dafür konfiguriert ist, Mittelungsverarbeitung auf Pixelwerten von Pixeln auszuführen, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen und die Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart zu erzeugen, dass bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und eine Bewegungserfassungsverarbeitungseinheit (412), die dafür konfiguriert ist, auf Grundlage der Bewegungserfassungsbilder die Bewegung zwischen zwei der Bewegungserfassungsbilder zu erfassen, die auf Grundlage der aufgenommenen Bilder zu den unterschiedlichen Zeitpunkten erzeugt werden.

Description

  • Gebiet
  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung zum Ausführen von Signalverarbeitung auf einem Abbildungssignal, das von einem Bildsensor erzeugt wird, um ein Bildsignal zu erzeugen. Die vorliegende Erfindung betrifft auch ein Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, ein Programm zum Bedienen der Bildverarbeitungsvorrichtung und eine Endoskopvorrichtung, die die Bildverarbeitungsvorrichtung umfasst.
  • Hintergrund
  • In der verwandten Technik wurden Endoskopvorrichtungen umfassend für verschiedene Tests auf dem medizinischen Gebiet und dem industriellen Gebiet verwendet. Von diesen sind Endoskopvorrichtungen für medizinische Zwecke beliebt, da sie In-vivo-Bilder eines Subjekts ohne die Notwendigkeit eines Einschnitts in den Patienten erlangen können durch Einführung einer länglichen, biegbaren Einführeinheit, die mit einem Bildsensor vorgesehen ist, der eine Mehrzahl von Pixeln an einem distalen Ende davon umfasst, in das Subjekt, wie beispielsweise einen Patienten, wodurch die Belastung des Subjekts reduziert wird.
  • Als Bildgebungsverfahren solcher Endoskopvorrichtungen sind Weißlichtbildgebung (WLI) unter Verwendung von Weißbeleuchtungslicht und Schmalbandbildgebung (NBI) unter Verwendung von Beleuchtungslicht, das aus zwei Typen von Schmalbandlicht gebildet ist (Schmalbandbeleuchtungslicht), die jeweils in einem blauen und einem grünen Wellenlängenband enthalten sind, bereits umfassend bekannt in dem betroffenen technischen Gebiet. Betrachtet man solche Bildgebungsverfahren von Endoskopvorrichtungen, ist es wünschenswert, die Beobachtung auszuführen, während man zwischen der Weißlichtbildgebung (WLI-Modus) und der Schmalbandbildgebung (NBI-Modus) wechselt. Der WLI-Modus hat Eigenschaften, dass für die Diagnose wichtige biologische Strukturen (Blutgefäße, Schleimhäute etc.) durch ein Signal einer grünen Komponente dargestellt werden (G-Signal). Im Gegensatz dazu hat der NBI-Modus Eigenschaften, dass biologische Strukturen durch ein Signal einer blauen Komponente angezeigt werden (B-Signal).
  • Um ein Farbbild durch das vorstehend beschriebene Bildgebungsverfahren zu erzeugen und anzuzeigen, ist ein Farbfilter, wo eine Mehrzahl von Filtern in einer Matrixform in der Einheit einer Filteranordnung angeordnet ist, die allgemein als eine Bayer-Matrix bezeichnet wird, auf einer Licht-empfangenden Fläche eines Bildsensors vorgesehen, um ein von dem Bildsensor einer Einzelplatte aufgenommenes Bild zu erlangen. Die Bayer-Matrix ist durch Anordnen von vier Filtern gebildet, durch die Licht von Wellenlängenbändern von Rot (R), Grün (G), Grün (G), und Blau (B) entsprechend in 2×2 passiert, wobei die G-Filter zur Passage von Licht eines grünen Wellenlängenbands diagonal angeordnet sind. Jedes der Pixel empfängt Licht eines Wellenlängenbands, das den Filter passiert, und der Bildsensor erzeugt ein elektrisches Signal einer Farbkomponente, die einer Farbe dieses Wellenlängenbands entspricht.
  • Als eine Technik zur Reduzierung von in einem Farbbild enthaltenem Rauschen, ist eine Bildverarbeitungsvorrichtung bekannt, die einen Bewegungsvektor zwischen zeitlich kontinuierlichen Bildern erfasst und das Rauschen in dem Bild gemäß dem erfassten Bewegungsvektor reduziert (siehe beispielsweise Patentliteratur 1).
  • Als eine Technik zur Erfassung eines Bewegungsvektors zwischen Bildern, die unter Verwendung eines Bildsensors erzeugt werden, der einen Farbfilter der Bayer-Matrix umfasst, wird eine Bewegungsvektorerfassungsvorrichtung verwendet, die einen Bewegungsvektor unter Verwendung eines Luminanzsignals (Y-Signal) erfasst, das durch Ableiten eines arithmetischen Mittels von vier von der Bayer-Matrix erzeugten Farbsignalen erzeugt wird (siehe beispielsweise Patentliteratur 2).
  • Literaturliste
  • Patentliteratur
    • Patentliteratur 1: JP 2005-150903 A
    • Patentliteratur 2: Japanische Patent-Nr. 4630174
  • Kurzbeschreibung
  • Technisches Problem
  • Wenn ein Bewegungsvektor durch die in Patentliteratur 2 offenbarte Technik erfasst wird, wird ein Bildsensor einer Bayer-Matrix verwendet, wo ein Verhältnis von Pixeln, die mit einem G-Filter vorgesehen sind, der ein G-Signal erzeugt, groß ist (die Hälfte aller Pixel) und somit das G-Signal bei erzeugten Y-Signalen dominant ist. Aus diesem Grund kann in dem WLI-Modus, wo biologische Strukturen durch das G-Signal dargestellt werden, ein Bewegungsvektor mit einer hohen Genauigkeit erlangt werden. In dem NBI-Modus, wo biologische Strukturen durch das B-Signal dargestellt werden, kann jedoch eine Erfassungsgenauigkeit von Bewegungsvektoren unvorteilhafterweise nachlassen, da ein Verhältnis von Pixeln, die empfindlich gegenüber dem Schmalbandbeleuchtungslicht sind, das in einem blauen Wellenlängenband enthalten ist, klein ist (ein Viertel aller Pixel). Aus diesem Grund ist eine Technik erwünscht, die die Erfassung eines Bewegungsvektors mit einer hohen Genauigkeit bei beiden der Bildgebungsverfahren ermöglicht.
  • Die vorliegende Erfindung wurde in Anbetracht der vorstehend beschriebenen Situation erdacht und eine Aufgabe der Erfindung besteht darin, eine Bildverarbeitungsvorrichtung, die einen Bewegungsvektor mit hoher Genauigkeit der Auflösung bei jeder der Weißlichtbildgebung und der Schmalbandbildgebung erfassen kann, ein Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, ein Programm zum Bedienen der Bildverarbeitungsvorrichtung und eine Endoskopvorrichtung bereitzustellen.
  • Lösung des Problems
  • Um das vorstehend beschriebene Problem und die Aufgabe zu lösen, ist eine Bildverarbeitungsvorrichtung gemäß der Erfindung eine Bildverarbeitungsvorrichtung zum Erzeugen eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmalbandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist. Die Bildverarbeitungsvorrichtung umfasst: eine Bewegungserfassungsbilderzeugungseinheit, die dafür konfiguriert ist, Mittelungsverarbeitung auf Pixelwerten von Pixeln auszuführen, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen und die Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart zu erzeugen, dass bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und eine Bewegungserfassungsverarbeitungseinheit, die dafür konfiguriert ist, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder die Bewegung zwischen zwei der Bewegungserfassungsbilder zu erfassen, die auf Grundlage der aufgenommenen Bilder zu den unterschiedlichen Zeitpunkten erzeugt werden.
  • Zur Lösung des vorstehend beschriebenen Problems und der Aufgabe ist ein Verfahren zum Bedienen einer Bildverarbeitungsvorrichtung gemäß der Erfindung ein Verfahren zum Bedienen einer Bildverarbeitungsvorrichtung zum Erzeugen eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmal bandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist. Das Verfahren umfasst:
    einen Bewegungserfassungsbilderzeugungsschritt der Ausführung, durch
    eine Bewegungserfassungsbilderzeugungseinheit, von Mittelungsverarbeitung auf Pixelwerten von Pixeln, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen, und des Erzeugens der Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart, dass bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und einen Bewegungserfassungsverarbeitungsschritt des Detektierens, durch eine Bewegungserfassungsverarbeitungseinheit, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder, der Bewegung zwischen zwei der Bewegungserfassungsbilder, die auf Grundlage der aufgenommenen Bilder zu den verschiedenen Zeitpunkten erzeugt werden.
  • Zur Lösung des vorstehend beschriebenen Problems und der Aufgabe ist ein Programm zum Bedienen einer Bildverarbeitungsvorrichtung gemäß der Erfindung ein Programm zum Bedienen einer Bildverarbeitungsvorrichtung zur Erzeugung eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmalbandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist. Das Programm bewirkt, dass die Bildverarbeitungsvorrichtung ausführt: einen Bewegungserfassungsbilderzeugungsschritt der Ausführung, durch
    eine Bewegungserfassungsbilderzeugungseinheit, von Mittelungsverarbeitung auf Pixelwerten von Pixeln, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen, und des Erzeugens der Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart, dass bei der bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und einen Bewegungserfassungsverarbeitungsschritt des Detektierens, durch eine Bewegungserfassungsverarbeitungseinheit, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder, der Bewegung zwischen zwei der Bewegungserfassungsbilder, die auf Grundlage der aufgenommenen Bilder zu den verschiedenen Zeitpunkten erzeugt werden.
  • Zur Lösung des vorstehend beschriebenen Problems und der Aufgabe ist eine Endoskopvorrichtung gemäß der Erfindung eine Endoskopvorrichtung zur Ausführung von Weißlichtbildgebung und Schmalbandlichtbildgebung. Die Endoskopvorrichtungen umfasst: eine Lichtquelleneinheit, die dafür konfiguriert ist, eines von einem Weißbeleuchtungslicht und einem Schmalbandbeleuchtungslicht auszustrahlen, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, das Schmalbandbeleuchtungslicht zwei Schmalbänder umfasst, die in einem der Wellenlängenbänder von Luminanzkomponenten bei der Weißlichtbildgebung und der Schmalbandlichtbildgebung enthalten sind; einen Bildsensor mit einer Mehrzahl von in einer Matrixform angeordneten Pixeln, wobei die Mehrzahl von Pixeln dafür konfiguriert ist, Licht zu empfangen und photoelektrische Wandlung auf dem empfangenen Licht auszuführen, um ein elektrisches Signal zu erzeugen; einen Farbfilter mit einer Mehrzahl von Filtereinheiten, die auf einer Lichtempfangenden Fläche des Bildsensors angeordnet sind, wobei jede der Mehrzahl von Filtereinheiten einen ersten Filter, einen zweiten Filter und einen dritten Filter umfasst, wobei der erste Filter für die Passage von Licht von Wellenlängenbändern einer Luminanzkomponente bei der Weißlichtbildgebung und einer Luminanzkomponente bei der Schmalbandlichtbildgebung konfiguriert ist, der zweite Filter für die Passage von Licht eines Wellenlängenbands der Luminanzkomponente bei der Weißlichtbildgebung konfiguriert ist und der dritte Filter für die Passage von Licht eines Wellenlängenbands der Luminanzkomponente bei der Schmalbandlichtbildgebung konfiguriert ist; und die Bildverarbeitungsvorrichtung.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der Erfindung ist es möglich, einen Bewegungsvektor mit einer hohen Genauigkeit bei jeder der Weißlichtbildgebung und der Schmalbandbildgebung zu erfassen.
  • Kurze Beschreibung von Zeichnungen
  • 1 ist ein Diagramm, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist ein schematisches Diagramm, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 3 ist ein schematisches Diagramm, das eine Konfiguration von Pixeln gemäß der Ausführungsform der vorliegenden Erfindung zeigt.
  • 4 ist ein schematisches Diagramm, das eine beispielhafte Konfiguration eines Farbfilters gemäß der Ausführungsform der vorliegenden Erfindung zeigt.
  • 5 ist ein Diagramm, das beispielhafte Eigenschaften der entsprechenden Filter der Farbfilter gemäß der Ausführungsform der vorliegenden Erfindung zeigt sowie das Diagramm, das die Beziehung zwischen der Wellenlänge von Licht und der Übertragung der entsprechenden Filter zeigt.
  • 6 ist ein Graph, der die Beziehung zwischen der Wellenlänge und der Lichtmenge von Beleuchtungslicht zeigt, das von einer Beleuchtungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgestrahlt wird.
  • 7 ist ein Graph, der die Beziehung zwischen der Wellenlänge und der Übertragung von Beleuchtungslicht durch einen Schaltfilter zeigt, der in der Beleuchtungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung enthalten ist.
  • 8 ist ein Diagramm, das die von einer Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 9 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 10 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 11 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 12A ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 12B ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 13 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert
  • 14 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 15 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 16 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 17 ist ein Diagramm, das schematisch die Bewegung zwischen Bildern zu unterschiedlichen Abbildungszeiten erläutert, die von einer Bewegungserfassungsverarbeitungseinheit der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung aufgenommen werden.
  • 18 ist ein Ablaufdiagramm, das Signalverarbeitung zeigt, die von einem Prozessor der Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ausgeführt wird.
  • 19 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß einer vierten Modifizierung der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 20 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der vierten Modifizierung der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 21 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der vierten Modifizierung der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 22 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß der vierten Modifizierung der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • 23 ist ein Diagramm, das die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit der Endoskopvorrichtung gemäß einer fünften Modifizierung der Ausführungsform der vorliegenden Erfindung ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung erläutert.
  • Arten zur Ausführung der vorliegenden Erfindung (nachstehend als „Ausführungsform(en)” bezeichnet), sind nachstehend beschrieben. In den Ausführungsformen wird als eine beispielhafte Vorrichtung, die eine Bildverarbeitungsvorrichtung umfasst, auf eine Endoskopvorrichtung für medizinische Zwecke Bezug genommen, die In-vivo-Bilder eines Patienten oder dergleichen aufnimmt und anzeigt. Die vorliegende Erfindung ist nicht durch die Ausführungsformen beschränkt. Die gleichen Bezugszeichen werden zur Bezeichnung der gleichen Elemente in allen Zeichnungen verwendet.
  • (Ausführungsformen)
  • 1 ist ein Diagramm, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. 2 ist ein schematisches Diagramm, das eine schematische Konfiguration einer Endoskopvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung zeigt. Eine in 1 und 2 gezeigte Endoskopvorrichtung 1 umfasst: ein Endoskop 2, das ein In-vivo-Bild eines beobachteten Bereichs durch Einführung einer Einführeinheit 21 in ein Subjekt aufnimmt und ein elektrisches Signal erzeugt; eine Lichtquelleneinheit 3, die Beleuchtungslicht erzeugt, das von einem distalen Ende des Endoskops 2 ausgestrahlt wird; einen Prozessor 4, der vorbestimmte Bildverarbeitung auf dem von dem Endoskop 2 erlangten elektrischen Signal ausführt und die Gesamtsteuerung der Endoskopvorrichtung 1 ausführt; und eine Anzeigeeinheit 5, die das In-vivo-Bild anzeigt, auf dem die Bildverarbeitung von dem Prozessor 4 ausgeführt wurde. Die Endoskopvorrichtung 1 erlangt ein In-vivo-Bild in einem Subjekt durch Einführung der Einführeinheit 21 in das Subjekt wie beispielsweise einen Patienten. Eine Bedienungsperson, wie beispielsweise ein Arzt, betrachtet das aufgenommene In-vivo-Bild und untersucht dadurch, ob es eine zu erfassende blutende Stelle oder Tumorstelle gibt.
  • Das Endoskop 2 umfasst: die Einführeinheit 21, die biegbar und länglich ist; eine Bedienungseinheit 22, die mit einer proximalen Endseite der Einführeinheit 21 verbunden ist und die Eingabe verschiedener Betätigungssignale empfängt; und ein Universalkabel 23, das sich in eine andere Richtung erstreckt als die Richtung, in die sich die Einführeinheit 21 von der Bedienungseinheit 22 erstreckt, und verschiedene Kabel enthält, die mit der Lichtquelleneinheit 3 und dem Prozessor 4 verbunden sind.
  • Die Einführeinheit 21 umfasst: einen distalen Endteil 24, der einen Bildsensor 202 umfasst, in dem Pixel (Photodioden) zum Empfangen von Licht und zum Ausführen von photoelektrischer Wandlung auf dem empfangenen Licht zur Erzeugung eines Abbildungssignales in einer Matrixform angeordnet sind; einen Biegeteil 25, der biegbar ist und aus einer Mehrzahl von Biegeteilen gebildet ist; und einen länglichen biegbaren Schlauchteil 26, der mit einer proximalen Endseite des Biegeteils 25 verbunden ist.
  • Die Bedienungseinheit 22 umfasst: Einen Biegeknopf 221, der bewirkt, dass der Biegeteil 25 sich in die vertikale Richtung und die horizontale Richtung biegt; eine Behandlungsinstrumenteinführeinheit 222 zur Einführung eines Behandlungsinstruments, wie beispielsweise eines Forceps, eines elektrischen Skalpells und einer Untersuchungssonde, in ein Subjekt; und eine Mehrzahl von Schaltern 223 zur Eingabe eines Befehlssignals, um zu bewirken, dass die Lichtquelleneinheit 3 einen Schaltvorgang von Beleuchtungslicht ausführt, ein Bedienungsbefehlssignal für eine externe Vorrichtung, die mit einem Behandlungsinstrument oder dem Prozessor 4 verbunden ist, ein Wasserzufuhrbefehlssignal zur Zufuhr von Wasser, ein Saugbefehlssignal zur Ausführung eines Saugvorgangs oder sonstige Befehlssignale. Ein von der Behandlungsinstrumenteinführeinheit 222 eingeführtes Behandlungsinstrument liegt frei von einem Öffnungsteil (nicht gezeigt) über einen Behandlungsinstrumentkanal (nicht gezeigt), der in einem distalen Ende des distalen Endteils 24 enthalten ist.
  • Das Universalkabel 23 umfasst mindestens einen Lichtleiter 203 und ein Sammelkabel, wo einer oder mehrere Signalkabel gebündelt sind. Das Sammelkabel umfasst Signalkabel zum Senden und Empfangen eines Signals zu und von dem Endoskop 2, der Lichtquelleneinheit 3 und dem Prozessor 4 und umfasst einen Signaldraht zum Senden und Empfangen von Einstelldaten, einen Signaldraht zum Senden und Empfangen eines Bildsignals, einen Signaldraht zum Senden und Empfangen eines Zeitsignals zum Treiben des Bildsensors 202 und andere Signalkabel.
  • Das Endoskop 2 umfasst ein optisches Bildgebungssystem 201, den Bildsensor 202, den Lichtleiter 203, eine Beleuchtungslinse 204, einen A/D-Wandler 205 und eine Bildgebungsinformationsspeichereinheit 206.
  • Das optische Bildgebungssystem 201 ist am distalen Endteil 24 vorgesehen und konzentriert Licht von mindestens einem beobachteten Bereich. Das optische Bildgebungssystem 201 ist aus einer oder mehreren Linsen gebildet. Das optische Bildgebungssystem 201 kann einen optischen Zoommechanismus, der den Betrachtungswinkel ändert, und einen Fokusmechanismus, der den Fokus ändert, umfassen.
  • Der Bildsensor 202 ist bezüglich einer optischen Achse des optischen Bildgebungssystems 201 vertikal angeordnet und erzeugt ein elektrisches Signal (Bildsignal) durch photoelektrische Wandlung eines Bildes von von dem optischen Bildgebungssystem 201 gebildeten Licht. Der Bildsensor 202 ist durch Verwendung eines ladungsgekoppelten Bauelement(CCD)-Bildsensors, eines sich ergänzenden Metall-Oxid-Halbleiter(CMOS)-Bildsensors oder anderen Sensoren implementiert.
  • 3 ist ein schematisches Diagramm, das eine Konfiguration von Pixeln des Bildsensors 202 zeigt. In dem Bildsensor 202 ist die Mehrzahl von Pixeln zum Empfangen von Licht von dem optischen Bildgebungssystem 201 in einer Matrixform angeordnet. Der Bildsensor 202 erzeugt ferner ein elektrisches Signal (auch als ein Bildsignal bezeichnet) durch Ausführung von photoelektrischer Wandlung auf von jedem der Pixel empfangenem Licht. Dieses elektrische Signal umfasst einen Pixelwert (Luminanzwert) jedes der Pixel, Positionsinformation der Pixel oder sonstige Informationen. In 3 ist ein Pixel, das in einer Spalte i und in einer Reihe j angeordnet ist, als Pixel Pij bezeichnet, wobei i und j natürliche Zahlen einschließlich null sind.
  • Der Bildsensor 202 umfasst einen Farbfilter 202a, der zwischen dem optischen Bildgebungssystem 201 und dem Bildsensor 202 vorgesehen ist und eine Mehrzahl von Filtern hat, die jeweils Licht eines Wellenlängenbands übertragen, das separat auf jeden der Filter eingestellt ist. Der Farbfilter 202a ist auf einer Lichtempfangenden Fläche des Bildsensors 202 enthalten.
  • 4 ist ein schematisches Diagramm, das eine beispielhafte Konfiguration des Farbfilters 202a zeigt. In dem Farbfilter 202a sind Filtereinheiten U1, die jeweils von vier Filtern gebildet werden, die in einer 2×2 Matrixform angeordnet sind, in einer Matrixform angeordnet, die einer Anordnung eines Pixels Pij entspricht. Mit anderen Worten wird eine Filteranordnung der Filtereinheit U1 als ein Basismuster betrachtet und ist das Basismuster in dem Farbfilter 202a wiederholt angeordnet. Eine Licht-empfangende Fläche jedes der Pixel ist mit einem Filter angeordnet, durch den Licht eines vorbestimmten Wellenlängenbands passiert. Deshalb passiert das mit dem Filter vorgesehene Pixel Pij Licht des Wellenlängenbands, das durch den Filter passiert. Beispielsweise empfängt ein mit einem Filter durch den Licht eines grünen Wellenlängenbands passiert, vorgesehenes Pixel Pij, Licht des grünen Wellenlängenbands. Nachstehend wird ein Pixel Pij, das Licht des grünen Wellenlängenbands empfängt, als ein G-Pixel bezeichnet. Auf ähnliche Weise wird ein Pixel, das Licht eines blauen Wellenlängenbands empfängt, als ein B-Pixel bezeichnet und ein Pixel, das Licht eines roten Wellenlängenbands empfängt, als ein R-Pixel bezeichnet.
  • Durch die Filtereinheit U1 passiert Licht des blauen (B) Wellenlängenbands (HB), des grünen (G) Wellenlängenbands (HG) und des roten (R) Wellenlängenbands (HR). Ferner ist die Filtereinheit U1 aus einem blauen Filter (B-Filter), durch den Licht des Wellenlängenbands HB passiert, einen grünen Filter (G-Filter), durch den Licht des Wellenlängenbands HG passiert und einen roten Filter (R-Filter) durch den Licht des Wellenlängenbands HR passiert, gebildet. Die beiden G-Filter sind diagonal angeordnet, während der B-Filter und der R-Filter diagonal angeordnet sind, wodurch sie eine sogenannte Bayer-Matrix bilden. In der Filtereinheit U1 ist die Dichte der G-Filter höher als die Dichte der B-Filter oder der R-Filter. Mit anderen Worten ist die Dichte der G-Pixel höher als die Dichte der B-Pixel oder der R-Pixel in dem Bildsensor 202. Das rote, grüne und blaue Wellenlängenband HB, HG und HR sind beispielsweise entsprechend 380 nm bis 500 nm, 480 nm bis 600 nm, und 580 nm bis 650 nm.
  • 5 ist ein Diagramm, das beispielhafte Eigenschaften der entsprechenden Filter des Farbfilters gemäß der Ausführungsform so wie ein Diagramm zeigt, das die Beziehung zwischen der Wellenlänge von Licht und der Übertragung der entsprechenden Filter zeigt. In 5 sind Übertragungskurven normalisiert, sodass der maximale Wert der Übertragung jedes der Filter äquivalent wird. Eine in 5 gezeigte Kurve Lb (durchgezogene Linie) stellt eine Übertragungskurve des B-Filters dar, eine Kurve Lg (gestrichelte Linie) stellt eine Übertragungskurve des G-Filters dar und eine Kurve Lr (abwechselnd lang und kurz gestrichelte Linie) stellt eine Übertragungskurve des G-Filters dar. Wie in 5 gezeigt, passiert durch den B-Filter das Licht des Wellenlängenbands HB, durch den G-Filter Licht des Wellenlängenbands HG und durch den R-Filter Licht des Wellenlängenbands HR.
  • Jetzt wieder mit Bezugnahme auf die Beschreibungen in 1 und 2 ist/der Lichtleiter 203 aus einer Glasfaser oder dergleichen gebildet und bildet dadurch einen Strahlenleitgang von Licht, das von der Lichtquelleneinheit 3 ausgestrahlt wird.
  • Die Beleuchtungslinse 204 ist an einem distalen Ende des Lichtleiters 203 vorgesehen und diffundiert von dem Lichtleiter 203 geleitetes Licht und gibt das Licht außerhalb des distalen Endteils 24 aus.
  • Der A/D-Wandler 205 führt A/D-Wandlung auf dem von den Bildsensor 202 erzeugten elektrischen Signal aus und gibt das umgewandelte elektrische Signal an den Prozessor 4 aus. Der A/D-Wandler 205 wandelt das von dem Bildsensor 202 erzeugte elektrische Signal in digitale Daten (Abbildungssignal) von beispielsweise zwölf Bits um.
  • Die Bildgebungsinformationsspeichereinheit 206 speichert Daten, die verschiedene Programme enthalten, um den Betrieb des Endoskops 2 zu bewirken, verschiedene Parameter, die für den Betrieb des Endoskops 2 erforderlich sind, eine Identifikationsinformation des Endoskops 2. Außerdem umfasst die Bildgebungsinformationsspeichereinheit 206 eine Identifikationsinformationsspeichereinheit 261, die Identifikationsinformation speichert. Identifikationsinformation umfasst spezielle Information (ID) des Endoskops 2, Herstellungsjahr, Spezifikationsinformation, Übertragungsverfahren, Information über die Filteranordnung des Farbfilters 202a etc. Die Bildgebungsinformationsspeichereinheit 206 ist durch einen Flashspeicher oder dergleichen implementiert.
  • Als nächstes wird eine Konfiguration der Lichtquelleneinheit 3 beschrieben. Die Lichtquelleneinheit 3 umfasst eine Beleuchtungseinheit 31 und eine Beleuchtungssteuereinheit 32.
  • Die Beleuchtungseinheit 31 schaltet zwischen einer Mehrzahl von Strahlen von Beleuchtungslicht mit unterschiedlichen Wellenlängenbändern um und strahlt das Beleuchtungslicht unter Steuerung durch die Beleuchtungssteuereinheit 32 aus. Die Beleuchtungseinheit 31 umfasst eine Lichtquelle 31a, einen Lichtquellentreiber 31b, einen Schaltfilter 31c, eine Treibereinheit 31d, einen Treiber 31e und eine Kondensorlinse 31f.
  • Die Lichtquelle 31a strahlt Weißbeleuchtungslicht, das Licht des roten, grünen und blauen Wellenlängenbands HR, HG, HB umfasst, unter Steuerung durch die Beleuchtungssteuereinheit 32 aus. Von der Lichtquelle 31a erzeugtes Weißbeleuchtungslicht wird außerhalb des distalen Endteils 24 über den Schaltfilter 31c, die Kondensorlinse 31f und den Lichtleiter 203 ausgestrahlt. Die Lichtquelle 31a ist durch eine Lichtquelle, die Weißlicht ausstrahlt, wie beispielsweise eine weiße LED oder eine Xenophon-Lampe, implementiert.
  • Der Lichtquellentreiber 31b führt der Lichtquelle 31a unter Steuerung durch die Beleuchtungssteuereinheit 32 einen Strom zu und bewirkt dadurch, dass die Lichtquelle 31a Weißbeleuchtungslicht ausstrahlt.
  • Durch den Schaltfilter 31c passiert nur blaues Schmalbandlicht und grünes Schmalbandlicht von dem von der Lichtquelle 31a ausgestrahlten Weißbeleuchtungslicht. Der Schaltfilter 31c ist auf einem Strahlengang des von der Lichtquelle 31a ausgestrahlten Weißbeleuchtungslichts frei einfügbar und entfernbar unter Steuerung durch die Beleuchtungssteuereinheit 32 angeordnet. Durch den Schaltfilter 31c passieren nur zwei Arten von Schmalbandlicht, wenn er auf dem Strahlengang des Weißbeleuchtungslichts angeordnet ist. Insbesondere passiert durch den Schaltfilter 31c Schmalbandbeleuchtungslicht, das von dem Licht eines Schmalbandes TB gebildet wird (beispielsweise 400 nm bis 445 nm), das in dem Wellenlängenband HB enthalten ist, und Licht eines Schmalbandes TG (beispielsweise 530 nm bis 550 nm), das in dem Wellenlängenband HG enthalten ist. Diese Schmalbänder TB und TG sind Wellenlängenbänder von blauem Licht und grünem Licht, die wahrscheinlich von Hämoglobin im Blut absorbiert werden. Das Schmalband TB muss nur mindestens 405 nm bis 425 nm umfassen. Licht, das ausgestrahlt wird, während es auf diese Bänder beschränkt ist, wird als Schmalbandbeleuchtungslicht bezeichnet, und die Bildgebung durch das Schmalbandbeleuchtungslicht wird als eine Schmalbandbildgebung (NBI-Modus) bezeichnet.
  • Die Treibereinheit 31d ist aus einem Schrittmotor, einem Gleichstrommotor oder sonstigen Motoren gebildet und bewirkt, dass der Schaltfilter 31c in den Strahlengang der Lichtquelle 31a eingefügt oder daraus entfernt wird.
  • Der Treiber 31e führt der Treibereinheit 31d unter Steuerung durch die Beleuchtungssteuereinheit 32 einen vorbestimmten Strom zu.
  • Die Kondensorlinse 31f konzentriert von der Lichtquelle 31a ausgestrahltes Weißbeleuchtungslicht oder Schmalbandbeleuchtungslicht, das den Schaltfilter 31c passiert, und strahlt das Licht außerhalb der Lichtquelleneinheit 3 (an den Lichtleiter 203) aus.
  • Die Beleuchtungssteuereinheit 32 steuert den Lichtquellentreiber 31b, um eine Ein/Aus-Betätigung der Lichtquelle 31a zu bewirken, und steuert den Treiber 31e, um zu bewirken, dass der Schaltfilter 31c in den Strahlengang der Lichtquelle 31a eingefügt oder daraus entfernt wird, wodurch die Art (das Band) des von der Beleuchtungseinheit 31 ausgestrahlten Beleuchtungslichts gesteuert wird.
  • Insbesondere bewirkt die Beleuchtungssteuereinheit 32, dass der Schaltfilter 31c in den Strahlengang der Lichtquelle 31a eingefügt oder daraus entfernt wird, um das Umschalten des von der Beleuchtungseinheit 31 ausgestrahlten Beleuchtungslichts zwischen Weißbeleuchtungslicht und Schmalbandbeleuchtungslicht zu steuern. Mit anderen Worten steuert die Beleuchtungssteuereinheit 32 das Umschalten zwischen der Weißlichtbildgebung (WLI), die Weißbeleuchtungslicht verwendet, das Licht der Wellenlängenbänder HB, HG, und HR umfasst, und der Schmalbandbildgebung (NBI-Modus), die Schmalbandbeleuchtungslicht verwendet, das aus Licht der Schmalbänder TB und TG gebildet wird.
  • Bei der Weißlichtbildgebung (WLI) bildet eine grüne Komponente (Wellenlängenband HG) eine Luminanzkomponente (erste Luminanzkomponente), während bei der Schmalbandbildgebung (NBI) eine blaue Komponente (Schmalband TB) eine Luminanzkomponente (zweite Luminanzkomponente) bildet. Eine Luminanzkomponente bezieht sich in der vorliegenden Erfindung auf eine Farbkomponente, die die Hauptkomponente eines Luminanzsignals bildet, beispielsweise in einem XYZ-kolorimetrischen System, das später beschrieben wird. Beispielsweise bildet bei der Weißlichtbildgebung eine grüne Komponente, die den höchsten relativen Leuchtkraftfaktor für das menschliche Auge hat und deutlich Blutgefäße oder Drüsenstrukturen eines lebendigen Körpers zeigt, eine Luminanzkomponente. Währenddessen ist bei der Schmalbandlichtbildgebung eine ausgewählte Luminanzkomponente je nach einem Objekt eine andere. Es kann Fälle geben, in denen eine grüne Komponente wie bei der Weißlichtbildgebung ausgewählt wird, oder Fälle, in denen sich eine Luminanzkomponente von der bei der Weißlichtbildgebung unterscheidet. Insbesondere umfassen repräsentative Beispiele, in denen eine blaue Komponente oder eine rote Komponente eine Luminanzkomponente in der Schmalbandlichtbildgebung bildet, die vorstehend beschriebene NBI. In diesem Fall bildet eine blaue Komponente, die deutlich Blutgefäße oder Drüsenstrukturen in einer Oberflächenschicht eines lebendigen Körpers zeigt, eine Luminanzkomponente. In der Ausführungsform wird eine grüne Komponente als die Luminanzkomponente bei der Weißlichtbildgebung betrachtet und wird eine blaue Komponente als die Luminanzkomponente bei der Schmalbandlichtbildgebung betrachtet.
  • 6 ist ein Graph, der die Beziehung zwischen der Wellenlänge und der Lichtmenge von Beleuchtungslicht, das von der Beleuchtungseinheit 31 der Endoskopvorrichtung 1 ausgestrahlt wird, gemäß der Ausführungsform zeigt. 7 ist ein Graph, der die Beziehung zwischen der Wellenlänge und der Übertragung von Beleuchtungslicht durch einen Schaltfilter 31c zeigt, der in der Beleuchtungseinheit der Endoskopvorrichtung 1 gemäß der Ausführungsform enthalten ist. Wenn der Schaltfilter 31c aus dem Strahlengang der Lichtquelle 31a durch Steuerung durch die Beleuchtungssteuereinheit 32 entfernt wird, strahlt die Beleuchtungseinheit 31 Weißbeleuchtungslicht aus, das Licht der Wellenlängenbänder HB, HG, und HR umfasst (siehe 6). Im Gegensatz dazu strahlt, Wenn der Schaltfilter 31c durch Steuerung durch die Beleuchtungssteuereinheit 32 in den Strahlengang der Lichtquelle 31a eingeführt wird, die Beleuchtungseinheit 31 Schmalbandbeleuchtungslicht aus, das Licht der Wellenlängenbänder TB und TG umfasst (siehe 7).
  • Als nächstes wird eine Konfiguration des Prozessors 4 beschrieben. Der Prozessor 4 umfasst eine Bildverarbeitungseinheit 41, eine Eingabeeinheit 42, eine Speichereinheit 43 und eine Steuereinheit 44.
  • Die Bildverarbeitungseinheit 41 führt vorbestimmte Bildverarbeitung auf Grundlage des Bildsignals von dem Endoskop 2 (A/D-Wandler 205) aus, um ein Anzeigebildsignal zu erzeugen, das von der Anzeigeeinheit 5 angezeigt werden soll. Die Bildverarbeitungseinheit 41 umfasst eine Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411, eine Bewegungserfassungsverarbeitungseinheit 412, eine Rauschreduzierungsverarbeitungseinheit 413, einen Einzelbildspeicher 414, eine Demosaicing-Verarbeitungseinheit 415 und eine Anzeigebilderzeugungsverarbeitungseinheit 416.
  • Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 führt Umwandlungsverarbeitung auf einem von dem A/D-Wandler 205 ausgegebenen nicht synchronisierten Bild (gegenwärtiges Bild) und einem in dem Einzelbildspeicher 414 gespeicherten vorherigen Bild aus und erzeugt dadurch ein Bewegungserfassungsbild. Die Umwandlungsverarbeitung ist später beschrieben. Das hier erwähnte vorherige Bild bezieht sich auf ein Bild nach der Rauschreduzierungsverarbeitung, das unmittelbar vor einem Bild des letzten Einzelbildes (gegenwärtiges Bild) erlangt wurde, wie beispielsweise eines Bildes ein Einzelbild vor dem letzten Einzelbild. Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 bezieht Bildgebungsmodusinformation über ein Bildgebungsverfahren von der Steuereinheit 44 und führt Umwandlungsverarbeitung gemäß dem Bildgebungsverfahren aus. Die Umwandlungsverarbeitung gemäß der Ausführungsform bezieht sich auf eine Mittelungsverarbeitung von Pixelwerten von Pixeln, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, während ermöglicht wird, das die Gewichtung eines Pixelwertes eines Pixels mit einem Filter, der Licht einer Luminanzkomponente eines aufgenommenen Bildes (derzeitiges Bild oder vorheriges Bild) überträgt, bei der Weißlichtbildgebung größer oder gleich ist wie die Gewichtung eines Pixelwertes eines Pixels mit einem anderen Typ von Filter, wenn Beleuchtungslicht der Weißlichtbildgebung verwendet wird, und eine Gewichtung eines Pixelwertes eines Pixels mit einem Filter, der Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung überträgt, größer oder gleich ist wie die Gewichtung eines Pixelwertes eines Pixels mit einem anderen Typ von Filter, wenn die Schmalbandbildgebung verwendet wird.
  • Die Bewegungserfassungsverarbeitungseinheit 412 erfasst Bewegung in einem Bild als einen Bewegungsvektor unter Verwendung des Bewegungserfassungsbildes, das von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 erzeugt wird. Mit anderen Worten erfasst die Bewegungserfassungsverarbeitungseinheit 412 Bewegung in Bildern zwischen Bewegungserfassungsbildern mit unterschiedlichen Abbildungszeiten in einer Zeitreihe als einen Bewegungsvektor.
  • Die Rauschreduzierungsverarbeitungseinheit 413 reduziert eine Rauschkomponente des momentanen Bildes (Abbildungssignal) gemäß dem Erfassungsergebnis durch die Bewegungserfassungsverarbeitungseinheit 412 und eine gewichtete Mittelungsverarbeitung zwischen Bildern unter Verwendung des momentanen Bildes und eines vorherigen Bildes. Das vorherige Bild wird durch Ausgeben des in dem Einzelbildspeicher 414 gespeicherten vorherigen Bildes erlangt. Die Rauschreduzierungsverarbeitungseinheit 413 gibt ferner das momentane Bild nach der Rauschreduzierungsverarbeitung an den Einzelbildspeicher 414 aus.
  • Der Einzelbildspeicher 414 speichert Bildinformation eines Einzelbildes, das ein Bild (nicht synchronisiertes Bild) bildet. Insbesondere speichert der Einzelbildspeicher 414 Information des nicht synchronisierten Bildes nach der Rauschreduzierungsverarbeitung durch die Rauschreduzierungsverarbeitungseinheit 413. Wenn ein neues nicht synchronisiertes Bild von der Rauschreduzierungsverarbeitungseinheit 413 erzeugt wird, wird der Einzelbildspeicher 414 mit Informationen über das neu erzeugte nicht synchronisierte Bild aktualisiert. Ein nicht synchronisiertes Bild einer Mehrzahl von Einzelbildern kann gespeichert werden. Der Einzelbildspeicher 414 kann durch einen Halbleiterspeicher, wie beispielsweise einem Video Random Access Memory (VRAM) implementiert sein, oder kann durch einen Teil eines Speicherbereiches der Speichereinheit 43 implementiert sein.
  • Die Demosaicing-Verarbeitungseinheit 415 bestimmt eine Interpolationsrichtung aus der Korrelation von Farbinformation (Pixelwerten) einer Mehrzahl von Pixeln auf Grundlage des Abbildungssignals beispielsweise nach der Rauschreduzierungsverarbeitung durch die Rauschreduzierungsverarbeitungseinheit 413 und führt Interpolation auf Grundlage von Farbinformation von Pixeln aus, die in die vorbestimmte Interpolationsrichtung ausgerichtet sind, wodurch ein Farbbildsignal erzeugt wird.
  • Die Anzeigebilderzeugungsverarbeitungseinheit 416 führt Farbumwandlungsbearbeitung auf dem von der Demosaicing-Verarbeitungseinheit 415 erzeugten Farbbildsignal in beispielsweise einen Farbraum von sRGB (XYZ-kolorimetrisches System) aus, der ein Farbbereich der Anzeigeeinheit 5 ist, und führt ferner Tonumwandlung auf Grundlage von vorbestimmten Tonwandlungseigenschaften, Vergrößerungsverarbeitung, Strukturverbesserungsverarbeitung von Strukturen, wie beispielsweise Kapillargefäßen oder Schleimhautfeinmustern in der Schleimhautoberflächenschicht, oder sonstige Verarbeitung aus. Nach Ausführung der vorbestimmten Verarbeitung gibt die Anzeigebilderzeugungsverarbeitungseinheit 416 das Signal nach der Verarbeitung an die Anzeigeeinheit 5 als ein Anzeigebildsignal zur Anzeige aus.
  • Neben der vorstehend beschriebenen Demosaicing-Verarbeitung führt die Bildverarbeitungseinheit 41 OB-Klemmverarbeitung, Verstärkungsanpassungsverarbeitung oder sonstige Verarbeitung durch. Bei der OB-Klemmverarbeitung wird ein von dem Endoskop 2 (A/D-Wandler 205) eingegebenes elektrisches Signal mit einer Verarbeitung zur Korrektur einer Versatzmenge eines Schwarzpegels ausgeführt. Bei der Verstärkungsanpassungsverarbeitung wird eine Helligkeitspegelanpassung auf dem Bildsignal nach der Demosaicing-Verarbeitung ausgeführt.
  • Die Eingabeeinheit 42 ist eine Schnittstelle für einen Benutzer, um eine Eingabe in den Prozessor 4 auszuführen. Die Eingabeeinheit 42 umfasst: einen Leistungsschalter zum Ein- und Ausschalten von Strom; eine Modusumschaltschaltfläche zum Umschalten zwischen einem Aufnahmemodus und verschiedenen anderen Modi; und eine Beleuchtungslichtschaltfläche zum Umschalten von Beleuchtungslicht (Bildgebungsverfahren) der Lichtquelleneinheit 3.
  • Die Speichereinheit 43 speichert Daten, die verschiedene Programme umfassen, um den Betrieb der Endoskopvorrichtung 1 zu bewirken, und verschiedene Parameter, die für den Betrieb der Endoskopvorrichtung 1 erforderlich sind. Die Speichereinheit 43 kann Informationen im Zusammenhang mit dem Endoskop 2 speichern, beispielsweise eine Bezugstabelle von Identifikationsinformation (ID) des Endoskops 2 und Informationen über die Filteranordnung des Farbfilters 202a. Die Speichereinheit 43 ist durch einen Halbleiterspeicher implementiert, wie beispielsweise einen Flashspeicher oder einen Dynamic Random Access Memory (DRAM).
  • Die Steuereinheit 44 ist durch eine CPU oder dergleichen konfiguriert. Die Steuereinheit 44 führt Treibersteuerung der entsprechenden Komponenten, einschließlich des Endoskops 2 und der Lichtquelleneinheit 3, sowie Eingabe- und Ausgabesteuerung von Informationen mit den entsprechenden Komponenten aus. Die Steuereinheit 44 überträgt an das Endoskop 2 über ein vorbestimmtes Signalkabel in der Speichereinheit 43 aufgezeichnete Einstelldaten für Bildgebungssteuerung (beispielsweise zu lesende Pixel), ein Zeitsignal einer Abbildungszeitsteuerung oder sonstige Daten. Die Steuereinheit 44 gibt Farbfilterinformation (Identifikationsinformation), die über die Bildgebungsinformationsspeichereinheit 206 bezogen wurden, Bildgebungsmodusinformationen über einen Steuermodus (Bildgebungsmodus), der einem derzeit verwendeten Bildgebungsverfahren entspricht, oder sonstige Information an die Bildverarbeitungseinheit 41 aus und gibt auf Grundlage der Farbfilterinformationen Informationen über die Anordnung des Schaltfilters 31c an die Lichtquelleneinheit 3 aus.
  • Als nächstes wird die Anzeigeeinheit 5 beschrieben. Die Anzeigeeinheit 5 empfängt das von dem Prozessor 4 erzeugte Anzeigebildsignal über ein Videokabel und zeigt ein In-vivo-Bild an, das dem Anzeigebildsignal entspricht. Die Anzeigeeinheit 5 ist durch Flüssigkristalle oder organische Elektrolumineszenz (EL) konfiguriert.
  • Anschließend wird von den entsprechenden Einheiten des Prozessors 4 der Endoskopvorrichtung 1 ausgeführte Signalverarbeitung mit Bezugnahme auf die Zeichnungen beschrieben. 816 sind Diagramme, die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 der Endoskopvorrichtung 1 ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung gemäß der Ausführungsform der vorliegenden Erfindung zeigen.
  • <Bewegungserfassungsbilderzeugungsverarbeitung im WLI-Modus>
  • Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 führt Mittelungsverarbeitung von vier Pixelwerten in einem Mittelungszielbereich aus, der eine Gruppe von vier Pixeln in dem momentanen Bild ist (beispielsweise Mittelungszielbereiche Q1, Q2, und Q3, gezeigt in 8), wobei eine Koordinate eines interessierenden Pixels (Pixel Pij) durch (x, y) bezeichnet ist, und erzeugt dadurch einen Signalwert Y(x, y) eines Bewegungserfassungsbildes (siehe 9). Beispielsweise wird ein Signalwert Y(0, 0) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert G(0, 0) eines Pixels G00 entspricht, durch den Mittelungszielbereich Q1 erzeugt. Ein Signalwert Y(0, 0) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert B(0, 1) eines Pixels B01 entspricht, wird durch den Mittelungszielbereich Q2 erzeugt. Ein Signalwert Y(1, 0) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert R(1, 0) eines Pixels R10 entspricht, wird durch den Mittelungszielbereich Q3 erzeugt. Wenn es keine benachbarten Pixel gibt, werden Pixel in Positionen nach der Rückkehr als der Mittelungszielbereich verwendet. Insbesondere berechnet die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signale Y00 und Y01 eines Bewegungserfassungsbildes gemäß den folgenden Formeln (1) und (2) (das gleiche gilt für andere Koordinaten). Y(0, 0) = 1 / 4{G(0, 0) + R(1, 0) + B(0, 1) + G(1, 1)} (1) Y(0, 1) = 1 / 4{B(0, 1) + G(1, 1) + G(0, 2) + R(1, 2)} (2)
  • Eine Phase (Schwerpunkt in 8) jedes der daraufhin erzeugten Y(x, y) Signalwerte wird um ein halbes Pixel sowohl in die horizontale Richtung als auch in die vertikale Richtung von der mittleren Position eines dementsprechenden Pixels verschoben (beispielsweise das Pixel G00 in dem Fall das Signalwertes Y(0, 0)); die Phasen sind jedoch einheitlich angeordnet. Beispielsweise beträgt eine Phase eines Signalwertes Y(x, y), der dem Signalwert G(0, 0) entspricht, S11, beträgt eine Phase eines Signalwertes Y(0, 1), der dem Signalwert B(0, 1) entspricht, S12 und beträgt eine Phase eines Signalwertes Y(1, 0), der dem Signalwert R(1, 0) entspricht, S13 (Siehe 10). Außerdem beträgt ein Verhältnis zwischen RGB-Signalen, die einen Signalwert Y(k, l) bilden, R:G:B = 1:2:1, wobei ein Verhältnis von G-Signalen hoch ist (Gewicht des G-Signals ist groß).
  • Auf diese Weise hat der WLI-Modus Eigenschaften, dass biologische Strukturen durch das G-Signal dargestellt werden (Signal der Luminanzkomponente des WLI) und wird somit ein Verhältnis von Signalwerten der G-Komponente erhöht und wird dadurch ein Signalwert Y erzeugt, so dass die Phasen einheitlich werden.
  • <Bewegungserfassungsbilderzeugungsverarbeitung im NBI-Modus>
  • Der NBI-Modus hat Eigenschaften, dass biologische Strukturen durch das B-Signal dargestellt werden (Signal der Luminanzkomponente des NBI) und die Verwendung des Verfahrens für den WLI-Modus wie vorstehend beschrieben verschlechtert eine Genauigkeit der Bewegungserfassungsverarbeitung, da ein Verhältnis von B-Signalen, die in einem Y-Signal enthalten sind, klein ist. Außerdem ist keine R-Komponente in Schmalbandlicht in der Ausführungsform vorhanden und ist ein Signalwert R(1, 0) gleich null. Somit beträgt, wie in 11 gezeigt, eine Phase eines Signalwertes Y(0, 0) S31, beträgt eine Phase eines Signalwertes Y(0, 1) S32 und beträgt eine Phase eines Signalwertes Y(1, 0) S33, was insgesamt zu uneinheitlichen Phasen führt (schwarze Punkte in 11) (verschobene Phasen). Außerdem wird, wenn sich ein Objekt bewegt, eine Randform zwischen Bildern aufgrund eines Einflusses von verschobenen Phasen verformt, was zu einer reduzierten Genauigkeit der Bewegungserfassungsverarbeitung führt. Genauer wird von einem Signalwert G(x, y) und einem Signalwert B(x, y), die den Signalwert Y(x, y) bilden, eine Phase das Signalwerts B(x, y) uneinheitlich und wird somit eine Genauigkeit der Bewegungserfassungsverarbeitung reduziert. 12A und 12B sind Diagramme, die von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 der Endoskopvorrichtung gemäß der Ausführungsform ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung zeigen. 12A zeigt eine Phase Sg1 eines G-Signals bei einem Signalwert Y(1, 0) und eine Phase Sb1 eines B-Signals bei einem Signalwert Y(1, 0). 12B zeigt eine Phase Sg2 eines G-Signals bei einem Signalwert Y(2, 0) und eine Phase Sb2 eines B-Signals bei einem Signalwert Y(2, 0). Wie in Figuren und 12A und 12B gezeigt, variieren die Phasen Sg1 und Sg2 des G-Signals zwischen dem Signalwert Y(1, 0) und dem Signalwert Y(2, 0), während die Phasen Sb1 und Sb2 des B-Signals nicht variieren.
  • Auf diese Weise führt die Anwendung der Bewegungserfassungsbilderzeugungsverarbeitung des WLI-Modus auf den NBI-Modus zu den folgenden Situationen.
    • 1. Ein Verhältnis von B-Signalen, die biologische Strukturen in der Oberflächenschicht eines lebendigen Körpers darstellen, ist klein.
    • 2. Phasen eines Bewegungserfassungsbildes werden uneinheitlich.
  • Für den Umgang mit den vorstehend beschriebenen Situationen 1 und 2 erzeugt die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 einen Signalwert Y(x, y) unter Verwendung der folgenden Formel (3) in dem WLI-Modus. Ein Signalwert R(x, y) wird nicht verwendet, da der Wert null wird. Ein Koeffizient für einen Signalwert Btmp(x, y) wird multipliziert (2 in Formel 3) ist ein Gewichtungswert zur Gewichtung einer B-Komponente, die eine Luminanzkomponente ist. Y(x, y) = 1 / 3{2 × Btmp(x, y) + Gtmp(x, y)} (3)
  • Insbesondere erzeugt, wenn ein Signalwert Y(0, 1) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert B(0, 1) eines Pixels B21 entspricht, erzeugt wird, die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp(0, 1) und Gtmp(0, 1) durch die folgenden Formeln (4) bzw. (5) auf Grundlage von Signalwerten von fünf Pixeln in einem in 13 gezeigten Mittelungszielbereich Q11 und erzeugt danach den Signalwert Y(0, 1) durch Formel (3). Eine Phase das Signalwertes Y(0, 1) ist S21, gezeigt in 13. Btmp(0, 1) = 1 / 2B(0, 1) + 1 / 4{B(2, 1) + B(0, 3)} (4) Gtmp(0, 1) = 1 / 2{G(1, 1) + G(0, 2)} (5)
  • Außerdem erzeugt, wenn ein Signalwert Y(2, 1) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert B(2, 1) eines Pixels B21 entspricht, erzeugt wird, die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp(2, 1) und Gtmp(2, 1) durch die folgenden Formen (6) bzw. (7) auf Grundlage von Signalwerten von fünf Pixeln in einem in 14 gezeigten Mittelungszielbereich Q12 und erzeugt danach den Signalwert Y(2, 1) durch Formel (3). Eine Phase des Signalwertes Y(2, 1) ist S22, gezeigt in 14. Btmp(2, 1) = 1 / 2B(2, 1) + 1 / 4{B(0, 1) + B(2, 3)} (6) Gtmp(2, 1) = 1 / 2{G(1, 1) + G(2, 2)} (7)
  • Um einen Signalwert Y(0, 3) zur Erzeugung eines Bewegungserfassungsbildes zu erzeugen, der einem Signalwert B(0, 3) eines Pixels B03 entspricht, erzeugt die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp(0, 3) und Gtmp(0, 3) durch die folgenden Formen (8) bzw. (9) auf Grundlage von Signalwerten von fünf Pixeln in einem in 15 gezeigten Mittelungszielbereich Q13 und erzeugt danach den Signalwert Y(0, 2) durch Formel (3). Eine Phase das Signalwertes Y(0, 3) ist S23, gezeigt in 15. Btmp(0, 3) = 1 / 2B(0, 3) + 1 / 4{B(0, 1) + B(2, 3)} (8) Gtmp(0, 3) = 1 / 2{G(0, 2) + G(1, 3)} (9)
  • Außerdem erzeugt, wenn ein Signalwert Y(2, 3) zur Erzeugung eines Bewegungserfassungsbildes, der einem Signalwert B(2, 3) eines Pixels B23 entspricht, erzeugt wird, die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp(2, 3) und Gtmp(2, 3) durch die folgenden Formen (10) bzw. (11) auf Grundlage von Signalwerten von fünf Pixeln in einem in 16 gezeigten Mittelungszielbereich Q14 und erzeugt danach den Signalwert Y(2, 3) durch Formel (3). Eine Phase das Signalwertes Y(0, 3) ist S24, gezeigt in 16. Btmp(2, 3) = 1 / 2B(2, 3) + 1 / 4{B(2, 1) + B(0, 3)} (10) Gtmp(2, 3) = 1 / 2{G(2, 2) + G(1, 3)} (11)
  • Der NBI-Modus hat Eigenschaften, dass biologische Strukturen durch das B-Signal dargestellt werden (Signal der Luminanzkomponente des NBI) und somit ermöglicht die Verwendung eines Pixels, das einen Signalwert Y und eine Mehrzahl von B-Pixeln und ein G-Pixel in der Nähe davon erzeugt, die Erzeugung eines Bewegungserfassungsbildes mit einheitlichen Phasen. Insbesondere ermöglicht die Verwendung von Signalwerten in einem Mittelungszielbereich, der drei B-Pixel und zwei G-Pixel von Pixeln in einer Nähe in die horizontale Richtung und in die vertikale Richtung von einer Pixelposition umfasst, der einen Signalwert Y als einen Bezugswert erzeugt, die Erzeugung eines Bewegungserfassungsbildes mit einheitlichen Phasen. In dem vorstehend beschriebenen Beispiel wurde die Berechnung eines Signalwertes Y an einer B-Pixel-Position erläutert. Es ist vorzuziehen, dass die Berechnung auf eine ähnliche Weise auch mit einer G-Pixel-Position ausgeführt wird. Auf diese Weise wird die Erzeugung eines Signalwertes Y(x, y) durch Signalwerte in einem Mittelungszielbereich derart eingestellt, dass ein Verhältnis des B-Signals groß wird, und ermöglicht, dass die Phasen der Signalwerte Y(x, y) einheitlich sind, was eine Genauigkeit der Bewegungserfassungsverarbeitung verbessert. Ein Bewegungserfassungsbild mit einheitlichen Phasen kann durch Verwendung eines Pixels, das einen Signalwert Y erzeugt, und einer Mehrzahl von G-Pixeln in der Nähe davon in dem WLI-Modus und durch Verwendung eines Pixels, das einen Signalwert Y erzeugt, und einer Mehrzahl von B-Pixeln in der Nähe davon in dem NBI-Modus erzeugt werden.
  • Als nächstes wird die von der Bewegungserfassungsverarbeitungseinheit 412 und der Rauschreduzierungsverarbeitungseinheit 413 ausgeführte Verarbeitung beschrieben. 17 ist ein Diagramm, das schematisch die Bewegung zwischen Bildern bei unterschiedlichen Abbildungszeiten erläutert, die von der Bewegungserfassungsverarbeitungseinheit 412 der Endoskopvorrichtung 1 gemäß der Ausführungsform der vorliegenden Erfindung aufgenommen werden. Wie in 17 gezeigt, erfasst die Bewegungserfassungsverarbeitungseinheit 412 als einen Bewegungsvektor durch ein bekanntes Block-Anpassungsverfahren unter Verwendung eines Blocks B1 als eine Vorlage einen Bildbewegungsbetrag Y1 zwischen einem ersten Bewegungserfassungsbild F1 und einem zweiten Bewegungserfassungsbild F2 unter Verwendung des ersten Bewegungserfassungsbildes F1 auf Grundlage eines vorherigen Bildes und des zweiten Bewegungserfassungsbildes F2 auf Grundlage des zu verarbeitenden momentanen Bildes. Das erste Bewegungserfassungsbild F1 und das zweite Bewegungserfassungsbild F2 sind Bilder auf der Grundlage von Abbildungssignalen von zwei aufeinanderfolgenden Einzelbildern in einer Zeitreihe.
  • Die Bewegungserfassungsverarbeitungseinheit 412 erfasst einen Bewegungsvektor für jedes Pixel (Signalwert Y) von dem von der Bewegungserfassungsbilderzeugungseinheit 411 erzeugten Bewegungserfassungsbild unter Verwendung des Block-Anpassungsverfahrens. Nachstehend wird eine Koordinate eines Pixels M1 als (x, y) bezeichnet und eine x-Komponente und eine y-Komponente eines Bewegungsvektors an der Koordinate (x, y) wird als Vx(x, y) bzw. Vy(x, y) bezeichnet. Wenn eine Koordinate eines Pixels M1' in dem ersten Bewegungserfassungsbild F1 als (x', y') bezeichnet wird, werden x' und y' von den folgenden Formeln (12) bzw. (13) definiert. Eine Blockanpassungsverarbeitungseinheit 412b gibt erfasste Bewegungsvektorinformation (einschließlich der Positionen der Pixel M1 und M1') an die Rauschreduzierungsverarbeitungseinheit 413 aus. x' = x + Vx(x, y) (12) y' = y + Vy(x, y) (13)
  • Die Rauschreduzierungsverarbeitungseinheit 413 reduziert Rauschen in dem momentanen Bild durch gewichtete Mittelungsverarbeitung zwischen dem momentanen Bild und einem vorherigen Bild. Nachstehend wird ein Signal nach Rauschreduzierungsverarbeitung an einem interessierenden Pixel, beispielsweise Pixel M1 (Koordinate (x, y)), als Inr(x, y) bezeichnet. Die Rauschreduzierungsverarbeitungseinheit 413 bezieht sich auf Bewegungsvektorinformation, bestimmt, ob ein Bezugspixel, das dem interessierenden Pixel entspricht, die gleiche Farbe hat, und führt eine unterschiedliche Verarbeitung zwischen den Fällen aus, in denen die Pixel die gleiche Farbe haben und unterschiedliche Farben haben. Die Rauschreduzierungsverarbeitungseinheit 413 bezieht sich auf Information eines in dem Einzelbildspeicher 414 gespeicherten vorherigen Bildes beispielsweise, bezieht Informationen (Signalwert oder Farbinformation von übertragenem Licht) des Pixels M1' (Koordinaten (x', y')) als das Bezugspixel, das dem Pixel M1 entspricht, und bestimmt, ob das Pixel M1' die gleiche Farbe hat wie das Pixel M1.
    • 1) Wenn das interessierende Pixel und das Bezugspixel die gleiche Farbe haben
  • Wenn das interessierende Pixel und das Bezugspixel die gleiche Farbe haben (die Pixel empfangen Licht mit der gleichen Farbkomponente), führt die Rauschreduzierungsverarbeitungseinheit 413 gewichtete Mittelungsverarbeitung, während sie ein Pixel in jedem eines nicht synchronisierten Bildes und ein zyklisches Pixel verwendet, unter Verwendung der folgenden Formel (14) aus und erzeugt dadurch ein Signal Inr(x, y). Inr(x, y) = coef × I(x, y) + (1 – coef) × I'(x', y') (14) wobei I(x, y): Signalwert des interessierenden Pixels in dem momentanen Bild und
    I'(x', y): Signalwert des Bezugspixels in einem vorherigen Bild.
  • Ein Koeffizient coef ist jegliche echte Zahl, die 0 < coef < 1 erfüllt. Der Koeffizient coef kann im Voraus als ein vorbestimmter Wert eingestellt werden oder kann über die Eingabeeinheit 42 durch einen Nutzer auf jeglichen Wert eingestellt werden.
    • 2) Wenn das interessierende Pixel und das Bezugspixel unterschiedliche Farben haben
  • Wenn das interessierende Pixel und das Bezugspixel unterschiedliche Farben haben (die Pixel empfangen Licht mit unterschiedlichen Farbkomponenten), interpoliert die Rauschreduzierungsverarbeitungseinheit 413 einen Signalwert auf das Bezugspixel des vorherigen Bildes von Pixeln der gleichen Farbe, die dieses umgeben. Die Rauschreduzierungsverarbeitungseinheit 413 erzeugt das Signal Inr(x, y) nach Rauschreduzierungsverarbeitung unter Verwendung beispielsweise der folgenden Formel (15).
    Figure DE112015005595T5_0002
    wobei w(x' + i, y' + j) gleich 1 ist, wenn I(x, y) und I(x' + i, y' + j) Signalwerte der gleichen Farbkomponente sind, und w(x' + i, y' + j) gleich 0 ist, wenn I(x, y) und I(x' + i, y' + j) Signalwerte verschiedener Farbkomponenten sind.
  • In Formel (15) ist w(x' + i, y' + j) eine Funktion zur Extraktion der gleichen Farbkomponente und ist gleich 1, wenn ein umliegendes Pixel (x' + i, y' + j) die gleiche Farbe hat wie das interessierende Pixel (x, y) und ist gleich Null, wenn sie unterschiedliche Farben haben. K ist ein Parameter zur Einstellung der Größe eines umliegenden Bereiches, auf den Bezug genommen werden soll. Der Parameter K wird eingestellt auf 1 (K = 1) für ein G-Pixel und wird eingestellt auf 2 (K = 2) für ein B-Pixel oder ein R-Pixel. K = 2 kann für ein G-Pixel eingestellt werden und K = 4 kann für ein B-Pixel oder ein R-Pixel eingestellt werden.
  • Danach führt die Demosaicing-Verarbeitungseinheit 415 Interpolationsverarbeitung auf Grundlage eines Signals (Signal Inr(x, y)) durch, die mit Rauschreduzierungsverarbeitung von der Rauschreduzierungsverarbeitungseinheit 413 durchgeführt wird, und erzeugt dadurch ein Farbbildsignal. Die Demosaicing-Verarbeitungseinheit 415 bestimmt eine Interpolationsrichtung aus der Korrelation von Farbinformation (Pixelwerten) einer Mehrzahl von Pixeln auf Grundlage eines Signalwertes einer Luminanzkomponente, die beispielsweise einem Bildgebungsverfahren entspricht, führt Interpolation auf Grundlage von Farbinformation von in die bestimmte Interpolationsrichtung ausgerichteten Pixeln aus und erzeugt dadurch ein Farbbildsignal. Alternativ kann als ein anderes Verfahren bi-cubische Interpolation verwendet werden.
  • Die Demosaicing-Verarbeitungseinheit 415 führt Interpolationsverarbeitung aus und erzeugt dadurch ein Farbbildsignal, das ein Farbbild (synchronisiertes Bild) enthält, das einem Signalwert zugeordnet ist, der RGB-Komponenten oder GB-Komponenten für jede Pixel Positionen enthält. Die Demosaicing-Verarbeitungseinheit 415 ordnet jedem der RGB-Kanäle ein Signal der Luminanzkomponente oder eine Farbkomponente zu. Beziehungen zwischen einem Kanal und einem Signal in den Bildgebungsverfahren (WLI/NBI) sind nachstehend gezeigt. In der Ausführungsform wird ein Signal der Luminanzkomponente dem G-Kanal zugeordnet
    WLI NBI
    R-Kanal:R-Signal G-Signal
    G-Kanal:G-Signal B-Signal
    B-Kanal:B-Signal B-Signal
  • Anschließend wird von dem Prozessor 4 mit der vorstehend beschriebenen Konfiguration ausgeführte Signalverarbeitung mit Bezugnahme auf die Zeichnungen beschrieben. 18 ist ein Ablaufdiagramm, das von dem Prozessor 4 der Endoskopvorrichtung 1 gemäß der Ausführungsform ausgeführte Signalverarbeitung zeigt. Die Steuereinheit 44 bezieht ein elektrisches Signal von dem Endoskop 2 und liest dann das momentane Bild (nicht synchronisierte Bild), das in dem elektrischen Signal enthalten ist (Schritt S101). Das elektrische Signal von dem Endoskop 2 wird von dem Bildsensor erzeugt und umfasst nicht synchronisierte Bilddaten, die von dem A/D-Wandler 205 in ein Digitalsignal umgewandelt werden.
  • Nach Lesen des momentanen Bildes bezieht sich die Steuereinheit 44 auf die Identifikationsinformationsspeichereinheit 261, um Steuerinformation (beispielsweise Information im Zusammenhang mit dem Beleuchtungslicht (Bildgebungsverfahren) oder Anordnungsinformation des Farbfilters 202a) zu beziehen, und gibt die Steuerinformation an die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 und die Demosaicing-Verarbeitungseinheit 415 aus (Schritt S102).
  • Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 bestimmt auf Grundlage der Steuerinformation (welches Bildgebungsverfahren eingestellt ist, durch welches Bildgebungsverfahren der bezogenen Weißlichtbildgebung (WLI) und der Schmalbandbildgebung (NBI-Modus) das elektrische Signal (gelesenes nicht synchronisiertes Bild) erzeugt wird,) und erzeugt auf Grundlage der Bestimmung ein Bewegungserfassungsbild (Schritt S103): Bewegungserfassungsbilderzeugungsschritt). Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 erzeugt ein Bewegungserfassungsbild auf Grundlage des momentanen Bildes und eines in dem Einzelbildspeicher 414 gespeicherten vorherigen Bildes und gibt das erzeugte Bewegungserfassungsbild an die Bewegungserfassungsverarbeitungseinheit 412 und den Einzelbildspeicher 414 aus.
  • Bei Bezug des Bewegungserfassungsbildes von der Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 erfasst die Bewegungserfassungsverarbeitungseinheit 412 einen Bewegungsvektor auf Grundlage des Bewegungserfassungsbildes, das dem momentanen Bild entspricht, und des Bewegungserfassungsbildes, das dem vorherigen Bild entspricht (S104: Bewegungserfassungsverarbeitungsschritt). Die Bewegungserfassungsverarbeitungseinheit 412 gibt den erfassten Bewegungsvektor an die Rauschreduzierungsverarbeitungseinheit 413 aus.
  • Die Rauschreduzierungsverarbeitungseinheit 413 führt Rauschreduzierungsverarbeitung auf dem elektrischen Signal (in Schritt S101 gelesenes momentanes Bild) unter Verwendung des momentanen Bildes, des vorherigen Bildes und des von der Bewegungserfassungsverarbeitungseinheit 412 erfassten Bewegungsvektors aus (Schritt S105). Das nach der Rauschreduzierungsverarbeitung in dem vorliegenden Schritt S105 erzeugte elektrische Signal (nicht synchronisierte Bild) wird an die Demosaicing-Verarbeitungseinheit 415 ausgegeben und wird auch in dem Einzelbildspeicher 414 als ein vorheriges Bild gespeichert (aktualisiert) (Schritt S106).
  • Bei Eingabe mit dem elektrischen Signal nach der Rauschreduzierungsverarbeitung durch die Rauschreduzierungsverarbeitungseinheit 413 führt die Demosaicing-Verarbeitungseinheit 415 auf Grundlage des elektrischen Signals Demosaicing-Verarbeitung aus (Schritt S107). Die Demosaicing-Verarbeitungseinheit 415 interpoliert eine Luminanzkomponente bei einer Pixelposition einer anderen Farbkomponente als der Luminanzkomponente und erzeugt dadurch ein Bildsignal, das ein Teil eines Bildes bildet, wo jedes Pixel einen Pixelwert oder einen interpolierten Wert der Luminanzkomponente hat. Danach erzeugt die Demosaicing-Verarbeitungseinheit 415 ein Bildsignal, das ein Teil eines Bildes bildet mit einem Pixelwert oder einem interpolierten Wert jeder der RGB-Farbkomponenten auf Grundlage von einem Pixelwerte und einem interpolierten Wert der Luminanzkomponente sowie einem Pixelwert eines Pixels einer anderen Farbkomponente als der Luminanzkomponente. Die Demosaicing-Verarbeitungseinheit 415 erzeugt dann ein Farbbildsignal, das ein Farbbild bildet, unter Verwendung jedes Bildsignales jeder der Farbkomponenten. Die Demosaicing-Verarbeitungseinheit 415 erzeugt ein Farbbildsignal unter Verwendung eines Bildsignals einer roten Komponente, einer grünen Komponente und einer blauen Komponente in dem WLI-Modus und erzeugt ein Farbbildsignal unter Verwendung eines Bildsignals einer grünen Komponente und einer blauen Komponente in dem NBI-Modus.
  • Nach Erzeugung des Farbbildsignals durch die Demosaicing-Verarbeitungseinheit 415 führt die Anzeigebilderzeugungsverarbeitungseinheit 416 Farbumwandlungsverarbeitung auf beispielsweise einem Farbraum von sRGB (XYZ kolorimetrisches System) aus, der ein Farbbereich der Anzeigeeinheit 5 ist, und führt ferner Tonumwandlung auf Grundlage von vorbestimmten Tonwandlungseigenschaften, Vergrößerungsverarbeitung oder sonstige Verarbeitung aus. Nach Ausführung der vorbestimmten Verarbeitung gibt die Anzeigebilderzeugungsverarbeitungseinheit 416 das Signal nach der Verarbeitung an die Anzeigeeinheit 5 als ein Anzeigebildsignal zur Anzeige aus.
  • Wenn das Anzeigebildsignal von der Anzeigebilderzeugungsverarbeitungseinheit 416 erzeugt wird, wird Bildanzeigeverarbeitung gemäß dem Anzeigebildsignal ausgeführt (Schritt S109). Die Bildanzeigeverarbeitung ermöglicht, das ein Bild, das dem Anzeigebildsignal entspricht, auf der Anzeigeeinheit 5 angezeigt wird.
  • Nach der Verarbeitung des Erzeugens des Anzeigebildsignals und der Bildanzeigeverarbeitung durch die Anzeigebilderzeugungsverarbeitungseinheit 416 bestimmt die Steuereinheit 44, ob das Bild das letzte Bild ist (Schritt S110). Die Steuereinheit 44 beendet die Verarbeitung, wenn die Serie der Verarbeitung auf allen Bildern abgeschlossen ist (Schritt S110: ja) und wenn noch ein unverarbeitetes Bild übrig ist, geht die Steuereinheit 44 zu Schritt S101 über und fährt mit einer ähnlichen Verarbeitung fort (Schritt S110: nein).
  • In der Ausführungsform ist jedes Element, das den Prozessor 4 bildet, durch Hardware zur Ausführung der Verarbeitung konfiguriert; die CPU kann jedoch die Verarbeitung der entsprechenden Einheiten ausführen und die vorstehend beschriebene Signalverarbeitung kann durch Software durch Ausführung eines Programms durch die CPU implementiert sein. Beispielsweise kann die Signalverarbeitung dadurch implementiert sein, dass die CPU die vorstehend beschriebene Software auf einem Bild ausführt, das im Voraus von einem Bildsensor, wie beispielsweise einem Kapselendoskop, aufgenommen wurde. Außerdem kann ein Teil der von den entsprechenden Einheiten ausgeführten Verarbeitung durch Software konfiguriert sein. In diesem Fall führt die CPU Signalverarbeitung entsprechend dem vorstehend beschriebenen Ablaufdiagramm aus.
  • Gemäß der vorstehend beschriebenen Ausführungsform erzeugt die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 einen Signalwert Y mit einheitlichen Phasen unabhängig von Bildgebungsverfahren (WLI-Modus und WLI-Modus) und erfasst die Bewegungserfassungsverarbeitungseinheit 412 einen Bewegungsvektor auf Grundlage der Signalwertes Y. Aus diesem Grund kann ein Bewegungsvektor mit hoher Genauigkeit sowohl bei der Weißlichtbildgebung als auch bei der Schmalbandbildgebung erfasst werden. Insbesondere erzeugt die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 in dem WLI-Modus einen Signalwert Y, der auf vier Signalwerten in einem Mittelungszielbereich basiert, wo ein Verhältnis von Signalwerten der G-Komponente als die Luminanzkomponente groß ist, und erzeugt im NBI-Modus einen Signalwert Y durch Einstellen eines Mittelungszielbereich derart, dass ein Verhältnis der Signale der B-Komponente als die Luminanzkomponente groß wird, oder durch Gewichtung eines Signalwertes. Außerdem werden Phasen der Signalwerte Y einheitlich. Dadurch kann die anschließende Bewegungsvektorerfassungsverarbeitung mit hoher Genauigkeit ausgeführt werden.
  • (Erste Modifizierung der Ausführungsform)
  • In der vorstehend beschriebenen Ausführungsform werden die Bewegungsvektorerfassungsverarbeitung und die Rauschreduzierungsverarbeitung auf dem von dem A/D-Wandler 205 ausgegebenen momentanen Bild ausgeführt; die vorliegende Erfindung ist jedoch nicht darauf beschränkt. In der ersten Modifizierung werden die Bewegungsvektorerfassungsverarbeitung und die Rauschreduzierungsverarbeitung auf einem Farbbildsignal nach der Interpolationsverarbeitung ausgeführt. In diesem Fall wird das von einem A/D-Wandler 205 erlangte momentane Bild an eine Demosaicing-Verarbeitungseinheit 415 ausgegeben. Ein von der Demosaicing-Verarbeitungseinheit 415 erzeugtes Farbbildsignal wird an eine Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 und an eine Rauschreduzierungsverarbeitungseinheit 413 ausgegeben.
  • Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 erzeugt ein Bewegungserfassungsbild unter Verwendung der folgenden Formeln (16) oder (17) je nach dem Bildgebungsverfahren. Signalwerte Ri(x, y), Gi(x, y), und Bi(x, y) in den folgenden Formeln (16) oder (17) sind Signalwerte einer Farbkomponente, die durch Interpolation an einer Pixelposition erzeugt wird, die einem Signalwert Y(x, y) entspricht. In Formeln (16) und (17) wird ein Signalwert der Luminanzkomponente jedes der Bildgebungsverfahren gewichtet.
  • <Im WLI-Modus>
    • Y(x, y) = 1 / 4{Ri(x, y) + 2 × Gi(x, y) + Bi(x, y)} (16)
  • <Im NBI-Modus>
    • Y(x, y) = 1 / 3{2 × Bi(x, y) + Gi(x, y)} (17)
  • Die Rauschreduzierungsverarbeitungseinheit 413 muss nur ein rauschreduziertes Bild unter Verwendung der vorstehend beschriebenen Formel (14) erzeugen und das Bild an die Anzeigebilderzeugungsverarbeitungseinheit 416 ausgeben. Gemäß diesem Verfahren ist die von der vorstehend beschriebenen Formel (15) gezeigte Interpolationsverarbeitung nach der Rauschreduzierungsverarbeitung nicht erforderlich, wodurch die Berechnungskosten reduziert werden können.
  • (Zweite Modifizierung der Ausführungsform)
  • In der vorstehend beschriebenen Ausführungsform wird der Signalwert Y (Bewegungserfassungsbild) durch ein einfaches arithmetisches Mittel von vier Pixeln in dem WLI-Modus erzeugt; die vorliegende Erfindung ist jedoch nicht darauf beschränkt. In der zweiten Modifizierung wird ein Signalwert Y aus einem gewichteten Mittelwert von Signalwerten der RGB-Farbkomponenten erzeugt. Als ein Gewichtungswert kann ein im Voraus vorbestimmter Wert verwendet werden oder können eine Bedienungsperson oder andere Person jeglichen Wert über die Eingabeeinheit 42 einstellen. In jedem Fall ist es vorzuziehen, dass ein Verhältnis von Signalwerten der G-Komponente in den Signalwerten Y 50% oder mehr beträgt. Beispielsweise wird eine in der folgenden Formel (18) gezeigte Umwandlungsformel zur Berechnung eines Signalwertes Y verwendet Y(x, y) = 0.21 × R(x, y) + 0.72 × G(x, y) + 0.07 × B(x, y) (18)
  • In dem NBI-Modus wird ein Signalwert Y bei einem Verhältnis von B:G = 2:1 erzeugt; die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Auch in diesem Fall können eine Bedienungsperson oder andere Person jeglichen Wert über die Eingabeeinheit 42 einstellen (B:G = 1:1 oder B:G = 3:1). Es ist vorzuziehen, dass ein Verhältnis von Signalwerten der B-Komponente auf 50% oder mehr eingestellt wird.
  • (Dritte Modifizierung der Ausführungsform)
  • In der vorstehend beschriebenen Ausführungsform wird der Signalwert Y (Bewegungserfassungsbild) unter Verwendung der vorstehend beschriebenen Formeln (4), (6), (8) und (10) in dem NBI-Modus erzeugt. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. In der dritten Modifizierung kann ein in der vorstehend beschriebenen Formel (3) gezeigter Wert Btmp unter Verwendung der folgenden Formeln (19) bis (22) berechnet werden (Signalwerte von vier B-Pixeln, die ein interessierendes B-Pixel umgeben, werden verwendet). Obwohl die B-Pixel aus einem Pixelbereich von 3×3 ausgewählt werden, der das interessierende Pixel umgibt und enthält, können B-Pixel aus einem Pixelbereich von 5×5 ausgewählt werden. Btmp(0, 1) = 5 / 8B(0, 1) + 1 / 8{B(2, 1) + B(0, 3) + B(2, 3)} (19) Btmp(2, 1) = 5 / 8B(2, 1) + 1 / 8{B(0, 1) + B(2, 3) + B(0, 3)} (20) Btmp(0, 3) = 5 / 8B(0, 3) + 1 / 8{B(0, 1) + B(2, 3) + B(2, 1)} (21) Btmp(2, 3) = 5 / 8B(2, 3) + 1 / 8{B(2, 1) + B(0, 3) + B(0, 1)} (22)
  • (Vierte Modifizierung der Ausführungsform)
  • In der vorstehend beschriebenen Ausführungsform hat ein Bewegungserfassungsbild die gleiche Größe wie das momentane Bild und ein vorheriges Bild, wie in 810 gezeigt; die vorliegende Erfindung ist jedoch nicht darauf beschränkt. In der vierten Modifizierung wird ein Bewegungserfassungsbild erzeugt, das auf die Hälfte der Größe des momentanen Bildes und eines vorherigen Bildes in die horizontale Richtung und die vertikale Richtung verkleinert wird. 1922 sind Diagramme, die von einer Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 ausgeführte Bewegungserfassungsbilderzeugungsverarbeitung einer Endoskopvorrichtung 1 gemäß der vierten Modifizierung der Ausführungsform der vorliegenden Erfindung erläutern.
  • Die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 erzeugt ein Bewegungserfassungsbild unter Verwendung der folgenden Formeln (23)–(29) je nach dem Bildgebungsverfahren, wo ein Signalwert des Bewegungserfassungsbildes als Ys(x, y) bezeichnet wird.
  • <Im WLI-Modus>
  • Im WLI-Modus wird beispielsweise ein Signalwert Ys(x, y) unter Verwendung der folgenden Formeln (23) und (24) erzeugt (siehe 19). Ein Mittelungszielbereich wird derart eingestellt, dass ein Signalwert eines Pixels nicht mehrmals verwendet wird, beispielsweise die Mittelungszielbereiche Q21 und Q22, die in 19 gezeigt sind. Ys(0, 0) = G(0, 0) + R(1, 0) + B(0, 1) + G(1, 1) (23) Ys(0, 1) = G(0, 2) + R(1, 2) + B(0, 3) + G(1, 3) (24)
  • <Im NBI-Modus>
  • Im NBI-Modus wird ein Signalwert Ys(x, y) unter Verwendung der folgenden Formeln (25)–(29) erzeugt (siehe 20). Ein Mittelungszielbereich wird derart eingestellt, dass er von neun Pixeln gebildet wird, die ein B-Pixel in der Mitte umgeben und enthalten, beispielsweise die Mittelungszielbereiche Q31 und Q32, die 20 gezeigt sind. Ys(x, y) = 1 / 3{2 × Btmp2(x, y) + Gtmp2(x, y)} (25)
  • Insbesondere erzeugt, wenn ein Signalwert Ys(1, 0) zur Erzeugung eines Bewegungserfassungsbildes erzeugt wird, die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp2(1, 0) und Gtmp2(1, 0) durch die folgenden Formeln (26) bzw. (27) auf Grundlage von Signalwerten von fünf Pixeln (ausschließlich ein R-Pixel) in dem Mittelungszielbereich Q31, der in 20 gezeigt ist, und erzeugt danach den Signalwert Ys(1, 0) durch die Formel (25). Eine Phase eines Signalwertes Ys(1, 0) ist S41, wie in 21 gezeigt. Btmp2(1, 0) = B(2, 1) (26) Gtmp2(1, 0) = 1 / 4{G(2, 0) + G(1, 1) + G(3, 1) + G(2, 2)} (27)
  • Insbesondere erzeugt, wenn ein Signalwert Ys(1, 1) zur Erzeugung eines Bewegungserfassungsbildes erzeugt wird, die Bewegungserfassungsbilderzeugungsverarbeitungseinheit 411 Signalwerte Btmp(1, 1) und Gtmp(1, 1) durch die folgenden Formeln (28) bzw. (29) auf Grundlage von Signalwerten von sieben Pixeln (ausschließlich ein R-Pixel) in dem Mittelungszielbereich Q32, der in 20 gezeigt ist, und erzeugt danach den Signalwert Ys(1, 1) durch die Formel (25). Eine Phase eines Signalwertes Ys(1, 1) ist S42, wie in 22 gezeigt. Btmp2(1, 1) = B(2, 3) (28) Gtmp2(1, 1) = 1 / 4{G(2, 2) + G(1, 3) + G(3, 3) + G(2, 4)} (29)
  • Gemäß der vierten Modifizierung wird ein Bewegungserfassungsbild verkleinert und somit können die für Blockanpassungsverarbeitung erforderlichen Berechnungskosten von einer Bewegungserfassungsverarbeitungseinheit 412 reduziert werden (die Schaltungsgröße kann reduziert werden). In der vierten Modifizierung verdoppelt die Bewegungserfassungsverarbeitungseinheit 412 die Größe eines erfassten Bewegungsvektors (Umwandlung in einen Bewegungsvektor in dem momentanen Bild) und dadurch die Ausgaben an die Rauschreduzierungsverarbeitungseinheit 413.
  • (Fünfte Modifizierung der Ausführungsform)
  • In der vorstehend beschriebenen Ausführungsform umfasst der Bildsensor 202 als ein Grundmuster eine (siehe 4) aus 2×2 Pixeln gebildete Filtereinheit U1; die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Es kann beispielsweise eine aus 4×4 Pixeln gebildete Filtereinheit verwendet werden. 23 ist ein schematisches Diagramm, das eine Konfiguration eines Farbfilters gemäß der fünften Modifizierung der Ausführungsform der vorliegenden Erfindung zeigt. Die in 22 gezeigte Filtereinheit U2 umfasst acht G-Filter, sechs B-Filter und zwei R-Filter, die derart angeordnet sind, dass Filter der gleichen Farbe einander nicht in die horizontale Richtung und die vertikale Richtung benachbart sind. Die Verarbeitung der Erzeugung eines Bewegungserfassungsbildes mit der Filtereinheit U2 ist nachstehend beschrieben.
  • <Im WLI-Modus>
  • Im WLI-Modus wird ein Signalwert Y(x, y) eines Bewegungserfassungsbildes durch Mittelungsverarbeitung von vier Pixeln für das momentane Bild (ähnlich wie die 8) erzeugt. Beispielsweise werden Signalwerte Y(0, 0) und Y(0, 1) eines Bewegungserfassungsbildes unter Verwendung der vorstehenden Formeln (1) und (2) erzeugt (ähnlich auch auf andere Koordinaten angewendet).
  • <Im NBI-Modus>
  • Im NBI-Modus ist ein Signalwert eines R-Pixels gleich null und wird somit nicht wie vorstehend beschrieben verwendet. In diesem Fall werden beispielsweise vier Pixel oben links in der in 23 gezeigten Filtereinheit U2 nur durch G-Pixel und B-Pixel gebildet, ohne ein R-Pixel zu enthalten, und wird somit Y(0, 0) durch Mittelungsverarbeitung der vier Pixel wie vorstehend beschrieben mit der vorstehenden Formel (1) erzeugt. Währenddessen enthalten im Fall von Y(0, 1) vier Pixel (B21, G22, G31, und R32) das R-Pixel und ist es somit erforderlich, das Auftreten einer Phasenverschiebung unter Verwendung der vorstehenden Formeln (4) und (5) zu verhindern. Insbesondere werden beispielsweise die folgenden Formeln (30)–(33) verwendet. Koordinaten, die Signalwerten zugeordnet sind, sind ähnlich wie die vorstehend beschriebenen.
    *wenn kein R-Pixel in einem Mittelungszielbereich vorhanden ist (beispielsweise im Fall eines Signalwertes Y(0, 0)) Y(0, 0) = G(0, 0) + B(1, 0) + B(0, 1) + G(1, 1) (30) *wenn ein R-Pixel in einem Mittelungszielbereich vorhanden ist (beispielsweise im Fall eines Signalwertes Y(0, 1)) Y(x, Y) = 1 / 3{2 × Btmp(x, y) + Gtmp(x, y) (31) Btmp(0, 1) = 1 / 2B(0, 1) + 1 / 4{B(2, 1) + B(0, 3)} (32) Gtmp(0, 1) = 1 / 2{G(1, 1) + G(0, 2)} (33)
  • Im NBI-Modus wird ein Signalwert Y je nach der Anordnung eines R-Pixels unter Verwendung der vorstehenden Formeln (30) bis (33) erzeugt.
  • Der Farbfilter 202a gemäß der vorstehend beschriebenen Ausführungsform muss nur Filtereinheiten haben, wenn die Anzahl von G-Filtern, die Licht des Wellenlängenbands HG übertragen, größer ist als die Anzahl von B-Filtern, die Licht des Wellenlängenbands HB übertragen, und die Anzahl von R-Filtern, die Licht des Wellenlängenbands HR übertragen. Somit kann jegliche andere Anordnung als die vorstehend beschriebene Anordnung verwendet werden, die die vorstehend beschriebenen Bedingungen erfüllt. Die vorstehend beschriebene Filtereinheit hat eine Anordnung von 2 × 2 oder 4 × 4; die Anordnung in der Filtereinheit ist jedoch nicht darauf beschränkt.
  • In der vorstehend beschriebenen Ausführungsform ist der Farbfilter 202a, der die Mehrzahl von Filtern umfasst, die jeweils Licht mit einem vorbestimmten Wellenlängenband übertragen, auf der Licht-empfangenden Oberfläche des Bildsensors 202 vorgesehen; es kann jedoch jeder der Filter auch separat für jedes Pixel des Farbsensors 202 vorgesehen sein.
  • In der vorstehend beschriebenen Ausführungsform ist Schmalbandbeleuchtungslicht durch Licht des Schmalbands TB, das in dem Wellenlängenband HB enthalten ist, und Licht eines Schmalbandes TG, das in dem Wellenlängenband HG enthalten ist, gebildet. Das Schmalbandbeleuchtungslicht ist jedoch nicht auf diese Schmalbänder beschränkt. Beispielsweise kann Schmalbandbeleuchtungslicht durch Licht des Schmalbands TR, das in dem Wellenlängenband HR enthalten ist und Licht des Schmalbandes TG, das in dem Wellenlängenband HG enthalten ist, gebildet werden. Licht des Schmalbandes TR, das in dem Wellenlängenband HR enthalten ist, ermöglicht beispielsweise die Beobachtung von Blutgefäßen in der tiefen Schicht. Eine Luminanzkomponente bei der Schmalbandlichtbildgebung ist in diesem Fall eine rote Komponente. Ähnlich wie die Einstellung eines Bereiches auf Grundlage eines B-Pixels wie vorstehend beschrieben, wird ein Mittelungszielbereich auf der Grundlage eines R-Pixels eingestellt.
  • Die Endoskopvorrichtung 1 gemäß der vorstehend beschriebenen Ausführungsform schaltet von der Beleuchtungseinheit 31 ausgestrahltes Beleuchtungslicht zu einem des Weißbeleuchtungslichts und des Schmalbandbeleuchtungslichts durch Einfügen oder Entfernen des Schaltfilters 31c bezüglich von einer Lichtquelle 31a ausgestrahltem Weißlicht um. Jedoch kann das Umschalten zwischen zwei Lichtquellen verwendet werden, um eines des Weißbeleuchtungslichts und des Schmalbandbeleuchtungslichts auszustrahlen. Als eine Vorrichtung zum Wechseln zwischen den zwei Lichtquellen, um eines des Weißbeleuchtungslichts und des Schmalbandbeleuchtungslichts auszustrahlen, kann ein Kapselendoskop verwendet werden, das die Lichtquelleneinheiten, einen Farbfilter und einen Bildsensor umfasst und dafür konfiguriert ist, beispielsweise in ein Subjekt eingeführt zu werden.
  • Die Endoskopvorrichtung 1 gemäß der vorstehend beschriebenen Ausführungsform umfasst den A/D-Wandler 205 am distalen Endteil 24; der A/D-Wandler 205 kann jedoch in dem Prozessor 4 enthalten sein. Außerdem kann die Konfiguration im Zusammenhang mit der Bildverarbeitung in dem Endoskop 2, einem Verbinder, der das Endoskop 2 mit dem Prozessor 4 verbindet, oder der Bedienungseinheit 22 enthalten sein. Die vorstehend beschriebene Endoskopvorrichtung 1 identifiziert das mit dem Prozessor 4 verbundene Endoskop 2 unter Verwendung der Identifikationsinformation oder sonstigen in der Identifikationsinformationsspeichereinheit 261 gespeicherten Informationen; eine Identifikationseinheit kann jedoch an einem Verbindungsteil (Verbinder) zwischen dem Prozessor 4 und dem Endoskop 2 vorgesehen sein. Beispielsweise kann eine PIN zur Identifikation (Identifikationseinheit) auf der Seite des Endoskops 2 enthalten sein, um das mit dem Prozessor 4 verbundene Endoskop 2 zu identifizieren.
  • Industrielle Anwendbarkeit
  • Wie vorstehend beschrieben, sind die Bildverarbeitungsvorrichtung, das Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, das Programm zum Bedienen der Bildverarbeitungsvorrichtung und die Endoskopvorrichtung gemäß der Erfindung nützlich zum Erlangen von Bildern mit hoher Auflösung bei jeder der Weißlichtbildgebung und der Schmalbandbildgebung.
  • Bezugszeichenliste
  • 1
    ENDOSKOPVORRICHTUNG
    2
    ENDOSKOP
    3
    LICHTQUELLENEINHEIT
    4
    PROZESSOR
    5
    ANZEIGEEINHEIT
    21
    EINFÜHREINHEIT
    22
    BEDIENUNGSEINHEIT
    23
    UNIVERSALKABEL
    24
    DISTALER ENDTEIL
    31
    BELEUCHTUNGSEINHEIT
    31a
    LICHTQUELLE
    31b
    LICHTQUELLENTREIBER
    31c
    SCHALTFILTER
    31d
    TREIBEREINHEIT
    31e
    TREIBER
    31f
    KONDENSORLINSE
    32
    BELEUCHTUNGSSTEUEREINHEIT
    41
    BILDVERARBEITUNGSEINHEIT
    42
    EINGABEEINHEIT
    43
    SPEICHEREINHEIT
    44
    STEUEREINHEIT
    201
    OPTISCHES BILDGEBUNGSSYSTEM
    202
    BILDSENSOR
    202A
    FARBFILTER
    203
    LICHTLEITER
    204
    BELEUCHTUNGSLINSE
    205
    A/D-WANDLER
    206
    BILDGEBUNGSINFORMATIONSSPEICHEREINHEIT
    261
    IDENTIFIKATIONSINFORMATIONSSPEICHEREINHEIT
    411
    BEWEGUNGSERFASSUNGSBILDERZEUGUNGSVERARBEITUNGSEINHEIT
    412
    BEWEGUNGSERFASSUNGSVERARBEITUNGSEINHEIT
    413
    RAUSCHREDUZIERUNGSVERARBEITUNGSEINHEIT
    414
    EINZELBILDSPEICHER
    415
    DEMOSAICING-VERARBEITUNGSEINHEIT
    416
    ANZEIGEBILDERZEUGUNGSVERARBEITUNGSEINHEIT
    U1, U2
    FILTEREINHEIT

Claims (7)

  1. Bildverarbeitungsvorrichtung zum Erzeugen eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmalbandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist, wobei die Bildverarbeitungsvorrichtung umfasst: eine Bewegungserfassungsbilderzeugungseinheit, die dafür konfiguriert ist, Mittelungsverarbeitung auf Pixelwerten von Pixeln auszuführen, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen und die Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart zu erzeugen, dass bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und eine Bewegungserfassungsverarbeitungseinheit, die dafür konfiguriert ist, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder die Bewegung zwischen zwei der Bewegungserfassungsbilder zu erfassen, die auf Grundlage der aufgenommenen Bilder zu den unterschiedlichen Zeitpunkten erzeugt werden.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Luminanzkomponente bei der Weißlichtbildgebung eine grüne Komponente ist, die Luminanzkomponente bei der Schmalbandlichtbildgebung eine blaue Komponente ist, und die Bewegungserfassungsbilderzeugungseinheit dafür konfiguriert ist, die Mittelungsverarbeitung durch Gewichten des Pixelwertes der grünen Komponente bei der Weißlichtbildgebung auszuführen und die Mittelungsverarbeitung durch Gewichtung des Pixelwertes der blauen Komponente bei der Schmalbandlichtbildgebung auszuführen.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei Phasen des Signalwertes zum Erzeugen der Bewegungserfassungsbilder auf Grundlage einer Anordnung in der Gruppe der Mehrzahl von Pixeln einheitlich in den Bewegungserfassungsbildern angeordnet sind.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, die ferner umfasst: eine Rauschreduzierungsverarbeitungseinheit, die dafür konfiguriert ist, eine in den aufgenommenen Bildern enthaltene Rauschkomponente auf Grundlage der von der Bewegungserfassungsverarbeitungseinheit erfassten Bewegung zu reduzieren.
  5. Verfahren zum Bedienen einer Bildverarbeitungsvorrichtung zum Erzeugen eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmalbandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist, wobei das Verfahren umfasst: einen Bewegungserfassungsbilderzeugungsschritt der Ausführung, durch eine Bewegungserfassungsbilderzeugungseinheit, von Mittelungsverarbeitung auf Pixelwerten von Pixeln, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen, und des Erzeugens der Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart, dass bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und einen Bewegungserfassungsverarbeitungsschritt des Detektierens, durch eine Bewegungserfassungsverarbeitungseinheit, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder, der Bewegung zwischen zwei der Bewegungserfassungsbilder, die auf Grundlage der aufgenommenen Bilder zu den verschiedenen Zeitpunkten erzeugt werden.
  6. Programm zum Bedienen einer Bildverarbeitungsvorrichtung zur Erzeugung eines aufgenommenen Bildes auf Grundlage eines Signalwertes, der durch eine Mehrzahl von Pixeln gemäß einem von Weißbeleuchtungslicht bei Weißlichtbildgebung und Schmalbandbeleuchtungslicht bei Schmalbandbildgebung erzeugt wird, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, wobei das Schmalbandbeleuchtungslicht in einem des roten, grünen und blauen Wellenlängenbands enthalten ist, wobei das Programm bewirkt, dass die Bildverarbeitungsvorrichtung ausführt: einen Bewegungserfassungsbilderzeugungsschritt der Ausführung, durch eine Bewegungserfassungsbilderzeugungseinheit, von Mittelungsverarbeitung auf Pixelwerten von Pixeln, die in einer Gruppe einer Mehrzahl von Pixeln mit unterschiedlichen Farbfiltern enthalten sind, um einen Signalwert zum Erzeugen von Bewegungserfassungsbildern zu erlangen, und des Erzeugens der Bewegungserfassungsbilder zur Erfassung von Bewegung zwischen aufgenommenen Bildern zu unterschiedlichen Zeitpunkten auf Grundlage des durch die Mittelungsverarbeitung erlangten Signalwertes derart, dass bei der bei der Weißlichtbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Weißlichtbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist, während bei der Schmalbandbildgebung ein Gewicht eines Pixelwertes eines Pixels mit einem Filter zur Passage von Licht einer Luminanzkomponente eines aufgenommenen Bildes bei der Schmalbandbildgebung derart eingestellt wird, dass es größer oder gleich einem Gewicht eines Pixelwertes eines Pixels mit einem anderen Typ von Filter ist; und einen Bewegungserfassungsverarbeitungsschritt des Detektierens, durch eine Bewegungserfassungsverarbeitungseinheit, auf Grundlage der von der Bewegungserfassungsbilderzeugungseinheit erzeugten Bewegungserfassungsbilder, der Bewegung zwischen zwei der Bewegungserfassungsbilder, die auf Grundlage der aufgenommenen Bilder zu den verschiedenen Zeitpunkten erzeugt werden.
  7. Endoskopvorrichtung zur Ausführung von Weißlichtbildgebung und Schmalbandlichtbildgebung, wobei die Endoskopvorrichtung umfasst: eine Lichtquelleneinheit, die dafür konfiguriert ist, eines von einem Weißbeleuchtungslicht und einem Schmalbandbeleuchtungslicht auszustrahlen, wobei das Weißbeleuchtungslicht rote, grüne und blaue Wellenlängenbänder umfasst, das Schmalbandbeleuchtungslicht zwei Schmalbänder umfasst, die in einem der Wellenlängenbänder von Luminanzkomponenten bei der Weißlichtbildgebung und der Schmalbandlichtbildgebung enthalten sind; einen Bildsensor mit einer Mehrzahl von in einer Matrixform angeordneten Pixeln, wobei die Mehrzahl von Pixeln dafür konfiguriert ist, Licht zu empfangen und photoelektrische Wandlung auf dem empfangenen Licht auszuführen, um ein elektrisches Signal zu erzeugen; einen Farbfilter mit einer Mehrzahl von Filtereinheiten, die auf einer Lichtempfangenden Fläche des Bildsensors angeordnet sind, wobei jede der Mehrzahl von Filtereinheiten einen ersten Filter, einen zweiten Filter und einen dritten Filter umfasst, wobei der erste Filter für die Passage von Licht von Wellenlängenbändern einer Luminanzkomponente bei der Weißlichtbildgebung und einer Luminanzkomponente bei der Schmalbandlichtbildgebung konfiguriert ist, der zweite Filter für die Passage von Licht eines Wellenlängenbands der Luminanzkomponente bei der Weißlichtbildgebung konfiguriert ist und der dritte Filter für die Passage von Licht eines Wellenlängenbands der Luminanzkomponente bei der Schmalbandlichtbildgebung konfiguriert ist; und die Bildverarbeitungsvorrichtung nach Anspruch 1.
DE112015005595.9T 2015-01-20 2015-01-20 Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung Withdrawn DE112015005595T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/051427 WO2016117036A1 (ja) 2015-01-20 2015-01-20 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置

Publications (1)

Publication Number Publication Date
DE112015005595T5 true DE112015005595T5 (de) 2017-09-28

Family

ID=56416602

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015005595.9T Withdrawn DE112015005595T5 (de) 2015-01-20 2015-01-20 Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung

Country Status (5)

Country Link
US (1) US10765295B2 (de)
JP (1) JP6401800B2 (de)
CN (1) CN107113405B (de)
DE (1) DE112015005595T5 (de)
WO (1) WO2016117036A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015005595T5 (de) * 2015-01-20 2017-09-28 Olympus Corporation Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
WO2017217029A1 (ja) * 2016-06-13 2017-12-21 オリンパス株式会社 動き判定装置、被検体内導入装置、動き判定方法及びプログラム
WO2019088259A1 (ja) * 2017-11-06 2019-05-09 Hoya株式会社 電子内視鏡用プロセッサ及び電子内視鏡システム
KR102467240B1 (ko) * 2018-02-05 2022-11-15 한화테크윈 주식회사 영상의 잡음 제거 장치 및 방법
CN112105284B (zh) * 2018-05-14 2024-02-13 富士胶片株式会社 图像处理装置、内窥镜系统及图像处理方法
CN111839445A (zh) * 2019-04-25 2020-10-30 天津御锦人工智能医疗科技有限公司 一种基于图像识别的结肠镜手术中窄带成像检测方法
JP7276120B2 (ja) * 2019-12-25 2023-05-18 セイコーエプソン株式会社 表示装置の制御方法、及び表示装置
CN111770243B (zh) * 2020-08-04 2021-09-03 深圳市精锋医疗科技有限公司 内窥镜的图像处理方法、装置、存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150903A (ja) 2003-11-12 2005-06-09 Matsushita Electric Ind Co Ltd 画像処理装置、ノイズ除去方法及びノイズ除去プログラム
JP4630174B2 (ja) * 2005-11-14 2011-02-09 日本放送協会 動きベクトル検出装置
JP5767775B2 (ja) * 2009-07-06 2015-08-19 富士フイルム株式会社 内視鏡装置
JP5401191B2 (ja) * 2009-07-21 2014-01-29 富士フイルム株式会社 撮像装置及び信号処理方法
JP5802364B2 (ja) * 2009-11-13 2015-10-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
CN102917633B (zh) * 2010-06-24 2015-03-11 奥林巴斯医疗株式会社 内窥镜装置
JP4996773B2 (ja) * 2010-06-28 2012-08-08 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2012055498A (ja) * 2010-09-09 2012-03-22 Olympus Corp 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法
JP5371920B2 (ja) * 2010-09-29 2013-12-18 富士フイルム株式会社 内視鏡装置
CN102753082B (zh) * 2010-10-26 2016-10-12 奥林巴斯株式会社 内窥镜
JP2012157383A (ja) * 2011-01-28 2012-08-23 Olympus Corp 内視鏡装置
WO2013031701A1 (ja) * 2011-08-26 2013-03-07 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP6150554B2 (ja) * 2013-02-26 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP6230409B2 (ja) * 2013-12-20 2017-11-15 オリンパス株式会社 内視鏡装置
JP6346501B2 (ja) * 2014-06-16 2018-06-20 オリンパス株式会社 内視鏡装置
DE112014007051T5 (de) * 2014-11-19 2017-06-22 Olympus Corporation Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
CN107005683A (zh) * 2014-11-28 2017-08-01 奥林巴斯株式会社 内窥镜装置
DE112015005595T5 (de) * 2015-01-20 2017-09-28 Olympus Corporation Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung

Also Published As

Publication number Publication date
JPWO2016117036A1 (ja) 2017-10-26
CN107113405A (zh) 2017-08-29
JP6401800B2 (ja) 2018-10-10
WO2016117036A1 (ja) 2016-07-28
CN107113405B (zh) 2019-01-15
US20170296033A1 (en) 2017-10-19
US10765295B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
DE112015005595T5 (de) Bildverabeitungsvorrichtung, Verfahren zum Bedienen der Bildverarbeitungsvorrichtung, Programm zum Bedienen der Bildverarbeitungsvorrichtung und Endoskopvorrichtung
US11330237B2 (en) Medical inspection apparatus, such as a microscope or endoscope using pseudocolors
DE112014007051T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bildverarbeitungsprogramm und Endoskopvorrichtung
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE10101064B4 (de) Elektronisches Endoskopsystem
DE4321786C2 (de) Endoskopvorrichtung mit zwei wahlweise an einer Signalverarbeitungseinheit betreibbaren Adaptereinheiten und Endoskopen
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE102009032249B4 (de) Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem
DE112015005531T5 (de) Bildverarbeitungsvorrichtung, Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, Programm zum Betreiben einer Bildverarbeitungsvorrichtung und Endoskopeinrichtung
CN107205629B (zh) 图像处理装置和摄像系统
DE112014007038T5 (de) Endoskopvorrichtung
DE112017001293T5 (de) Endoskop, vorrichtung zur bildverarbeitung, verfahren zur bildverarbeitung und programm
DE102004007942A1 (de) Diagnose-Hilfsgerät
JP2013000176A (ja) 内視鏡システム、内視鏡システムの光源装置、及び光量制御方法
DE112016004455T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Operationssystem und chirurgischer Faden
DE112016000094B4 (de) Vorrichtung zur Berechnung von Analysewerten und elektronisches Endoskopsystem
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
DE112015002169T5 (de) Endoskopvorrichtung
DE112017002933B4 (de) Elektronische Endoskopverarbeitungseinrichtung und elektronisches Endoskopsystem
DE112016007230T5 (de) Endoskopsonde, Endoskopprozessor und Endoskopadapter
JP7068438B2 (ja) 画像処理装置、内視鏡システム、画像処理方法およびプログラム
DE112016001722T5 (de) Endoskopsystem und Bewertungswert-Berechnungsvorrichtung
DE112018001730T5 (de) Elektronisches Endoskopsystem
JP5885652B2 (ja) 撮像装置、内視鏡装置、及び生体パターン強調処理方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee