DE102014110131B4 - Bildaufnahmevorrichtung - Google Patents

Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE102014110131B4
DE102014110131B4 DE102014110131.6A DE102014110131A DE102014110131B4 DE 102014110131 B4 DE102014110131 B4 DE 102014110131B4 DE 102014110131 A DE102014110131 A DE 102014110131A DE 102014110131 B4 DE102014110131 B4 DE 102014110131B4
Authority
DE
Germany
Prior art keywords
image
signal
image pickup
infrared
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014110131.6A
Other languages
English (en)
Other versions
DE102014110131A1 (de
Inventor
c/o Mitsubishi Electric Engineer Sugano Tetsuo
c/o Mitsubishi Electric Enginee Shikita Satoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Publication of DE102014110131A1 publication Critical patent/DE102014110131A1/de
Application granted granted Critical
Publication of DE102014110131B4 publication Critical patent/DE102014110131B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Eine Bildaufnahmevorrichtung zum Aufnehmen von Bildern in einer Mehrzahl von Wellenlängenbändern, aufweisend:einen ersten Bildaufnahmeteil (24) zum Aufnehmen eines optischen Bildes in einem nah-infraroten Band;einen zweiten Bildaufnahmeteil (26) zum Aufnehmen eines optischen Bildes in einem Band sichtbaren Lichts;einen Konturbildextrahierungsteil (33d) zum Durchführen einer Verarbeitung zum Extrahieren eines Konturanteils aus einem durch den ersten Bildaufnahmeteil gewonnenen Nahinfrarotbild; undeinen Synthesebilderzeugungsteil (331) zum Addieren eines durch den zweiten Bildaufnahmeteil gewonnenen sichtbaren Bildes und eines mittels Konturextrahierungsverarbeitung durch den Konturbildextrahierungsteil erhaltenen Konturbildes mit einem vorbestimmten Verhältnis, um ein Synthesebild zu erzeugen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Bildaufnahmevorrichtung zum Gewinnen eines Synthesebildes auf der Grundlage eines Normalbildes, das durch Bestrahlen eines Testobjekts mit sichtbarem Licht gewonnen wird, und eines speziellen Bildes, das durch Bestrahlen des Testobjekts mit speziellem Licht gewonnen wird, in einer Kamera z. B. für medizinische Verwendung oder industrielle Verwendung.
  • Beschreibung des Stands der Technik
  • Im Stand der Technik ist beispielsweise ein Endoskopsystem zum Beobachten eines Gewebes in einer Körperhöhlung weitgehend bekannt. Ein elektronisches Endoskopsystem zum Aufnehmen eines Bildes eines zu beobachtenden Teilbereichs in der Körperhöhlung durch Bestrahlung weißen Lichts, um ein Normalbild zu erhalten, und Anzeigen des erhaltenen Normalbildes auf einem Monitorschirm ist weitgehend zur praktischen Verwendung gebracht worden.
  • Als ein Endoskopsystem, das vorstehend beschrieben wurde, ist das nachstehende Fluoreszenzendoskopsystem weitgehend zur praktischen Verwendung gebracht worden. Namentlich nimmt das Fluoreszenzendoskopsystem ein Autofluoreszenzbild, das von dem zu beobachtenden Teilbereich durch Bestrahlung von Anregungslicht emittiert wird, zusammen mit dem Normalbild auf, synthetisiert das Normalbild und das Autofluoreszenzbild auf geeignete Weise und zeigt das erhaltene Synthesebild auf dem Monitorschirm an.
  • Im Einzelnen wird herkömmlich eine Fluoreszenzbeobachtung in einer vaskulären Strömung oder erkranktem Gewebe durch die intravenöse Applikation von Indocyaningrün (ICG) durchgeführt. Es ist allgemein bekannt, dass Fluoreszenz in dem Bereich von 830 nm bis 840 nm bezüglich Einstrahlung von Anregungslicht in dem Bereich von 750 nm bis 790 nm erhalten wird. Allerdings weist die Fluoreszenz ein Wellenlängenband in einem nah-infraroten Bereich auf. Daher ist ein Bild, das in dem vorstehend erwähnten Fall erhalten wird, ein monochromes Bild. Zusätzlich sind in diesem Zustand sichtbare Teile nicht gleichzeitig sichtbar. Daher sind für die Beobachtung und Diagnose an dem charakteristischen Fluoreszenzbild von Blutstrom und erkranktem Gewebe in einem Wächterlymphknoten einige Erfahrungen und Intuition erforderlich.
  • Angesichts der vorstehend beschriebenen Situationen wird in einem Fluoreszenzendoskopsystem, das in der japanischen Patentoffenlegungsschrift Nr. 2007-75198 beschrieben ist, das Folgende vorgeschlagen. Namentlich werden das Normalbild (Beleuchtungslichtbild) und das Weißlichtbild (Fluoreszenzbild) synthetisiert, um das erhaltene Synthesebild auf dem Monitorschirm anzuzeigen.
  • Wie in dem Fall des in der japanischen Patentoffenlegungsschrift Nr. 2007-75198 beschriebenen Fluoreszenzendoskopsystems werden jedoch das Beleuchtungslichtbild, das ein Bild eines sichtbaren Lichts ist, und das Fluoreszenzbild einfach bei einem vorbestimmten Helligkeitsverhältnis synthetisiert. Daher werden charakteristische Informationen, die von dem Fluoreszenzbild zu erhalten sind, nicht angemessen erhalten. Zusätzlich enthält das Synthesebild eine große Menge an unnötiger Information. Beispielsweise emittiert ein Blutströmungsanteil autofluoreszentes Licht durch eine Anregungslichtquelle mittels der Applikation von Indocyaningrün (ICG). Indessen sieht, als ein Ergebnis von Reflektion des Autofluoreszenzwellenlängenlichts durch ein peripheres Gebiet des Blutströmungsanteils, auch ein anderer Anteil als der Blutströmungsanteil so aus, als ob der Anteil fluoreszentes Licht emittierte. Daher weist das erhaltene Synthesebild die geringe Sichtbarkeit auf, da nicht nur ein gewünschter spezifischer Anteil nicht klar angezeigt wird, sondern auch sogar ein unnötiger Anteil angezeigt wird.
  • Aus der DE 10 2006 042 670 A1 und der JP 2003 - 290 130 A ist ein elektrisches Autofluoreszenzendoskopsystem bekann, bei dem abnormales Gewebe automatisch auf der Grundlage von Luminanzwerten des Standardbildes wie auch von Luminanzwerten des Fluoreszenzbildes automatisch identifiziert werden kann, wobei eine Scheinfarbe, wie etwa gelb oder rot, über einen Bereich gelegt wird, der dem abnormalen Gewebe entspricht.
  • Die EP 2 526 853 A1 zeigt ein Fluoreszenzendoskop mit einem Bildkombinierer zur Synthese eines Weißlichtbildes mit einem Fluoreszenzbild bekannt. Die US 2002 / 0 168 096 A1 beschreibt ein Verfahren und eine Vorrichtung zur standardisierten Fluoreszenzbilderzeugung mit einer solchen Bildsynthese.
  • KURZFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist im Lichte der vorstehend beschriebenen Probleme gemacht worden und weist eine Aufgabe auf, eine Bildaufnahmevorrichtung und ein Bildaufnahmeverfahren bereitzustellen, welche die Gewinnung eines Synthesebildes ermöglicht, das einen Zustand eines Ziels einer Bildaufnahme in einer besser sichtbaren Weise zeigt.
  • Gemäß einem Gesichtspunkt der vorliegenden Erfindung wird eine Bildaufnahmevorrichtung zum Aufnehmen von Bildern in einer Mehrzahl von Wellenlängenbändern bereitgestellt, welche aufweist: einen ersten Bildaufnahmeteil zum Aufnehmen eines optischen Bildes in einem nah-infraroten Band; einen zweiten Bildaufnahmeteil zum Aufnehmen eines optischen Bildes in einem Band sichtbaren Lichts; einen Konturbildextrahierungsteil zum Durchführen einer Verarbeitung zum Extrahieren eines Konturanteils aus einem durch den ersten Bildaufnahmeteil gewonnenen Nahinfrarotbild; und einen Synthesebilderzeugungsteil zum Addieren eines durch den zweiten Bildaufnahmeteil gewonnenen sichtbaren Bildes und eines mittels Konturextrahierungsverarbeitung durch den Konturbildextrahierungsteil erhaltenen Konturbildes mit einem vorbestimmten Verhältnis, um ein Synthesebild zu erzeugen.
  • Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird eine Bildaufnahmevorrichtung zum Aufnehmen von Bildern in einer Mehrzahl von Wellenlängenbändern bereitgestellt, welche aufweist: einen ersten Bildaufnahmeteil zum Aufnehmen eines optischen Bildes in einem nah-infraroten Band; einen zweiten Bildaufnahmeteil zum Aufnehmen eines optischen Bildes in einem Band sichtbaren Lichts; einen Bildverarbeitungsteil zum Durchführen einer Verarbeitung zum Extrahieren notwendiger Informationen aus einem Nahinfrarotbild, gewonnen durch den ersten Bildaufnahmeteil; und einen Überlagerungsbilderzeugungsteil zum Überlagern eines durch den zweiten Bildaufnahmeteil gewonnenen sichtbaren Bildes als einer ersten Schicht mit einem durch den Bildverarbeitungsteil erhaltenen Nahinfrarotbild als einer zweiten Schicht, um ein Ausgabebild in einem Zustand, in welchem sowohl das sichtbare Bild als auch as Nahinfrarotbild eine unabhängige Schichtstruktur aufweisen, zu erzeugen.
  • Gemäß der vorliegenden Erfindung kann das Synthesebild, das den Zustand des Zieles der Bildaufnahme in einer besser sichtbaren Weise zeigt, gewonnen werden.
  • Figurenliste
    • 1 ist ein Konfigurationsschaubild eines Rigid-Scope-Systems, an welchem eine Bildaufnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung angewendet wird.
    • 2 ist ein Schaubild, welches ein Beispiel einer schematischen Konfiguration einer in 1 veranschaulichten Bildaufnahmeeinheit veranschaulicht.
    • 3 ist ein Schaubild, welches ein Beispiel einer schematischen Konfiguration einer in 1 veranschaulichten Bildverarbeitungsvorrichtung und Lichtquellenvorrichtung veranschaulicht.
    • 4 ist ein Schaubild, welches ein Beispiel einer spezifischeren Konfiguration eines in 3 veranschaulichten Bildverarbeitungsabschnitts gemäß einer ersten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 5 ist ein Schaubild, welches ein Beispiel eines Prozesses eines Synthetisierens eines Normalbildes und eines konturextrahierten Bildes, das aus einem Fluoreszenzbild extrahiert ist, gemäß der ersten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 6 ist ein Schaubild, welches ein Beispiel einer spezifischeren Konfiguration des in 3 veranschaulichten Bildverarbeitungsabschnitts gemäß einer zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 7 ist ein Graph, welcher ein Beispiel einer Charakteristik einer Korrekturverarbeitung gemäß der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
    • 8 ist ein Schaubild, welches ein Beispiel eines Prozesses eines Synthetisierens des Normalbildes und eines gradationskorrigierten Bildes, das aus dem Fluoreszenzbild extrahiert ist, gemäß der zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 9 ist ein Schaubild, welches ein Beispiel einer spezifischeren Konfiguration des in 3 veranschaulichten Bildverarbeitungsabschnitts gemäß einer dritten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 10 ist ein Schaubild, welches ein Beispiel eines Betriebs eines Bildüberlagerungsverarbeitungsabschnitts gemäß der dritten Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 11 ist ein Schaubild, welches ein Beispiel eines Ausgabebildes gemäß der vorliegenden Erfindung veranschaulicht.
    • 12 ist ein Schaubild, welches ein Farbsignalumwandlungsanzeigebeispiel in Übereinstimmung mit einer Fluoreszenzhelligkeit gemäß der vorliegenden Erfindung veranschaulicht.
    • 13 ist ein Schaubild, welches ein Farbsignalumwandlungsanzeigebeispiel in Übereinstimmung mit einer Bildpunktanzeigeposition gemäß der vorliegenden Erfindung veranschaulicht.
    • 14 ist ein Schaubild, welches ein Beispiel einer Bildüberlagerung, welches ein optisches System beinhaltet, gemäß der vorliegenden Erfindung veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nun werden eine Bildaufnahmevorrichtung und ein Bildaufnahmeverfahren gemäß der vorliegenden Erfindung mittels jeder von Ausführungsformen, in welchen die Bildaufnahmevorrichtung an einem Rigid-Scope-System angewendet wird, unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. In jeder der Ausführungsformen werden die gleichen oder entsprechenden Teile durch die gleichen Bezugszeichen angegeben, und die überlappende Beschreibung derselben wird hierin weggelassen.
  • Erste Ausführungsform
  • 1 ist ein Konfigurationsschaubild eines Rigid-Scope-Systems, an welchem die Bildaufnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung angewendet wird, 2 bis 4 sind Konfigurationsschaubilder von Teilen, die in 1 veranschaulicht sind, und 5 veranschaulicht ein Beispiel einer Bildsynthese gemäß der vorliegenden Erfindung.
  • Ein in 1 veranschaulichtes Rigid-Scope-System 1 weist eine Lichtquellenvorrichtung 2, eine Rigid-Scope-Bildaufnahmevorrichtung 10, ein Bildverarbeitungsvorrichtung 3 und einen Monitor 4 auf. Die Lichtquellenvorrichtung 2 erzeugt gleichzeitig weißes normales Licht und spezielles Licht. Die Rigid-Scope-Bildaufnahmevorrichtung 10 führt das normale Licht und das spezielle Licht, die durch die Lichtquellenvorrichtung 2 erzeugt werden, um einen zu beobachtenden Teilbereich (nicht gezeigt) mit dem normalen Licht und dem speziellen Licht zu bestrahlen, und nimmt ein Normalbild auf der Grundlage von Licht, das von dem zu beobachtenden Teilbereich als ein Ergebnis der Einstrahlung des normalen Lichts reflektiert wird, und ein Fluoreszenzbild auf der Grundlage einer von dem zu beobachtenden Teilbereich als ein Ergebnis der Einstrahlung des speziellen Lichts emittierten Fluoreszenz auf. Die Bildverarbeitungsvorrichtung 3 führt eine vorbestimmte Verarbeitung an einem durch die Rigid-Scope-Bildaufnahmevorrichtung 10 aufgenommen Bildsignal durch. Der Monitor 4 zeigt das Normalbild, das Fluoreszenzbild und ein Synthesebild des zu beobachtenden Teilbereichs auf der Grundlage eines durch die Bildverarbeitungsvorrichtung 3 erzeugten Bildsteuerungssignals an.
  • Die Rigid-Scope-Bildaufnahmevorrichtung 10 weist ein hartes Einführstück 30 und eine Bildaufnahmeeinheit 20 auf, wie in 1 veranschaulicht. Das harte Einführstück 30 ist in eine Bauchhöhle einzuführen. Die Bildaufnahmeeinheit 20 nimmt das Normalbild und das Fluoreszenzbild des zu beobachtenden Teilbereichs, der mit Licht, das durch das harte Einführstück 30 geführt wird, bestrahlt wird, auf.
  • Das harte Einführstück 30 und die Bildaufnahmeeinheit 20 sind in der Rigid-Scope-Bildaufnahmevorrichtung 10 lösbar miteinander verbunden. In der Rigid-Scope-Bildaufnahmevorrichtung 10 weist das harte Einführstück 30 einen Verbindungsabschnitt, der auf einer Kameraseite 30X vorgesehen ist, auf. Die Bildaufnahmeeinheit 20 und das harte Einführstück 30 sind beispielsweise durch Einsetzen des Verbindungsabschnitts in einen auf der Bildaufnahmeeinheit 20 ausgebildeten Öffnungsabschnitt lösbar verbunden.
  • Das harte Einführstück 30 ist ein Teil, das in die Bauchhöhle eingeführt wird, wenn das Innere der Bauchhöhle photographiert wird. Das harte Einführstück 30 ist aus einem harten Werkstoff ausgebildet und weist beispielsweise eine zylindrische Form mit einem Durchmesser von etwa 5 mm auf. Innerhalb des harten Einführstücks 30 ist eine Linsengruppe zum Ausbilden der Bilder des zu beobachtenden Teilbereichs untergebracht. Das Normalbild und das Fluoreszenzbild des zu beobachtenden Teilbereichs, die von einem distal endseitigen Abschnitt 30Y des harten Einführstücks 30 aus einfallen, werden durch die Linsengruppe auf der Kameraseite 30X in die Bildaufnahmeeinheit 20 eingegeben.
  • Ein Kabelverbindungsport ist auf einer Seitenoberfläche der Rigid-Scope-Bildaufnahmevorrichtung 10 vorgesehen. Ein Lichtleiter LC ist mit dem Kabelverbindungsport mechanisch verbunden. Auf diese Weise sind die Lichtquellenvorrichtung 2 und das harte Einführstück 30 durch eine Vermittlung des Lichtleiters LC optisch miteinander verbunden. Das normale Licht und das spezielle Licht aus der Lichtquellenvorrichtung 2 treten durch eine interne Lichtführung hindurch, um von einem Bestrahlungsfenster 30d aus auf den zu beobachtenden Teilbereich abgestrahlt zu werden.
  • 2 ist ein Schaubild, welches ein Beispiel einer schematischen Konfiguration der Bildaufnahmeeinheit 20 veranschaulicht. Die Bildaufnahmeeinheit 20 weist ein erstes Bildaufnahmesystem und ein zweites Bildaufnahmesystem auf. Das erste Bildaufnahmesystem nimmt das durch die in dem harten Einführstück 30 vorgesehene Linsengruppe ausgebildete Fluoreszenzbild des zu beobachtenden Teilabschnitts auf, um ein Fluoreszenzbildsignal des zu beobachtenden Teilabschnitts zu erzeugen. Das zweite Bildaufnahmesystem nimmt das durch die in dem harten Einführstück 30 vorgesehene Linsengruppe ausgebildete Normalbild des zu beobachtenden Teilabschnitts auf, um ein Normalbildsignal zu erzeugen. Das erste und das zweite Bildaufnahmesystem sind durch ein dichromatisches Prisma 21, das Spektralcharakteristiken zum Reflektieren des Normalbildes und Hindurchlassen des Fluoreszenzbildes aufweist, voneinander getrennt, um zwei optische Achsen aufzuweisen, die einander rechtwinklig kreuzen.
  • Das erste Bildaufnahmesystem weist einen Speziallichtsperrfilter 22, ein erstes optisches Abbildungssystem 23 und ein hochempfindliches Bildaufnahmeelement 24 auf. Der Speziallichtsperrfilter 22 schneidet das spezielle Licht, welches durch den zu beobachtenden Teilabschnitt reflektiert wird und dann durch das dichromatische Prisma 21 hindurchgelassen wird, ab. Das erste optische Abbildungssystem 23 bildet ein Fluoreszenzbild L4, das von dem harten Einführstück 30 abgestrahlt wird, um durch das dichromatische Prisma 21 und den Speziallichtsperrfilter 22 hindurchgelassen zu werden, aus. Das hochempfindliche Bildaufnahmeelement 24 nimmt das durch das erste optische Abbildungssystem 23 ausgebildete Fluoreszenzbild L4 auf.
  • Das zweite Bildaufnahmesystem weist ein zweites optisches Abbildungssystem 25 und ein Bildaufnahmeelement 26 auf. Das zweite optische Abbildungssystem 25 bildet ein Normalbild L3, welches von dem harten Einführstück 30 emittiert wird, um durch das dichromatische Prisma 21 reflektiert zu werden, aus. Das Bildaufnahmeelement 26 nimmt das durch das zweite optische Abbildungssystem 25 gebildete Normalbild auf.
  • Das hochempfindliche Bildaufnahmeelement 24 weist eine hohe Empfindlichkeit auf, um Licht in einem Wellenlängenband des Fluoreszenzbildes L4 zu erfassen. Nach Umwandeln des Lichts in das Fluoreszenzbildsignal gibt das hochempfindliche Bildaufnahmeelement 24 das erhaltene Fluoreszenzbildsignal aus. Das hochempfindliche Bildaufnahmeelement 24 ist ein monochromes Bildaufnahmeelement.
  • Das Bildaufnahmeelement 26 erfasst Licht in einem Wellenlängenband des Normalbildes L3. Nach Umwandeln des Lichts in das Normalbildsignal gibt das Bildaufnahmeelement 26 das Normalbildsignal aus. Auf einer Bildaufnahmeoberfläche des Bildaufnahmeelements 26 sind Farbfilter von drei Primärfarben, d. h., Rot (R), Grün (G) und Blau (B) oder Cyan (C), Magenta (M) und Gelb (Y) in einer Bayer-Anordnung oder Honigwabenanordnung vorgesehen.
  • Die Bildaufnahmeeinheit 20 weist eine Bildaufnahmesteuereinheit 27 auf. Die Bildaufnahmesteuereinheit 27 führt eine Verarbeitung von korrelierter Doppelabtastung / automatischer Verstärkungssteuerung (CDS/AGC) und A/D-Wandlungverarbeitung an dem von dem hochempfindlichen Bildaufnahmeelement 24 ausgegebenen Fluoreszenzbildsignal und dem von dem Bildaufnahmeelement 26 ausgegebenen Normalbildsignal durch und gibt dann durch die vorstehend erwähnte Verarbeitung erhaltene Signale durch das Kabel 5 an die Bildverarbeitungsvorrichtung 3 aus (siehe 1).
  • 3 ist ein ist ein Schaubild, welches ein Beispiel schematischer Konfigurationen der Bildverarbeitungsvorrichtung 3 und der Lichtquellenvorrichtung 2 veranschaulicht. Die Bildverarbeitungsvorrichtung 3 weist einen Normalbildeingangscontroller 31, einen Fluoreszenzbildeingangscontroller 32, einen Bildverarbeitungsabschnitt 33, einen Speicher 34, einen Videoausgabeabschnitt 35, einen Bedienabschnitt 36, einen Zeitabstimmungsgenerator (TG) 37 und eine CPU 38 auf. In der Praxis ist die CPU 38 ein Mikrocomputer mit einem Speicher (nicht gezeigt), der ein Programm und Daten hierin speichert, und ist so konfiguriert, dass eine Anweisung von dem Bedienabschnitt 36 hierin eingegeben werden kann.
  • Jeder des Normalbildeingangscontrollers 31 und des Fluoreszenzbildeingangscontrollers 32 weist einen Zeilenpuffer mit einer vorbestimmten Kapazität auf. Die Zeilenpuffer speichern das Normalbildsignal und das Fluoreszenzbildsignal für einen Rahmen, die von der Bildaufnahmesteuereinheit 27 bzw. der Bildaufnahmeeinheit 20 ausgegeben werden, temporär. Dann werden das in dem Normalbildeingangscontroller 31 gespeicherte Normalbildsignal und das in dem Fluoreszenzbildeingangscontroller 32 gespeicherte Fluoreszenzbildsignal durch einen Bus in dem Speicher 34 gespeichert.
  • Das Normalbildsignal und das Fluoreszenzbildsignal für einen Rahmen, die aus dem Speicher 34 ausgelesen werden, werden in den Bildverarbeitungsabschnitt 33 eingegeben. Nach Durchführen vorbestimmter Bildverarbeitung an dem Normalbildsignal und dem Fluoreszenzbildsignal gibt der Bildverarbeitungsabschnitt 33 das durch die Bildverarbeitung erhaltene Ergebnis an den Bus aus. Ein Beispiel einer spezifischeren Konfiguration des Bildverarbeitungsabschnitts 33 ist in 4 veranschaulicht.
  • Wie in 4 veranschaulicht, weist der Bildverarbeitungsabschnitt 33 einen Normalbildverarbeitungsabschnitt 33a, einen Fluoreszenzbildverarbeitungsabschnitt 33b, eine Kantenextrahierungseinheit 33c und einen Bildsyntheseverarbeitungsabschnitt 331 auf. Nach Durchführen vorbestimmter, für das Normalbild geeigneter Bildverarbeitung an dem eingegebenen Normalbildsignal gibt der Normalbildverarbeitungsabschnitt 33a das so verarbeitete Normalbildsignal aus. Nach Durchführen vorbestimmter, für das Fluoreszenzbild geeigneter Bildverarbeitung an dem eingegebenen Fluoreszenzbildsignal gibt der Fluoreszenzbildverarbeitungsabschnitt 33b das so verarbeitete Fluoreszenzbildsignal aus. Die Kantenextrahierungseinheit 33c extrahiert eine Konturkomponente aus dem Fluoreszenzbildsignal, das der vorbestimmten Verarbeitung in dem Fluoreszenzbildverarbeitungsabschnitt 33b unterzogen worden ist, und erzeugt hierdurch ein Konturbildsignal. Der Bildsyntheseverarbeitungsabschnitt 331 synthetisiert das von dem Normalbildverarbeitungsabschnitt 33a ausgegebene Normalbildsignal und das von der Kantenextrahierungseinheit 33c ausgegebene Konturbildsignal.
  • Die Kantenextrahierungseinheit 33c weist einen Kantenextrahierungsabschnitt 33d, einen Verstärkungseinstellabschnitt 33e, einen Binarisierungsverarbeitungsabschnitt 33f und einen Farbverarbeitungsabschnitt 33g auf. Der Kantenextrahierungsabschnitt 33d extrahiert die Konturkomponente aus dem Fluoreszenzbildsignal. Der Verstärkungseinstellabschnitt 33e verstärkt das Fluoreszenzbildsignal, von welchem die Konturkomponente extrahiert wird. Der Binarisierungsverarbeitungsabschnitt 33f wandelt das Fluoreszenzbildsignal, das der Verstärkungseinstellung unterzogen worden ist, in zwei Werte, welche schwarz und weiß angeben, um. Der Farbverarbeitungsabschnitt 33g wandelt ein Helligkeitssignal in ein Farbsignal für das Fluoreszenzbildsignal, das der Binarisierungsverarbeitung unterzogen worden ist, um. Detaillierte Verarbeitungsinhalte durch die jeweiligen Teilabschnitte des Bildverarbeitungsabschnitts 33 werden später beschrieben.
  • Das Normalbildsignal, das Fluoreszenzbildsignal und das Synthesebildsignal, die von dem Bildverarbeitungsabschnitt 33 ausgegeben werden, werden durch den Bus in den Videoausgabeabschnitt 35 eingegeben. Der Videoausgabeabschnitt 35 führt vorbestimmte Verarbeitung an den vorstehend erwähnten Signalen durch, um ein Anzeigesteuersignal zu erzeugen, und gibt dann das erzeugte Anzeigesteuersignal an den Monitor 4 aus.
  • Der Bedienabschnitt 36 empfängt Eingabe von vielfältigen Betriebsanweisungen und Steuerparametern durch einen Bediener. Der TG 37 gibt ein Treiberimpulssignal zum Treiben des hochempfindlichen Bildaufnahmeelements 24 und des Bildaufnahmeelements 26 der Bildaufnahmeeinheit 20 und eines LD-Treibers 45 der Lichtquellenvorrichtung 2, was später beschrieben wird, aus. Die CPU 36 steuert die gesamte Vorrichtung.
  • Wie in 3 veranschaulicht, weist die Lichtquellenvorrichtung 2 eine Normallichtquelle 40, eine Kondensorlinse 42 und einen dichromatischen Spiegel 43 auf. Die Normallichtquelle 40 emittiert normales Licht (weißes Licht) L1, das eine Wellenlänge in einem Breitband in dem Bereich von etwa 400 nm bis 700 nm aufweist. Die Kondensorlinse 43 kondensiert das von der Normallichtquelle 40 emittierte normale Licht L1. Der dichromatische Spiegel 43 läßt das durch die Kondensorlinse 42 kondensierte normale Licht L1 hindurch und reflektiert später beschriebenes spezielles Licht L2, so dass das normale Licht L1 und das spezielle Licht L2 in ein Einfallsende des Lichtleiters LC eintreten. Als die Normallichtquelle 40 wird beispielsweise eine Xenonlampe verwendet.
  • Wenn Licht bei 700 nm bis 800 nm in dem Bereich von einem sichtbaren Band bis zu einem nah-infraroten Band verwendet wird und Indoyaningrün (ICG) als eine Fluoreszenzfarbe verwendet wird, weist die Lichtquellenvorrichtung 2 eine LD-Lichtquelle 44, den LD-Treiber 45, eine Kondensorlinse 46 und einen Spiegel 47 auf. Die LD-Lichtquelle 44 emittiert nah-infrarotes Licht bei 750 nm bis 790 nm als das spezielle Licht L2. Der LD-Treiber 45 treibt die LD-Lichtquelle 44. Die Kondensorlinse 46 kondensiert das von der LD-Lichtquelle 44 emittierte spezielle Licht L2. Der Spiegel 47 reflektiert das durch die Kondensorlinse 46 kondensierte spezielle Licht L2 in Richtung des dichromatischen Spiegels 43.
  • Für das spezielle Licht L2 wird eine Wellenlänge in einem engeren Band als das normale Licht, welches eine Wellenlänge in dem Breitband aufweist, verwendet. Das spezielle Licht L2 ist nicht auf das Licht in dem vorstehend erwähnten Wellenlängenband beschränkt. Das als das spezielle Licht L2 zu verwendende Licht wird abhängig von der Art von Fluoreszenzfarbe oder der Art biologischen Gewebes geeignet bestimmt, um autofluoreszierend zu sein.
  • Die Lichtquellenvorrichtung 2 ist mit der Rigid-Scope-Bildaufnahmevorrichtung 10 durch den Lichtleiter LC optisch verbunden.
  • 3 veranschaulicht Normallichtsteuerabschnitte 41 und 48, welche durch die CPU 38 zu steuern sind.
  • Als nächstes wird ein Betrieb des Systems gemäß der ersten Ausführungsform beschrieben. Nachdem das mit dem Lichtleiter LC verbundene harte Einführstück 30 und das Kabel 5 an der Bildaufnahmeeinheit 20 montiert sind, werden zuerst die Lichtquellenvorrichtung 2, die Bildaufnahmeeinheit 20 und die Bildverarbeitungsvorrichtung 3 eingeschaltet, um angesteuert zu werden.
  • Als nächstes wird das harte Einführstück 30 durch den Bediener in die Bauchhöhle eingeführt, und somit wird ein distales Ende des harten Einführstücks 30 in der Nähe des zu beobachtenden Teilabschnitts angeordnet.
  • Das von der Normallichtquelle 40 der Lichtquellenvorrichtung 2 emittierte normale Licht L1 tritt durch die Kondensorlinse 42, den dichromatischen Spiegel 43 und den Lichtleiter LC in das harte Einführstück 30 ein und wird dann durch das Bestrahlungsfenster 30d des harten Einführstücks 30 auf den zu beobachtenden Teilabschnitt geworfen. Auf der anderen Seite tritt das von der LD-Lichtquelle 44 der Lichtquellenvorrichtung 2 emittierte spezielle Licht L2 durch die Kondensorlinse 46, den Spiegel 47, den dichromatischen Spiegel 43 und den Lichtleiter LC in das harte Einführstück 30 ein und wird dann durch das Bestrahlungsfenster 30d des harten Einführstücks 30 gleichzeitig mit dem normalen Licht auf den zu beobachtenden Teilabschnitt geworfen. Für die gleichzeitige Bestrahlung ist es nicht erforderlich, dass Bestrahlungszeitdauern des normalen Lichts und des speziellen Lichts perfekt miteinander zusammenfallen. Die Bestrahlungszeitdauern müssen nur wenigstens teilweise miteinander überlappen.
  • Dann wird das Normalbild auf der Grundlage des durch den zu beobachtenden Teilabschnitt durch die Einstrahlung des normalen Lichts L1 reflektierten Lichts aufgenommen, während das Fluoreszenzbild auf der Grundlage des von dem zu beobachtenden Teilabschnitt durch die Einstrahlung des speziellen Lichts L2 emittierten Lichts gleichzeitig mit dem Normalbild aufgenommen wird.
  • Genauer gesagt, zum Aufnehmen des Normalbildes tritt das Normalbild L3 auf der Grundlage des durch den zu beobachtenden Teilabschnitt durch die Einstrahlung des normalen Lichts L1 reflektierten Lichts in die distale Endseite 30Y der Rigid-Scope-Bildaufnahmevorrichtung 10 ein, wird durch die darin vorgesehene Linsengruppe geführt und wird in Richtung der Bildaufnahmeeinheit 20 emittiert.
  • Das Normalbild L3, welches in die Bildaufnahmeeinheit 20 eingetreten ist, wird durch das dichromatische Prisma 21 in einer rechtwinkligen Richtung in Richtung des Bildaufnahmeelements 26 reflektiert, wird auf der Bildaufnahmeoberfläche des Bildaufnahmeelements 26 des zweiten Bildaufnahmesystems 25 ausgebildet und wird dann sequentiell durch das Bildaufnahmeelement 26 mit einem vorbestimmten Abstand aufgenommen. In dieser Ausführungsform wird angenommen, dass das Normalbild mit einer Rahmenrate von 30 fps aufgenommen wird.
  • Nachdem sie in der Bildaufnahmesteuereinheit 27 der korrelierten Doppelabtastungs- / automatischen Verstärkungssteuerungs-(CDS/AGC)-verarbeitung unterzogen worden sind, werden die sequenziell von dem Bildaufnahmeelement 26 ausgegebenen Normalbildsignale sequenziell durch das Kabel 5 an die Bildverarbeitungsvorrichtung 3 ausgegeben.
  • Auf der anderen Seite tritt zum Aufnehmen des Fluoreszenzbildes das Fluoreszenzbild L4 auf der Grundlage der durch den zu beobachtenden Teilabschnitt durch die Einstrahlung des speziellen Lichts emittierten Fluoreszenz in die distale Endseite 30Y ein, wird durch die darin vorgesehene Linsengruppe geführt und wird in Richtung der Bildaufnahmeeinheit 20 emittiert.
  • Das Fluoreszenzbild L4, welches in die Bildaufnahmeeinheit 20 eingetreten ist, tritt durch das dichromatische Prisma 21 und den Speziallichtsperrfilter 22 hindurch, wird dann durch das erste optische Abbildungssystem 23 auf einer Bildaufnahmeoberfläche des hochempfindlichen Bildaufnahmeelements 24 ausgebildet und wird dann durch das hochempfindliche Bildaufnahmeelement 24 bei einem vorbestimmten Abstand sequentiell aufgenommen. In dieser Ausführungsform wird das Fluoreszenzbild mit einer Rahmenrate von beispielsweise 5 bis 30 fps aufgenom m en.
  • Nachdem sie in der Bildaufnahmesteuereinheit 27 der korrelierten Doppelabtastungs- / automatischen Verstärkungssteuerungs-(CDS/AGC)-verarbeitung und der A/D-Wandlungsverarbeitung unterzogen worden sind, werden die von dem hochempfindlichen Bildaufnahmeelement 24 sequenziell ausgegebenen Fluoreszenzbildsignale durch das Kabel 5 an die Bildverarbeitungsvorrichtung 3 sequenziell ausgegeben.
  • Als nächstes wird ein Verfahren eines Erzeugens des Synthesebildes auf der Grundlage der wie vorstehend beschrieben durch die Bildaufnahmeeinheit 20 aufgenommenen Normalbildsignale und Fluoreszenzbildsignale unter Bezugnahme auf 3 und 4 beschrieben. Zuerst wird eine Verarbeitung vor der Bildsynthese beschrieben.
  • Zuerst wird eine Vorverarbeitung für das Normalbildsignal beschrieben. Nachdem es temporär in dem Normalbildeingangscontroller 31 gespeichert worden ist, wird das in die Bildverarbeitungsvorrichtung 3 eingegebene Normalbildsignal in dem Speicher 34 gespeichert. Dann wird das Normalbildsignal für jeden einzelnen Rahmen, der aus dem Speicher 34 ausgelesen wird, an den Bildverarbeitungsabschnitt 33 ausgegeben.
  • Das in den Bildverarbeitungsabschnitt 33 eingegebene Normalbildsignal wird in dem Normalbildverarbeitungsabschnitt 33a einer Gradationskorrekturverarbeitung und einer Verarbeitung wie etwa einer Rauschbeseitigung unterzogen.
  • Als nächstes wird eine Vorverarbeitung für das Fluoreszenzbildsignal beschrieben. Nachdem es temporär in dem Fluoreszenzbildeingangscontroller 32 gespeichert worden ist, wird das in die Bildverarbeitungsvorrichtung 3 eingegebene Fluoreszenzbildsignal in dem Speicher 34 gespeichert. Dann wird das Fluoreszenzbildsignal für jeden einzelnen Rahmen, der aus dem Speicher 34 ausgelesen wird, an den Bildverarbeitungsabschnitt 33 ausgegeben.
  • Das in den Bildverarbeitungsabschnitt 33 eingegebene Fluoreszenzbildsignal wird in dem Fluoreszenzbildverarbeitungsabschnitt 33b einer Verarbeitung wie etwa einer Rauschbeseitigung unterzogen.
  • Das Fluoreszenzbildsignal wird zuerst einer Verarbeitung zur Extrahierung notwendiger Information unterzogen, bevor es mit dem Normalbildsignal synthetisiert wird. Ein Prozess der Verarbeitung wird nun beschrieben.
  • In dem Kantenextrahierungsabschnitt 33d wird als die notwendige Information die Konturkomponente wie etwa ein Blutgefäß oder ein erkranktes Gewebe aus dem Fluoreszenzbildsignal extrahiert.
  • Nachdem die Konturkomponente extrahiert ist, wird das Fluoreszenzbildsignal in dem Verstärkungseinstellabschnitt 33e verstärkt. Wenn die erfasste Konturkomponente schwach ist, wird das Fluoreszenzbildsignal durch den Verstärkungseinstellabschnitt 33e verstärkt.
  • Nachdem es der Verstärkungseinstellung unterzogen wurde, wird das Fluoreszenzbildsignal in den Binarisierungsverarbeitungsabschnitt 33f eingegeben, um einer Schwellenwertverarbeitung für den Zweck, die notwendige Information weiter zu extrahieren, unterzogen zu werden. Durch die Schwellenwertverarbeitung werden die Fluoreszenzbildsignale in zwei Werte, welche schwarz und weiß angeben, umgewandelt. Als ein Verfahren eines Bestimmens des Schwellenwerts wird ein Mode-Verfahren oder ein differenzielles Histogrammverfahren verwendet. Alternativ kann ein Schwellenwert direkt von dem Bedienabschnitt 36 aus eingegeben werden. Darüber hinaus ist es nicht zwingend erforderlich, dass die Binarisierungsverarbeitung durchgeführt wird. Das Fluoreszenzbildsignal kann direkt an den Farbverarbeitungsabschnitt 33g ausgegeben werden.
  • Nachdem es der Binarisierungsverarbeitung unterzogen wurde, wird das Fluoreszenzbildsignal in den Farbverarbeitungsabschnitt 33g eingegeben, wo das Fluoreszenzbildsignal der Farbverarbeitung unterzogen wird. Das Fluoreszenzbildsignal kann ohne die Farbverarbeitung der Synthetisierungsverarbeitung mit dem Normalbildsignal unterzogen werden. Weil das Fluoreszenzbildsignal jedoch ein monochromes Signal ist, besteht in einem solchen Fall eine Möglichkeit, dass die Kontur des Fluoreszenzbildes weniger sichtbar sein kann. Daher wird das Helligkeitssignal in ein Farbsignal umgewandelt. Für die Auswahl einer Farbe kann eine Farbe, welche den Konturanteil nach der Synthese sichtbarer macht, automatisch aus Farbkomponenten des Normalbildsignals, welches ein Ziel der Synthese ist, ausgewählt werden (zum Beispiel speichert die CPU 38 eine Tabelle von geeigneten, sichtbareren Farben für die Farbkomponenten des Normalbildsignals in dem Speicher, so dass der Farbverarbeitungsabschnitt 33g in Übereinstimmung mit der Tabelle gesteuert wird, um die Farbauswahl durchzuführen). Alternativ kann die Farbe direkt über den Bedienabschnitt 36 eingegeben werden. In diesem Fall werden im Hinblick sowohl auf Sichtbarkeit eines charakteristischen Abschnitts als auch einer Auflösung beispielsweise die Helligkeitssignale nicht alle in die Farbsignale umgewandelt. Stattdessen können abhängig von einem Helligkeitsniveau, wie in 12 veranschaulicht, oder einer Bildaufnahmeposition, wie in 13 veranschaulicht, einige Helligkeitssignale umgewandelt werden, während andere Helligkeitssignale nicht umgewandelt werden. Namentlich wird in einem in 12 veranschaulichten Farbsignalumwandlungsanzeigebeispiel (180) ein Autofluoreszenzanteil mit einer hohen Fluoreszenzhelligkeit, der durch ein Autofluoreszenzsignal (182) angegeben ist, in Übereinstimmung mit dem Fluoreszenzhelligkeitsniveau in ein Helligkeitssignal umgewandelt. Ein Anteil mit einer geringen Helligkeit, der durch ein reflektiertes Fluoreszenzhelligkeitssignal (181) angegeben ist, wird als der reflektierte Abschnitt als das Helligkeitssignal belassen. Auf diese Weise wird die Sichtbarkeit des Autofluoreszenzanteils, der einem spezifischen Gebiet entspricht, erhöht. Alternativ wird in einem in 13 veranschaulichten Anzeigebildpunktanordnungsbeispiel (183) des nah-infraroten Fluoreszenzbildes ein Fluoreszenzanteil mit einer hohen Helligkeit nicht vollständig in die Farbsignale umgewandelt. Stattdessen werden Umwandlung und Anzeige für jede Anzeigebildpunkteinheit durchgeführt, um die Helligkeitssignale und die Farbsignale zu erhalten. Als ein Ergebnis können ein detaillierter Anteil des Helligkeitssignals, welcher eine Möglichkeit aufweist, gesättigt zu sein, um unsichtbar zu sein, wenn nur die Farbbildsignale verwendet werden, wie in dem Fall eines nah-infraroten Autofluoreszenzanteils (184), und ein Helligkeitsanteil (185) des nah-infraroten Autofluoreszenzanteils gleichzeitig angezeigt werden. Eine Verteilung und ein Niveau der Helligkeit und der Farben, die in 13 veranschaulicht sind, müssen nur als geeignete Werte in Übereinstimmung mit Bedingungen festgelegt werden. Es ist ersichtlich, dass der in 13 gezeigte Helligkeitsanteil auf Null festgelegt werden kann, um mit dem sichtbaren Bild zu überlappen.
  • Als nächstes wird eine Bildsyntheseverarbeitung beschrieben. Das Normalbildsignal wird von dem Normalbildverarbeitungsabschnitt 33a in den Bildsyntheseverarbeitungsabschnitt 33l eingegeben, während das Konturbildsignal von der Kantenextrahierungseinheit 33c in den Bildsyntheseverarbeitungsabschnitt 33l eingegeben wird. Der Bildsyntheseverarbeitungsabschnitt 33l synthetisiert das Konturbildsignal und das Normalbildsignal bei einem vorbestimmten Verhältnis.
  • Ein Synthesebildsignal Cs wird durch Addieren eines Normalbildsignals Cv und eines Fluoreszenzbildsignals Ci nach Gewichtung (α und β) erzeugt (in diesem Fall wird das Konturbildsignal zur Vereinfachung als das Fluoreszenzbildsignal behandelt). Beispielsweise wird das Synthesebildsignal in Übereinstimmung mit der nachstehenden Rechengleichung erzeugt. Cs= α × Cv+ β × Ci
    Figure DE102014110131B4_0001
  • Dann wird das in dem Bildsyntheseverarbeitungsabschnitt 331 erzeugte Synthesebildsignal an den Videoausgabeabschnitt 35 ausgegeben. Der Videoausgabeabschnitt 35 führt vorbestimmte Verarbeitung an dem eingegebenen Synthesebildsignal durch, um das Anzeigesteuersignal zu erzeugen und gibt dann das Anzeigesteuersignal an den Monitor 4 aus. Dann zeigt der Monitor 4 ein Synthesebild gemäß der Darstellung in 5 auf der Grundlage des eingegebenen Anzeigesteuersignals an.
  • 5 veranschaulicht einen Prozess eines Synthetisierens eines Normalbildes (146) und eines konturextrahierten Bildes (148), das aus einem Fluoreszenzbild (147) extrahiert ist. Das Normalbild (146) ist ein sichtbares Bild. Das konturextrahierte Bild (148) enthält einen Konturanteil eines spezifischen Bereichs (150), der als die notwendige Information aus dem Fluoreszenzbild (147) erhalten wird. Durch Synthetisieren des Normalbildes (146) und des konturextrahierten Bildes (148) wird ein Synthesebild A (151) erhalten, welches den spezifischen Bereich (150) und einen Normalbereich (149) enthält.
  • Wie in 5 veranschaulicht, wird das weiße Licht gleichmäßig reflektiert, wenn das weiße Licht abgestrahlt wird. Daher wird das Normalbild (146) von dem zweiten Bildaufnahmesystem erhalten. Wenn auf der anderen Seite das Anregungslicht abgestrahlt wird, wird die Autofluoreszenz von dem spezifischen Bereich (150) wie etwa einem Blutgefäß oder erkranktem Gewebe abgestrahlt. Daher wird das Fluoreszenzbild (147) von dem ersten Bildaufnahmesystem erhalten. Vor der Erzeugung des Synthesebildes wird eine vorbestimmte Helligkeitsänderung aus dem Fluoreszenzbild (147) erfasst. Dann wird das Konturbildsignal als die notwendige Information extrahiert, um das konturextrahierte Bild (148) zu erhalten. Danach wird das konturextrahierte Bild (148) mit dem Normalbild (146) synthetisiert. Als ein Ergebnis kann ein Bild mit einem klar angezeigten Konturanteil des spezifischen Bereichs (150) wie etwa eines Blutgefäßes oder erkrankten Gewebes erhalten werden.
  • Darüber hinaus entspricht das Fluoreszenzbild (147) den Helligkeitssignalen. Wenn daher das extrahierte Signal mit dem Normalbild (146) synthetisiert wird, ist es vorstellbar, dass das erhaltene Bild in einigen Fällen geringe Sichtbarkeit aufweist. Daher wird die Synthese beispielsweise durchgeführt, nachdem die Helligkeitssignale teilweise oder insgesamt in die Farbsignale umgewandelt werden. Als ein Ergebnis kann der spezifische Bereich wie etwa erkranktes Gewebe leichter klar angezeigt werden. Wenn in diesem Fall die nach der Umwandlung zu erhaltenden Farbsignale beliebig extern ausgewählt werden können, wird der spezifische Bereich klarer angezeigt. Für die Synthese der extrahierten Signale wird ein Flashen für eine vorbestimmte Zeit durchgeführt, oder das Helligkeitsniveau oder eine Färbung wird variabel festgelegt, um gesteuert zu werden. Auf diese Weise kann die Sichtbarkeit des spezifischen Bereichs weiter verbessert werden. Die vorstehend erwähnte Verarbeitung wird in dem Farbverarbeitungsabschnitt 33g, dem Bildsyntheseverarbeitungsabschnitt 331, einem Bildsyntheseverarbeitungsabschnitt 33q (zweite Ausführungsform) und einem Bildüberlagerungsverabeitungsabschnitt 33p (dritte Ausführungsform) durch Steuern der CPU 38 und des Bedienabschnitts 36 (Farbabwandlungsteil, Bildflashingteil und Bildfestlegungsteil) durchgeführt.
  • In dieser Ausführungsform ist ein Beispiel des Rigid-Scope-Systems wie etwa eines Laparaskops beschrieben worden. Es ist jedoch ersichtlich, dass die vorliegende Erfindung auch auf andere Systeme als das Rigid Scope angewendet werden kann. Durch Verbinden einer externen Vorrichtung, welche die allgemeinen Standards von beispielsweise einer C-Befestigung erfüllt, mit der Kameraseite 30X, welche ein Anschlussteil für ein externes optisches System für die in 1 veranschaulichte Bildaufnahmeeinheit 20 ist, können andere Systeme als das Rigid Scope verwendet werden. Es ist ersichtlich, dass ein System, welches in der Lage ist, einen Bildaufnahmebereich von einem weiten Winkel zu einem engen Winkel als die Verbindung einer Zoom-Linse zu variieren, als ein Anwendungsbeispiel konstruiert werden kann. Ferner kann die Erfindung als ein vollständig unterschiedliches System zur Verbindung mit Mikroskopen verwendet werden. In dem Fall von medizinischen Mikroskopen gibt es unter Mikroskopen bereits ein System, welches eine Lichtquelle für ICG-Anregungslicht aufweist. Als ein Anwendungsbeispiel der Bildaufnahmevorrichtung der vorliegenden Erfindung ist das System mit der Lichtquelle für ICG-Anregungslicht ein empfohlenes Systembeispiel, welches beide Funktionen unterstützt.
  • Darüber hinaus gibt es als eine Systemkonfiguration ein Beispiel, bei welchem die Lichtquelle für Bildaufnahme integral ausgebildet ist, wie in 1 bis 3 veranschaulicht. Die Systemkonfiguration ist allerdings nicht hierauf beschränkt. Die Lichtquelle kann von einer Art sein, welche Licht extern abstrahlt oder Licht durch eine Faser einspeist. Darüber hinaus ist die Art von Lichtquelle nicht auf eine Entladungslichtquelle wie etwa eine Xenonlampe beschränkt und kann auch eine Halbleitervorrichtung wie etwa eine LED hoher Helligkeit sein. Es ist ersichtlich, dass ein Laser verwendet werden kann unter der Voraussetzung, dass Sicherheit sichergestellt werden kann. Die Lichtquelle kann angeordnet sein, um Vorteile der jeweiligen Arten von Lichtquelle auszunutzen. Beispielsweise wird Xenon für sichtbares Licht in einem Breitband verwendet, und für Infrarotlicht wird im Hinblick auf hohe Effizienz eine preiswerte LED oder ein Laser verwendet.
  • Ferner ist das Verfahren eines Extrahierens der notwendigen Information aus dem Bildsignal nicht auf das vorstehend beschriebene beschränkt. Jedwedes Verfahren kann verwendet werden, solange die gleichen Wirkungen erzielt werden. Beispielsweise kann ein notwendiger Anteil wie etwa ein Blutströmungsanteil durch Kombinieren einer Funktion eines Erfassens nur eines Blutgefäßes durch Mustererkennung extrahiert werden.
  • Darüber hinaus gibt es eine Bildsynthetisierungstechnik, welche Addition verwendet, und eine Bildüberlagerungstechnik, welche Überlagerung verwendet, um ein gewünschtes Ausgabebild nach Wunsch zu erhalten. Allerdings ist die Technik nicht auf diejenigen beschränkt, die vorstehend beschrieben sind. Jedwedes Verfahren kann verwendet werden. Darüber hinaus ist ein Bilderzeugungsbeispiel, bei welchem die Bilder mit dem vorbestimmten Verhältnis synthetisiert werden, als ein Beispiel beschrieben. In diesem Fall ist das vorbestimmte Verhältnis nicht sonderlich wichtig und wird durch die Inhalte der vorliegenden Erfindung nicht definiert. Daher kann jedwedes Verhältnis ohne Probleme verwendet werden, solange nach der Extrahierung der notwendigen Information ein gewünschtes Ausgabebild erhalten wird.
  • Das in dem vorstehend in Bezug genommenen Bildverarbeitungsblockschaubild beschriebene Verfahren ist ein Beispiel der vorliegenden Erfindung. Es ist ersichtlich, dass jedwedes Verfahren verwendet werden kann, solange das Ausgabebild nach der Extrahierung der notwendigen Information erzeugt wird. Wenn die Bildverarbeitung elektrisch durchgeführt wird, können Verarbeitung mit Hardware wie etwa einer dedizierten Vorrichtung oder einer individuellen Schaltung, Verarbeitung mit Software unter Verwendung einer zentralen Verarbeitungseinheit (CPU) oder beide hiervon verwendet werden.
  • Die Konfiguration des optischen Systems ist nicht auf die in 2 veranschaulichte beschränkt. Beispielsweise kann ein Weg nah-infraroten Lichts auf einer Reflexionsseite eines dichromatischen Spiegels vorgesehen sein, während ein Weg sichtbaren Lichts auf einer Transmissionsseite des dichromatischen Spiegels vorgesehen sein kann. Jedwede Konfiguration kann verwendet werden, solange ein individuelles aufgenommenes Bild erhalten wird.
  • Ferner kann, wie beispielsweise in 14 veranschaulicht, das extrahierte Bildsignal durch Verwenden eines Anzeigemonitors in ein optisches Bild in dem sichtbaren Bereich umgewandelt werden, um das extrahierte Bildsignal in das optische System zurückzukoppeln, und kann dann das erhaltene optische Bild auf einem originalen (tatsächlichen) Bild sichtbaren Lichts, das durch eine Objektivlinse 93 des Mikroskops erhalten wird, überlagert werden. In 14 werden ein Überlagerungsspiegel L 88 und ein Überlagerungsspiegel R 89 als Überlagerungsteil verwendet. Es kann jedoch jedwede Einrichtung verwendet werden, solange die Überlagerung auf die gleiche Weise durchgeführt wird. Auf diese Weise kann beispielsweise das durch Überlagerung des Bildes nah-infraroten Lichts und des Bildes sichtbaren Lichts erhaltene Überlagerungsbild an Okularteilen des Mikroskops beobachtet werden. In 14 werden zwei Monitore, d.h., ein Feedbackmonitor L 86 und ein Feedbackmonitor R 87 zur dimensionalen Anzeige verwendet. Es ist jedoch ein Monitor ausreichend. Darüber hinaus kann nicht nur das nah-infrarote Bild, sondern auch das Überlagerungsbild mit dem Bild sichtbaren Lichts auf die Okularteile rückgekoppelt werden. Indessen kann die Überlagerung an den Überlagerungsspiegeln durchgeführt werden oder kann weggelassen werden. Ferner können das tatsächliche optische Bild und das rückgekoppelte Bild gleichzeitig angezeigt werden, um in einer Position verschoben zu sein, wie in 11 veranschaulicht. Als ein Ergebnis kann eine Bildanzeige mit höherer Sichtbarkeit und höheren Funktionen für den spezifischen Bereich durchgeführt werden. In 11 werden das Normalbild (welches das gleiche wie das tatsächliche optische Bild ist) (146), das gradationskorrigierte Bild (Farbextraktionsbild) (148), ein Überlagerungsbild (172) gleichzeitig angezeigt.
  • Der Feedbackmonitor L86 und der Feedbackmontitor R 87 bilden einen Nahinfrarotbildsignalumwandlungsteil zum Ändern des erhaltenen Nahinfrarotbildsignals in das Nahinfrarot-Sichtbarlichtbild durch photoelektrische Umwandlung. Ferner bilden die Feedbackmonitore L 86 und R 87 und die Überlagerungsspiegel L 88 und R 89 einen Nahinfrarot-Sichtbarlichtbildüberlagerungsteil zum Ändern des erhaltenen Nahinfrarotbildsignals in das Nahinfrarot-Sichtbarlichtbild durch photoelektrische Umwandlung und Überlagerung des erhaltenen Nahinfrarot-Sichtbarlichtbildes auf das originale Bild sichtbaren Lichts.
  • Eine kurze Beschreibung wird unter Bezugnahme auf 14 gegeben. Das originale Bild sichtbaren Lichts (tatsächliche optische Bild) aus der Objektivlinse 93 wird durch die Überlagerungsspiegel L 88 und R 89 jeweils auf Okularteile L 90 und R 91 und auch in Richtung der Bildaufnahmeeinheit 20 und der Bildverarbeitungsvorrichtung 3 reflektiert. Der Bediener betrachtet das originale Bild sichtbaren Lichts von einer Seite unterhalb der Okularteile L 90 und R 91 in 14. Jedes des Normalbildes, des Fluoreszenzbildes und des Synthesebildes, die gemäß vorstehender Beschreibung auf der Seite der Bildaufnahmeeinheit 20 und Bildverarbeitungsvorrichtung 3 verarbeitet werden, oder das Anzeigesteuersignal jedes der Bilder wird dann in einen Überlagerungs- und Schaltabschnitt 92 eingegeben. In dem Überlagerungs- und Schaltabschnitt 92 werden die Bilder überlagert und geschaltet, so dass das Normalbild, das Fluoreszenzbild und das Synthesebild jeweils in einem vorbestimmten Layout auf den Feedbackmonitoren L 86 und R 87 angezeigt werden. Danach wird das Anzeigesteuersignal für die Anzeige ausgegeben. Dann wird eine Anzeige auf den Feedbackmonitoren L 86 und R 87 auf der Grundlage des Anzeigesteuersignals aus dem Überlagerungs- und Schaltabschnitt 92 durchgeführt. Als ein Ergebnis kann der Bediener, der sich unterhalb der Okularstücke L 90 und R 91 in 14 befindet, um das Bild zu betrachten, das originale Bild sichtbaren Lichts, das Bild auf dem Feedbackmonitor L 86 und das Bild auf dem Feedbackmonitor R 87 gleichzeitig betrachten.
  • Ferner werden in der vorstehend gegebenen Beschreibung zwei Arten der Bildaufnahmeteile verwendet. Allerdings sind die Anzahl, Art und Bildpunktgröße der Bildaufnahmeelemente nicht begrenzt, solange die charakteristische Information aus dem Bild extrahiert werden kann, was der Essenz der vorliegenden Erfindung entspricht, um das Ausgabebild zu erzeugen. Darüber hinaus kann das System, um die notwendige Information aus dem eingegebenen Bildsignal extrahieren, um das Ausgabebild zu erhalten, ohne auf den Bildaufnahmeteil beschränkt zu sein.
  • Zweite Ausführungsform
  • Nun wird eine Bildaufnahmevorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung beschrieben. Eine Grundkonfiguration des Rigid-Scope-Systems, an welchem die Bildaufnahmevorrichtung gemäß der zweiten Ausführungsform angewendet wird, ist die gleiche wie diejenige, die in 1 veranschaulicht ist. Darüber hinaus sind die Grundkonfigurationen der Lichtquellenvorrichtung 2 und der Bildverarbeitungsvorrichtung 3 die gleichen wie diejenigen, die in 2 und 3 veranschaulicht sind. 6 veranschaulicht ein Beispiel einer spezifischen Konfiguration des Bildverarbeitungsabschnitts 33 der Bildverarbeitungsvorrichtung 3 gemäß der zweiten Ausführungsform, 7 veranschaulicht ein Beispiel von Charakteristiken der Korrekturverarbeitung gemäß der zweiten Ausführungsform, und 8 veranschaulicht ein Beispiel der Bildsynthese gemäß der zweiten Ausführungsform.
  • In 6 weist der Bildverarbeitungsabschnitt 33 den Normalbildverarbeitungsabschnitt 33a, den Fluoreszenzbildverarbeitungsabschnitt 33b, eine Gradationskorrekturverarbeitungseinheit 33m und einen Bildsyntheseverarbeitungsabschnitt 33q auf. Der Normalbildverarbeitungsabschnitt 33a führt vorbestimmte, für das Normalbild geeignete Bildverarbeitung an dem eingegebenen Normalbildsignal durch und gibt das erhaltene Normalbildsignal aus. Der Fluoreszenzbildverarbeitungsabschnitt 33b führt vorbestimmte, für das Fluoreszenzbild geeignete Bildverarbeitung an dem eingegebenen Fluoreszenzbildsignal durch und gibt das erhaltene Fluoreszenzbildsignal aus. Die Gradationskorrekturverarbeitungseinheit 33m führt vorbestimmte Verarbeitung zum Extrahieren notwendiger Information aus dem Fluoreszenzbild an dem Fluoreszenzbildsignal, das der vorbestimmten Verarbeitung in dem Fluoreszenzbildverarbeitungsabschnitt 33b unterzogen ist, durch. Der Bildsyntheseverarbeitungsabschnitt 33q synthetisiert das von dem Normalbildverarbeitungsabschnitt 33a ausgegebene Normalbildsignal mit einem von der Gradationskorrekturverarbeitungseinheit 33m ausgegebenen gradationskorrigierten Bildsignal.
  • Die Gradationskorrekturverarbeitungseinheit 33m weist einen Gradationskorrekturverarbeitungsabschnitt 33n, den Verstärkungseinstellabschnitt 33e, den Binarisierungsverarbeitungsabschnitt 33f und den Farbverarbeitungsabschnitt 33g auf. Der Gradationskorrekturverarbeitungsabschnitt 33n extrahiert den spezifischen Bereich aus dem Fluoreszenzbildsignal. Der Verstärkungseinstellabschnitt 33e verstärkt das Fluoreszenzbildsignal, von welchem spezifische Bereich extrahiert wird. Der Binarisierungsverarbeitungsabschnitt 33f wandelt das Fluoreszenzbildsignal, das der Verstärkungseinstellung unterzogen worden ist, in zwei Werte, welche schwarz und weiß angeben, um. Der Farbverarbeitungsabschnitt 33g wandelt das Helligkeitssignal in das Farbsignal für das Fluoreszenzbildsignal, das der Binarisierungsverarbeitung unterzogen worden ist, um.
  • Als nächstes werden Funktionen des Systems gemäß der zweiten Ausführungsform beschrieben. Ein Gesamtbetrieb ist der gleiche wie derjenige der vorstehend beschriebenen Ausführungsform, und daher werden nachstehende unterschiedliche Teile und charakteristische Teile beschrieben.
  • Für das Fluoreszenzbildsignal wird zuerst eine Verarbeitung zum Extrahieren der notwendigen Information durchgeführt, bevor das Fluoreszenzbildsignal mit dem Normalbildsignal synthetisiert wird. Ein Prozess der Verarbeitung wird beschrieben.
  • In dem Gradationskorrekturverarbeitungsabschnitt 33n wird ein Signal des spezifischen Bereichs wie etwa eines Blutgefäßes oder erkrankten Gewebes als die notwendige Information aus dem Fluoreszenzbildsignal extrahiert. Der Gradationskorrekturverarbeitungsabschnitt 33n weist eine Eingangs-/Ausgangscharakteristik auf, die in 7 gezeigt ist. Das von dem ersten Bildaufnahmeelement (hochempfindlichen Bildaufnahmeelement) 24 erhaltene Fluoreszenzbild weist nicht nur die Information des spezifischen Bereichs, sondern auch einen nicht geringen Umfang an Information einer Peripherie hiervon und anderer Information auf. In der Fluoreszenzbeobachtung wird das durch die Autofluoreszenz von dem Blutfluss oder dem erkrankten Gewebe, das mit Protein in Plasma durch die Applikation von Indocyaningrün gebunden ist, erhaltene Autofluoreszenzsignal durch das erste Bildaufnahmeelement 24 erhalten. Das erste Bildaufnahmeelement 24 erfasst wegen der hohen Empfindlichkeit auch eine reflektierte Fluoreszenzkomponente, die durch den Randbereich in der Nähe reflektiert wird, als ein Signal. Allerdings ist das reflektierte Fluoreszenzsignal in der Peripherie schwach. Daher kann das reflektierte Fluoreszenzsignal durch einen bestimmten Grad an Gradationskorrektur beseitigt werden.
  • 7 ist eine charakteristische Ansicht, welche ein Beispiel der Charakteristik des Gradationskorrekturverarbeitungsabschnitts 33n zeigt. Die in 7 gezeigte Gradationskorrekturcharakteristik wird als eine Charakteristik eines Ausgangs bezüglich eines Eingangs ausgedrückt. Im Gegensatz zu einer linearen Charakteristik 63, welche die Beziehung zwischen einem Eingang und einem Ausgang in einer Eins-zu-Eins-(proportionalen)-Relation beispielsweise durch eine gestrichelte Linie zeigt, wird gemäß der vorliegenden Erfindung eine dedizierte Gradationskorrekturcharakteristik 64, welche durch eine durchgezogene Linie angegeben ist, in dem Beispiel des Gradationskorrekturverarbeitungsabschnitts 33n erhalten. Namentlich von einem hinreichend niedrigen reflektierten Fluoreszenzsignalpegel 65 bezüglich eines Autofluoreszenzsignalpegels 66, der in dem Eingangssignal enthalten ist, Vorteil nehmend, ist der Gradationskorrekturverarbeitungsabschnitt 33n mit der Charakteristik derart versehen, dass der reflektierte Fluoreszenzsignalpegel 65 nicht ausgegeben wird. Auf diese Weise kann nur der originale Autofluoreszenzanteil wie etwa der vaskuläre Blutfluss oder der erkrankte Bereich extrahiert werden.
  • Nachdem es der Gradationsverarbeitung unterzogen ist, wird das extrahierte Signal in dem Verstärkungseinstellabschnitt 33e verstärkt. Wenn das erfasste extrahierte Signal schwach ist, wird das extrahierte Signal durch den Verstärkungseinstellabschnitt 33e verstärkt.
  • Nachdem es der Verstärkungseinstellung unterzogen wurde, wird das extrahierte Signal in den Binarisierungsverarbeitungsabschnitt 33f eingegeben, wo das extrahierte Signal einer Schwellenwertverarbeitung unterzogen wird, um die notwendige Information weiter zu extrahieren. Durch die Schwellenwertverarbeitung wird das Fluoreszenzbildsignal in zwei Werte, welche schwarz und weiß angeben, umgewandelt. Als ein Verfahren eines Bestimmens des Schwellenwerts wird ein Mode-Verfahren oder ein differenzielles Histogrammverfahren verwendet. Alternativ kann der Schwellenwert direkt über den Bedienabschnitt 36 eingegeben werden. Darüber hinaus wird die Binarisierungsverarbeitung nicht zwingend durchgeführt. Das Fluoreszenzbildsignal kann direkt an den Farbverarbeitungsabschnitt 33g ausgegeben werden.
  • Nachdem es der Binarisierungsverarbeitung unterzogen wurde, wird das Fluoreszenzbildsignal in den Farbverarbeitungsabschnitt 33g eingegeben, wo das Fluoreszenzbildsignal der Farbverarbeitung unterzogen wird. Das Fluoreszenzbildsignal kann ohne die Farbverarbeitung direkt der Syntheseverarbeitung unterzogen werden. Allerdings ist das Fluoreszenzbildsignal das monochromes Signal. Daher besteht eine Möglichkeit, dass das Fluoreszenzbild wenig sichtbar ist. Somit wird das Helligkeitssignal in das Farbsignal umgewandelt. Für die Auswahl einer Farbe kann eine Farbe, welche den Fluoreszenzanteil nach der Synthese sichtbarer macht, automatisch aus Farbkomponenten des Normalbildsignals, welches ein Ziel der Synthese ist, ausgewählt werden. Die Farbe kann direkt über den Bedienabschnitt 36 eingegeben werden. In diesem Fall werden im Hinblick auf das Erzielen sowohl der Sichtbarkeit des charakteristischen Anteils als auch der Auflösung beispielsweise die Helligkeitssignale nicht alle in die Farbsignale umgewandelt. Stattdessen können einige Helligkeitssignale umgewandelt werden, während die anderen Helligkeitssignale nicht umgewandelt werden, abhängig von einem Helligkeitsniveau, wie in 12 veranschaulicht, oder einer Bildaufnahmeposition, wie in 13 veranschaulicht. Namentlich wird in 12 ein Autofluoreszenzanteil (182) mit der hohen Fluoreszenzhelligkeit in die Farbsignale umgewandelt. Der Anteil mit der geringen Helligkeit wird als der reflektierte Anteil (181) als das Helligkeitssignal belassen. Auf diese Weise wird die Sichtbarkeit des Autofluoreszenzanteils, der dem spezifischen Gebiet entspricht, erhöht. Alternativ wird in 13 der Fluoreszenzanteil mit einer hohen Helligkeit nicht vollständig in die Farbsignale umgewandelt. Stattdessen werden Umwandlung und Anzeige für jede Anzeigebildpunkteinheit (183) durchgeführt, um die Helligkeitssignale und die Farbsignale zu erhalten. Als ein Ergebnis können ein detaillierter Anteil des Helligkeitssignals, welcher eine Möglichkeit aufweist, gesättigt zu sein, um unsichtbar zu sein, wenn nur die Farbbildsignale verwendet werden, gleichzeitig angezeigt werden (184 und 185). Die Verteilung und das Niveau der Helligkeit und der Farben, die in 13 veranschaulicht sind, müssen nur als geeignete Werte in Übereinstimmung mit Bedingungen festgelegt werden. Die Verteilung und das Niveau der Helligkeit und der Farben, die in 13 veranschaulicht sind, müssen nur als geeignete Werte in Übereinstimmung mit Bedingungen festgelegt werden. Es ist ersichtlich, dass der in 13 gezeigte Helligkeitsabschnitt auf Null festgelegt werden kann, um mit dem sichtbaren Bild zu überlappen.
  • Als nächstes wird die Bildsyntheseverarbeitung beschrieben. Das Normalbildsignal wird von dem Normalbildverarbeitungsabschnitt 33a in den Bildsyntheseverarbeitungsabschnitt 33q eingegeben, während das gradationskorrigierte Bildsignal von der Gradationskorrekturverarbeitungseinheit 33m in den Bildsyntheseverarbeitungsabschnitt 33q eingegeben wird. In dem Bildsyntheseverarbeitungsabschnitt 33q werden das gradationskorrigierte Bildsignal und das Normalbildsignal mit einem vorbestimmten Verhältnis synthetisiert.
  • Das Synthesebildsignal Cs wird durch Addieren des Normalbildsignals Cv und eines Fluoreszenzbildsignals Ci1 nach Gewichtung (α1 und β1) erzeugt (in diesem Fall wird das gradationskorrigierte Bildsignal zur Vereinfachung als das Fluoreszenzbildsignal behandelt).
  • Beispielsweise wird das Synthesebildsignal in Übereinstimmung mit der nachstehenden Rechengleichung erzeugt. Cs= α × Cv+ β1 × Ci1
    Figure DE102014110131B4_0002
  • Dann wird das in dem Bildsyntheseverarbeitungsabschnitt 33q erzeugte Synthesebildsignal an den Videoausgabeabschnitt 35 ausgegeben. Der Videoausgabeabschnitt 35 führt die vorbestimmte Verarbeitung an dem eingegebenen Synthesebildsignal durch, um das Anzeigesteuersignal zu erzeugen, und gibt dann das Anzeigesteuersignal an den Monitor 4 aus. Dann zeigt der Monitor 4 das Synthesebild gemäß der Darstellung in 8 auf der Grundlage des eingegebenen Anzeigesteuersignals an.
  • 8 veranschaulicht einen Prozess eines Synthetisierens des Normalbildes (146) und eines gradationskorrigierten Bildes (168), das aus einem Fluoreszenzbild (147a) extrahiert ist. Das Normalbild (146) ist ein sichtbares Bild. Das gradationskorrigierte Bild (168) enthält ein Autofluoreszenzsignal (166) (spezifisches Gebiet B 170), das als die notwendige Information aus dem Fluoreszenzbild (147a) erhalten wird. Durch Synthetisieren des Normalbildes (146) und des gradationskorrigierten Bildes (168) wird ein Ausgabebild (169) erhalten, welches das spezifische Gebiet B (170) und das normale Gebiet (149) enthält.
  • Wie in 8 veranschaulicht, wird das weiße Licht gleichmäßig reflektiert, wenn das weiße Licht abgestrahlt wird. Daher wird das Normalbild (146) aus dem zweiten Bildaufnahmesystem erhalten. Wenn auf der anderen Seite das Anregungslicht abgestrahlt wird, wird die Autofluoreszenz von dem spezifischen Gebiet wie etwa einem Blutgefäß oder erkrankten Gewebe abgestrahlt. Daher wird das Fluoreszenzbild (147a) aus dem ersten Bildaufnahmesystem erhalten. Vor der Erzeugung des Synthesebildes wird die Gradationskorrekturverarbeitung an dem Fluoreszenzbild (147a) in Übereinstimmung mit der in 7 gezeigten Gradationscharakteristik durchgeführt, um das gradationskorrigierte Bild (168) als die notwendige Information zu erhalten. Danach wird das gradationskorrigierte Bild (168) mit dem Normalbild (146) synthetisiert. Als ein Ergebnis kann ein Bild mit einem klar angezeigten spezifischen Bereich B (170) wie etwa einem Blutgefäß oder erkrankten Gewebe erhalten werden.
  • Darüber hinaus entspricht das Fluoreszenzbild (147a) den Helligkeitssignalen. Wenn daher das extrahierte Signal mit dem Normalbild (146) synthetisiert wird, ist es vorstellbar, dass das erhaltene Bild in einigen Fällen geringe Sichtbarkeit aufweist. Daher wird die Synthese beispielsweise durchgeführt, nachdem das Helligkeitssignal in das Farbsignal umgewandelt wird. Als ein Ergebnis kann das spezifische Gebiet wie etwa erkranktes Gewebe leichter klar angezeigt werden. Wenn in diesem Fall das nach der Umwandlung zu erhaltende Farbsignal beliebig extern ausgewählt werden kann, wird der spezifische Bereich klarer angezeigt. Für die Synthese der extrahierten Signale wird ein Flashen für eine vorbestimmte Zeit durchgeführt, oder das Helligkeitsniveau oder eine Färbung wird variabel festgelegt, um gesteuert zu werden. Auf diese Weise kann die Sichtbarkeit des spezifischen Gebiets weiter verbessert werden.
  • Andere Abwandlungen sind die gleichen wie der vorstehend beschriebenen Ausführungsform, und daher wird hierin die Beschreibung derselben weggelassen.
  • Dritte Ausführungsform
  • Nun wird eine Bildaufnahmevorrichtung gemäß einer dritten Ausführungsform der vorliegenden Erfindung beschrieben. Eine Grundkonfiguration des Rigid-Scope-Systems, an welchem die Bildaufnahmevorrichtung gemäß der dritten Ausführungsform angewendet wird, ist die gleiche wie diejenige, die in 1 veranschaulicht ist. Darüber hinaus sind die Grundkonfigurationen der Lichtquellenvorrichtung 2 und der Bildverarbeitungsvorrichtung 3 die gleichen wie diejenigen, die in 2 und 3 veranschaulicht sind. 9 veranschaulicht eine spezifische Konfiguration des Bildverarbeitungsabschnitts 33 der Bildverarbeitungsvorrichtung 3 gemäß der dritten Ausführungsform, 7 veranschaulicht Charakteristiken der Korrekturverarbeitung gemäß der dritten Ausführungsform, 8 veranschaulicht ein Beispiel des erzeugten Bildes gemäß der dritten Ausführungsform, und 10 veranschaulicht ein Beispiel eines Betriebs eines Bildüberlagerungsverarbeitungsabschnitts.
  • In 9 weist der Bildverarbeitungsabschnitt 33 den Normalbildverarbeitungsabschnitt 33a, den Fluoreszenzbildverarbeitungsabschnitt 33b, die Gradationskorrekturverarbeitungseinheit 33m und einen Bildüberlagerungsverarbeitungsabschnitt 33p auf. Der Normalbildverarbeitungsabschnitt 33a führt vorbestimmte, für das Normalbild geeignete Bildverarbeitung an dem eingegebenen Normalbildsignal durch und gibt das erhaltene Normalbildsignal aus. Der Fluoreszenzbildverarbeitungsabschnitt 33b führt vorbestimmte, für das Fluoreszenzbild geeignete Bildverarbeitung an dem eingegebenen Fluoreszenzbildsignal durch und gibt das erhaltene Fluoreszenzbildsignal aus. Die Gradationskorrekturverarbeitungseinheit 33m führt vorbestimmte Verarbeitung zum Extrahieren notwendiger Information aus dem Fluoreszenzbild an dem Fluoreszenzbildsignal, das der vorbestimmten Verarbeitung in dem Fluoreszenzbildverarbeitungsabschnitt 33b unterzogen ist, durch. Der Bildüberlagerungsverarbeitungsabschnitt 33p synthetisiert das von dem Normalbildverarbeitungsabschnitt 33a ausgegebene Normalbildsignal mit einem von der Gradationskorrekturverarbeitungseinheit 33m ausgegebenen gradationskorrigierten Bildsignal.
  • Die Gradationskorrekturverarbeitungseinheit 33m weist den Gradationskorrekturverarbeitungsabschnitt 33n, den Verstärkungseinstellabschnitt 33e, den Binarisierungsverarbeitungsabschnitt 33f und den Farbverarbeitungsabschnitt 33g auf. Der Gradationskorrekturverarbeitungsabschnitt 33n extrahiert das spezifischen Gebiet aus dem Fluoreszenzbildsignal. Der Verstärkungseinstellabschnitt 33e verstärkt das Fluoreszenzbildsignal, von welchem das spezifische Gebiet extrahiert ist. Der Binarisierungsverarbeitungsabschnitt 33f wandelt das Fluoreszenzbildsignal, das der Verstärkungseinstellung unterzogen worden ist, in zwei Werte, welche schwarz und weiß angeben, um. Der Farbverarbeitungsabschnitt 33g wandelt das Helligkeitssignal in das Farbsignal für das Fluoreszenzbildsignal, das der Binarisierungsverarbeitung unterzogen worden ist, um.
  • Der Bildverarbeitungsabschnitt 33 weist ferner einen Schriftzeichenbilderzeugungsabschnitt 33t und einen Fontdatenspeicherabschnitt 33s auf. Der Schriftzeichenbilderzeugungsabschnitt 33t weist eine Verbindung mit einem Schriftzeichenbildsteuersignal 33u und dem Fontdatenspeicherabschnitt 33s auf. Ein Ausgang aus dem Schriftzeichenbilderzeugungsabschnitt 33t wird an den Bildüberlagerungsverarbeitungsabschnitt 33p übertragen.
  • Als nächstes werden Funktionen des Systems gemäß der dritten Ausführungsform beschrieben. Ein Gesamtbetrieb ist der gleiche wie derjenige der vorstehend beschriebenen Ausführungsformen, und daher werden nachstehende unterschiedliche Teile und charakteristische Teile beschrieben.
  • Die Bildüberlagerungsverarbeitung, die ein Merkmal dieser Ausführungsform ist, wird beschrieben. Die Verarbeitung vor der Bildüberlagerungsverarbeitung ist grundsätzlich die gleiche wie diejenige der zweiten Ausführungsform.
  • Das Normalbildsignal wird von dem Normalbildverarbeitungsabschnitt 33a in den Bildüberlagerungsverarbeitungsabschnitt 33p eingegeben, während das gradationskorrigierte Bildsignal von der Gradationskorrekturverarbeitungseinheit 33m in den Bildüberlagerungsverarbeitungsabschnitt 33p eingegeben wird. Der Schriftzeichenbilderzeugungsabschnitt 33t verwendet Schriftzeicheninformation in dem Fontdatenspeicherabschnitt 33s von der CPU 38 über das Schriftzeichenbildsteuersignal 33u, um ein Schriftzeichenbild zu erzeugen. Das Schriftzeichenbild informiert den Bediener über die notwendige Information durch Bildschirmanzeige. Der Bildüberlagerungsverarbeitungsabschnitt 33p zeigt das gradationskorrigierte Bildsignal, das Normalbildsignal und das Schriftzeichenbildsignal als ein Bild durch Überlagern der vorstehend erwähnten Signale an.
  • Dann wird das überlagerte (synthetisierte) Bildsignal, das in dem Bildüberlagerungsverarbeitungsabschnitt 33p erzeugt wird, an den Videoausgabeabschnitt 35 ausgegeben. Der Videoausgabeabschnitt 35 führt die vorbestimmte Verarbeitung an dem eingegebenen Synthesebildsignal durch, um das Anzeigesteuersignal zu erzeugen, und gibt dann das Anzeigesteuersignal an den Monitor 4 aus. Dann zeigt der Monitor 4 ein Überlagerungsbild (172) gemäß der Darstellung in 10 auf der Grundlage des eingegebenen Anzeigesteuersignals an.
  • 10 (siehe auch diesbezügliche 8) veranschaulicht einen Prozess eines Überlagerns des Normalbildes (146) und des gradationskorrigierten Bildes (168), das aus einem Fluoreszenzbild (147a) extrahiert ist. Das Normalbild (146) ist ein sichtbares Bild. Das gradationskorrigierte Bild (168) enthält das Autofluoreszenzsignal (166) (spezifisches Gebiet B 70), das als die notwendige Information aus dem Fluoreszenzbild (147) erhalten wird. Durch Überlagern des Normalbildes (146) und des gradationskorrigierten Bildes (168) wird das Überlagerungsbild (172) erhalten.
  • Wie in 8 veranschaulicht, wird das weiße Licht gleichmäßig reflektiert, wenn das weiße Licht abgestrahlt wird. Daher wird das Normalbild (146) aus dem zweiten Bildaufnahmesystem erhalten. Wenn auf der anderen Seite das Anregungslicht abgestrahlt wird, wird die Autofluoreszenz von dem spezifischen Gebiet wie etwa einem Blutgefäß oder erkranktem Gewebe abgestrahlt. Daher wird das Fluoreszenzbild (147a) von dem ersten Bildaufnahmesystem erhalten. Vor der Erzeugung des Synthesebildes wird dann die Gradationskorrekturverarbeitung an dem Fluoreszenzbild (147a) in Übereinstimmung mit der in 7 gezeigten Gradationscharakteristik durchgeführt, um das gradationskorrigierte Bild (168) als die notwendige Information zu erhalten. Danach wird das gradationskorrigierte Bild (168) auf dem Normalbild (146) überlagert. Als ein Ergebnis kann ein Bild mit einem klar angezeigten spezifischen Bereich B (170) wie etwa einem Blutgefäß oder erkranktem Gewebe erhalten werden.
  • Darüber hinaus entspricht das Fluoreszenzbild (147a) den Helligkeitssignalen. Daher ist es vorstellbar, dass das Bild manchmal weniger sichtbar ist, nachdem das extrahierte Signal auf dem Normalbild (146) überlagert ist. Daher kann durch Überlagern der Signale, nachdem das Helligkeitssignal in das Farbsignal umgewandelt ist, das spezifische Gebiet wie etwa erkranktes Gewebe leichter klar angezeigt werden. Wenn in diesem Fall das nach der Umwandlung zu erhaltende Farbsignal beliebig extern ausgewählt werden kann, wird der spezifische Bereich klarer angezeigt. Für die Synthese des extrahierten Signals wird ein Flashen für eine vorbestimmte Zeit durchgeführt, oder das Helligkeitsniveau oder eine Färbung wird variabel festgelegt, um gesteuert zu werden. Auf diese Weise kann die Sichtbarkeit des spezifischen Bereichs weiter verbessert werden.
  • Wie in 10 veranschaulicht, werden die Bilder beispielsweise in der nachstehenden Reihenfolge in den jeweiligen Schichten überlagert. Namentlich wird das Normalbild (146) als eine unterste Schicht vorgesehen, wird das gradationskorrigierte Bild (168) als eine mittlere Schicht vorgesehen, und wird das Schriftzeichenbild (171) als eine oberste Schicht vorgesehen. Der Bildüberlagerungsverarbeitungsabschnitt 33p führt die Syntheseverarbeitung nicht mit einfacher Addition durch, sondern überlagert die Bilder in einem Zustand, in welchem jedes der Bilder eine unabhängige Schichtstruktur aufweist, wie vorstehend beschrieben. Daher kann das auf dem anzuzeigenden Ausgabebild zu überlagernde Bild automatisch oder durch einen Benutzer auf der Grundlage eines Überlagerungssteuersignals 33r, welches ein Steuersignal ist, ausgewählt werden. Diese Auswahl wird durch die CPU 38 oder den Bedienabschnitt 36 verwirklicht. Auf diese Weise wird das Schriftzeichenbild (171) nach Bedarf überlagert, was Annehmlichkeit bereitstellt. Darüber hinaus liegen in der vorstehend erwähnten Struktur die Bilder in einer unabhängigen Weise vor. Daher kann, wie in 11 veranschaulicht, jedes der Bilder in einer beliebigen Größe an einer beliebigen Position in einer überlagerten Weise angezeigt werden. Als ein Ergebnis kann beispielsweise ein durch den Bediener, der eine Bedienung durchführt, gewünschtes Bild leichter erhalten werden.
  • Andere Abwandlungen sind die gleichen wie der vorstehend beschriebenen Ausführungsformen, und die Beschreibung derselben ist hierin weggelassen.
  • Die vorliegende Erfindung ist nicht auf die vorstehend beschriebenen Ausführungsformen beschränkt und umfasst all die möglichen Kombinationen hiervon.
  • Der Speziallichtsperrfilter 22, das erste optische Abbildungssystem 23 und das hochempfindliche Bildaufnahmeelement 24, welche dem ersten Bildaufnahmesystem entsprechen, bilden einen ersten Bildaufnahmeteil. Das zweite optische Abbildungssystem 25 und das Bildaufnahmeelement 26, welche dem zweiten Bildaufnahmesystem entsprechen, bilden einen zweiten Bildaufnahmeteil. Der Kantenextrahierungsabschnitt 33d und der Gradationskorrekturverarbeitungsabschnitt 33n bilden einen Bildverarbeitungsteil. Jeder der Bildsyntheseverarbeitungsabschnitte 331 und 33q bildet einen Synthesebilderzeugungsteil. Der Bildüberlagerungsverarbeitungsabschnitt 33p bildet einen Überlagerungsbilderzeugungsteil. Der Binarisierungsverarbeitungsabschnitt 33f bildet einen Schwellenwertverarbeitungsteil. Der Farbverarbeitungsabschnitt 33g bildet einen Farbverarbeitungsteil. Die CPU 38, der Bedienabschnitt 36, der Farbverarbeitungsabschnitt 33g, die Bildsyntheseverarbeitungsabschnitte 331 oder 33q und der Bildüberlagerungsverarbeitungsabschnitt 33p bilden einen Farbveränderungsteil, Bildfestlegungsteil und Bildflashingteil. Die Feedbackmonitore L 86 und R 87 bilden einen Nahinfrarotbildsignalumwandlungsteil. Die Feedbackmonitore L 86 und R 87 und die Überlagerungsspiegel L 88 und R 89 bilden einen Nahinfrarot-Sichtbarlichtbildüberlagerungsteil.
  • Bezugszeichenliste
  • 1
    Rigid-Scope-System
    2
    Lichtquellenvorrichtung
    3
    Bildverarbeitungsvorrichtung
    4
    Monitor
    5
    Kabel
    10
    Rigid-Scope-Bildaufnahmevorrichtung
    20
    Bildaufnahmeeinheit
    21
    dichromatisches Prisma
    22
    Speziallichtsperrfilter
    23
    Abbildungssystem
    24
    Bildaufnahmelement
    25
    zweites optisches Abbildungssystem
    26
    Bildaufnahmeelement
    27
    Bildaufnahmesteuereinheit
    30
    Einführstück
    30X
    Kameraseite
    30Y
    endseitiger Abschnitt
    31
    Normalbild-Eingangscontroller
    32
    Fluoreszenzbild-Eingangscontroller
    33
    Bildverarbeitungsabschnitt
    33a
    Normalbildverarbeitungsabschnitt
    33b
    Fluoreszenzbildverarbeitungsabschnitt
    33d
    Kantenextrahierungsabschnitt
    33e
    Verstärkungseinstellabschnitt
    33f
    Binarisierungsverarbeitungsabschnitt
    33g
    Farbverarbeitungsabschnitt
    331
    Bildsyntheseverarbeitungsabschnitt
    33n
    Gradationskorrekturverarbeitungsabschnitt
    33p
    Bildüberlagerungsverarbeitungsabschnitt
    33q
    Bildsyntheseverarbeitungsabschnitt
    33r
    Überlagerungssteuersignal
    33s
    Fontdatenspeicherabschnitt
    33t
    Schriftzeichenbilderzeugungsabschnitt
    33u
    Schriftzeichenbild-Steuersignal
    34
    Speicher
    35
    Videoausgabeabschnitt
    36
    Bedienabschnitt
    37
    TG
    38
    CPU
    40
    Normallichtquelle
    41
    Normallichtsteuerabschnitte
    42
    Kondensorlinse
    43
    dichromatischer Spiegel
    44
    LD-Lichtquelle
    45
    LD-Treiber
    46
    Kondensorlinse
    47
    Spiegel
    48
    Normallichtsteuerabschnitte
    63
    lineare Charakteristik
    64
    Gradationskorrekturchrakteristik
    65
    Floreszenzsignalpegel
    66
    Autofluoreszenzsignalpegel
    84
    ABK
    86
    Feedback-Monitor L
    87
    Feedback-Monitor R
    92
    Überlagerungs- und Schaltabschnitt
    93
    Objektivlinse
    146
    Normalbild
    147
    Fluoreszenzbild
    147a
    Fluoreszenzbild
    148
    Konturextrahiertes Bild aus Fluoreszenzbild
    149
    Normales Gebiet
    150
    Spezifisches Gebiet
    151
    Synthesebild
    165
    reflektiertes Fluoreszenzsignal
    166
    Autofluoreszenzsignal
    168
    Gradationskorrigiertes Bild aus Fluoreszenzbild
    169
    Ausgabebild
    170
    Spezifisches Gebiet B
    171
    Schriftzeichenbild
    172
    Überlagerungsbild
    180
    Farbsignalumwandlungsanzeigebeispiel in Übereinstimmung mit Fluoreszenzhell igkeitsn iveau
    181
    reflektiertes Fluoreszenzhelligkeitssignal (geringe Helligkeit = als Helligkeitssignal verbleibend)
    182
    Autofluoreszenzsignal (hohe Helligkeit = in Farbsignal umgewandelt)
    183
    Beispiel einer Anordnung von Anzeigebildpunkten eines Nahinfrarotfluoreszenzbildes Y (Helligkeit): C (Farbe) =1:1
    184
    Autofluoreszenzanteil
    185
    Helligkeitsanteil in Nahinfrarot-Autofluoreszenanteil
    186
    Nahinfrarot-Autofluoreszenanteil (Y:C=1:1)
    FBS
    NBS Normalbildsignal Fluoreszenzbildsignal
    SG
    Spezifisches Gebiet
    A
    Autofluoreszenz

Claims (17)

  1. Eine Bildaufnahmevorrichtung zum Aufnehmen von Bildern in einer Mehrzahl von Wellenlängenbändern, aufweisend: einen ersten Bildaufnahmeteil (24) zum Aufnehmen eines optischen Bildes in einem nah-infraroten Band; einen zweiten Bildaufnahmeteil (26) zum Aufnehmen eines optischen Bildes in einem Band sichtbaren Lichts; einen Konturbildextrahierungsteil (33d) zum Durchführen einer Verarbeitung zum Extrahieren eines Konturanteils aus einem durch den ersten Bildaufnahmeteil gewonnenen Nahinfrarotbild; und einen Synthesebilderzeugungsteil (331) zum Addieren eines durch den zweiten Bildaufnahmeteil gewonnenen sichtbaren Bildes und eines mittels Konturextrahierungsverarbeitung durch den Konturbildextrahierungsteil erhaltenen Konturbildes mit einem vorbestimmten Verhältnis, um ein Synthesebild zu erzeugen.
  2. Die Bildaufnahmevorrichtung gemäß Anspruch 1, weiter aufweisend: einen Gradationskorrekturverarbeitungsteil (33n) zum Durchführen einer Gradationskorrekturverarbeitung an dem durch den ersten Bildaufnahmeteil gewonnenen Nahinfrarotbild.
  3. Die Bildaufnahmevorrichtung gemäß Anspruch 1 oder 2, weiter aufweisend einen Schwellenwertverarbeitungsteil (33f) zum Binarisieren eines Helligkeitssignals des zu synthetisierenden Nahinfrarotbildes.
  4. Die Bildaufnahmevorrichtung gemäß Anspruch 1 oder 2, weiter aufweisend einen Farbverarbeitungsteil (33g) zum Umwandeln eines Helligkeitssignals des zu synthetisierenden Nahinfrarotbildes in ein Farbsignal.
  5. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 4, weiter aufweisend einen Bildfestlegungsteil (36, 38, 33g) zum Festlegen einer Farbe des zu synthetisierenden Nahinfrarotbildes.
  6. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 4, weiter aufweisend einen Bildflashingteil (36, 38, 33g, 331, 33q) zum Flashen wenigstens eines Helligkeitssignals oder eines Farbsignals des zu synthetisierenden Nahinfrarotbildes.
  7. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 4, weiter aufweisend einen Farbveränderungsteil (36, 38, 33g) zum Verändern einer Farbe des zu synthetisierenden Nahinfrarotbildes.
  8. Eine Bildaufnahmevorrichtung zum Aufnehmen von Bildern in einer Mehrzahl von Wellenlängenbändern, aufweisend: einen ersten Bildaufnahmeteil (24) zum Aufnehmen eines optischen Bildes in einem nah-infraroten Band; einen zweiten Bildaufnahmeteil (26) zum Aufnehmen eines optischen Bildes in einem Band sichtbaren Lichts; einen Bildverarbeitungsteil (33n) zum Durchführen einer Verarbeitung zum Extrahieren notwendiger Information aus einem Nahinfrarotbild, gewonnen durch den ersten Bildaufnahmeteil; und einen Überlagerungsbilderzeugungsteil (33p) zum Überlagern eines durch den zweiten Bildaufnahmeteil gewonnenen sichtbaren Bildes als einer ersten Schicht mit einem durch den Bildverarbeitungsteil erhaltenen Nahinfrarotbild als einer zweiten Schicht, um ein Ausgabebild in einem Zustand, in welchem sowohl das sichtbare Bild als auch as Nahinfrarotbild eine unabhängige Schichtstruktur aufweisen, zu erzeugen.
  9. Die Bildaufnahmevorrichtung gemäß Anspruch 8, weiter aufweisend einen Schwellenwertverarbeitungsteil (33f) zum Binarisieren eines Helligkeitssignals des zu überlagernden Nahinfrarotbildes.
  10. Die Bildaufnahmevorrichtung gemäß Anspruch 8, weiter aufweisend einen Farbverarbeitungsteil (33g) zum Umwandeln eines Helligkeitssignals des zu überlagernden Nahinfrarotbildes in ein Farbsignal.
  11. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 8 bis 10, weiter aufweisend einen Bildfestlegungsteil (36, 38, 33g) zum Festlegen einer Farbe des zu überlagernden Nahinfrarotbildes.
  12. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 8 bis 10, weiter aufweisend einen Bildflashingteil (36, 38, 33g, 33p) zum Flashen wenigstens eines eines Helligkeitssignals oder eines Farbsignals des zu überlagernden Nahinfrarotbildes.
  13. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 8 bis 10, weiter aufweisend einen Farbveränderungsteil (36, 38, 33g) zum Verändern einer Farbe des zu überlagernden Nahinfrarotbildes.
  14. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 8 bis 13, wobei der Überlagerungsbilderzeugungsteil (33p) zum Überlagern eines Schriftzeichenbildes als einer dritten unabhängigen Schicht in dem Ausgabebild vorgesehen ist.
  15. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 14, weiter aufweisend einen Nahinfrarotbildsignalumwandlungsteil (86, 87) zum Umwandeln eines erhaltenen Nahinfrarotbildsignals in ein Nahinfrarot-Sichtbarlichtbild durch photoelektrische Umwandlung.
  16. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 14, weiter aufweisend einen Nahinfrarot-Sichtbarlichtbildüberlagerungsteil (86, 87, 88, 89) zum Umwandeln eines erhaltenen Nahinfrarotbildsignals in ein Nahinfrarot-Sichtbarlichtbild durch photoelektrische Umwandlung und Überlagern des erhaltenen Nahinfrarot-Sichtbarlichtbildes auf einem tatsächlichen Bild sichtbaren Lichts.
  17. Die Bildaufnahmevorrichtung gemäß einem der Ansprüche 4 bis 10, wobei der Farbverarbeitungsteil (33g) wenigstens einen Teil eines Helligkeitssignals des Nahinfrarotbildes in das Farbsignal umwandelt.
DE102014110131.6A 2013-08-06 2014-07-18 Bildaufnahmevorrichtung Active DE102014110131B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013163472A JP6533358B2 (ja) 2013-08-06 2013-08-06 撮像装置
JP2013-163472 2013-08-06

Publications (2)

Publication Number Publication Date
DE102014110131A1 DE102014110131A1 (de) 2015-04-02
DE102014110131B4 true DE102014110131B4 (de) 2021-02-25

Family

ID=52448290

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014110131.6A Active DE102014110131B4 (de) 2013-08-06 2014-07-18 Bildaufnahmevorrichtung

Country Status (3)

Country Link
US (1) US9906739B2 (de)
JP (1) JP6533358B2 (de)
DE (1) DE102014110131B4 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6152635B2 (ja) * 2012-11-08 2017-06-28 ソニー株式会社 画像処理装置および方法、並びに、プログラム
CN105517482B (zh) * 2013-09-10 2018-04-27 索尼公司 图像处理装置、图像处理方法和程序
WO2015186397A1 (ja) * 2014-06-05 2015-12-10 オリンパスメディカルシステムズ株式会社 処理装置、内視鏡システム、内視鏡装置、画像処理方法および画像処理プログラム
JP6392570B2 (ja) * 2014-07-11 2018-09-19 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、画像処理プログラム、及び内視鏡システム
WO2016147366A1 (ja) 2015-03-19 2016-09-22 オリンパス株式会社 内視鏡装置
WO2016158624A1 (ja) * 2015-03-30 2016-10-06 国立大学法人東北大学 生体情報計測装置、生体情報計測方法、生体情報表示装置及び生体情報表示方法
JP6683367B2 (ja) * 2015-03-30 2020-04-22 国立大学法人東北大学 生体情報計測装置、生体情報計測方法及び生体情報計測プログラム
JP6557724B2 (ja) * 2015-05-25 2019-08-07 オリンパス株式会社 画像処理装置、医用観察システムおよび画像処理プログラム
WO2017061284A1 (ja) * 2015-10-07 2017-04-13 オリンパス株式会社 撮像システム、制御装置、制御方法及び制御プログラム
JP2017118887A (ja) * 2015-12-28 2017-07-06 株式会社システック 体内近赤外光像検出カメラ
JP2017176811A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 撮像装置、撮像方法及び医療用観察機器
CN108778088B (zh) * 2016-05-19 2021-03-19 奥林巴斯株式会社 活体观察系统
US10122975B2 (en) 2016-05-19 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Endoscope and endoscope system
CN113727000A (zh) * 2016-05-27 2021-11-30 松下知识产权经营株式会社 摄像系统
KR102672119B1 (ko) * 2016-09-09 2024-06-05 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 동시 백색 광 및 하이퍼스펙트럴 광 이미징 시스템들
US10187593B2 (en) 2016-09-27 2019-01-22 Rxsafe Llc Verification system for a pharmacy packaging system
US11595595B2 (en) 2016-09-27 2023-02-28 Rxsafe Llc Verification system for a pharmacy packaging system
US10742890B2 (en) * 2016-10-28 2020-08-11 Kyocera Corporation Imaging apparatus, imaging system, moving body, and imaging method
CN110022751B (zh) * 2016-12-02 2021-11-30 奥林巴斯株式会社 内窥镜用图像处理装置
JP2018130375A (ja) * 2017-02-16 2018-08-23 池上通信機株式会社 映像データ表示装置
DE112018001054T5 (de) * 2017-02-28 2019-11-07 Sony Corporation Bildverarbeitungsvorrichtung, Bilderzeugungsverfahren und Programm
JPWO2019087557A1 (ja) * 2017-11-06 2020-12-03 オリンパス株式会社 内視鏡システム
US20210169305A1 (en) * 2017-11-13 2021-06-10 Sony Corporation Image processing apparatus, image processing method, and image processing system
US11272844B2 (en) 2017-11-13 2022-03-15 Sony Corporation Information processing device, information processing method, and fluorescence image capturing system
EP3804604A4 (de) * 2018-05-31 2022-04-13 Panasonic i-PRO Sensing Solutions Co., Ltd. Kameravorrichtung, bildverarbeitungsverfahren und kamerasystem
JP6865719B2 (ja) * 2018-07-19 2021-04-28 パナソニックi−PROセンシングソリューションズ株式会社 医療用光学顕微鏡
JP7254461B2 (ja) * 2018-08-01 2023-04-10 キヤノン株式会社 撮像装置、制御方法、記録媒体、および、情報処理装置
EP3915457A4 (de) * 2019-01-24 2022-03-09 FUJIFILM Corporation Endoskopvorrichtung
JP7281308B2 (ja) 2019-03-07 2023-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP7257829B2 (ja) * 2019-03-15 2023-04-14 ソニー・オリンパスメディカルソリューションズ株式会社 画像処理装置、画像処理方法およびプログラム
WO2020203164A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 医療システム、情報処理装置及び情報処理方法
US11730340B2 (en) 2019-05-01 2023-08-22 Karl Storz Imaging, Inc. Video display system having an adaptive overlay
US20200397267A1 (en) * 2019-06-20 2020-12-24 Ethicon Llc Speckle removal in a pulsed fluorescence imaging system
EP4000496A4 (de) 2019-08-27 2022-10-05 Sony Olympus Medical Solutions Inc. Medizinisches bildverarbeitungsgerät und medizinisches beobachtungssystem
EP4088642A4 (de) 2020-02-18 2023-06-07 Sony Olympus Medical Solutions Inc. Lernvorrichtung und medizinische bildverarbeitungsvorrichtung
DE102020118814A1 (de) 2020-07-16 2022-01-20 avateramedical GmBH Stereoendoskop
JP7041226B2 (ja) * 2020-10-19 2022-03-23 パナソニックi-PROセンシングソリューションズ株式会社 医療用光学顕微鏡
JPWO2023181558A1 (de) * 2022-03-24 2023-09-28

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020168096A1 (en) * 2001-04-27 2002-11-14 Fuji Photo Film Co., Ltd. Method and apparatus for standardized fluorescence image generation
DE102006042670A1 (de) * 2005-09-12 2007-03-15 Pentax Corp. Elektronisches Endoskopsystem
EP2526853A1 (de) * 2010-03-09 2012-11-28 Olympus Corporation Fluoreszierende endoskopvorrichtung

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6379632A (ja) * 1986-09-25 1988-04-09 株式会社東芝 電子内視鏡装置
JP4733817B2 (ja) * 1999-07-30 2011-07-27 オリンパス株式会社 実体顕微鏡
JP2001178674A (ja) * 1999-12-24 2001-07-03 Toshiba Corp 内視鏡及び内視鏡用信号処理装置
JP2001299676A (ja) * 2000-04-25 2001-10-30 Fuji Photo Film Co Ltd センチネルリンパ節検出方法および検出システム
JP4202671B2 (ja) * 2001-04-27 2008-12-24 富士フイルム株式会社 規格化画像生成方法および装置
JP2003164414A (ja) * 2001-11-29 2003-06-10 Fuji Photo Film Co Ltd 蛍光診断画像表示方法および表示装置
JP2004024497A (ja) * 2002-06-25 2004-01-29 Fuji Photo Film Co Ltd 蛍光診断画像生成装置
JP5385176B2 (ja) * 2009-09-28 2014-01-08 富士フイルム株式会社 画像表示装置の作動方法および画像表示装置
JP2011131002A (ja) * 2009-12-25 2011-07-07 Fujifilm Corp 蛍光画像撮像装置
WO2012132790A1 (ja) * 2011-03-31 2012-10-04 オリンパス株式会社 蛍光観察装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020168096A1 (en) * 2001-04-27 2002-11-14 Fuji Photo Film Co., Ltd. Method and apparatus for standardized fluorescence image generation
DE102006042670A1 (de) * 2005-09-12 2007-03-15 Pentax Corp. Elektronisches Endoskopsystem
EP2526853A1 (de) * 2010-03-09 2012-11-28 Olympus Corporation Fluoreszierende endoskopvorrichtung

Also Published As

Publication number Publication date
US20150042774A1 (en) 2015-02-12
DE102014110131A1 (de) 2015-04-02
JP2015029841A (ja) 2015-02-16
US9906739B2 (en) 2018-02-27
JP6533358B2 (ja) 2019-06-19

Similar Documents

Publication Publication Date Title
DE102014110131B4 (de) Bildaufnahmevorrichtung
DE60203559T2 (de) Gerät zur Anzeige eines Fluoreszenzbildes
DE60130170T2 (de) Fluorezentlicht Bilddarstellungsverfahren und Gerät dafür
DE102014016850B9 (de) Optisches System zur Fluoreszenzbeobachtung
DE102004006260B4 (de) Videoendoskopeinrichtung
DE102005045961B4 (de) Verfahren und Vorrichtung zur Darstellung eines einen Fluoreszenzfarbstoff enthaltenden Gewebes
DE102006042670A1 (de) Elektronisches Endoskopsystem
DE112015001158T5 (de) Beobachtungsbild-Gewinnungssystem und Beobachtungsbild-Gewinnungsverfahren
DE112019002059T5 (de) Endoskopsystem und Fluoreszenzbildausgabeverfahren
DE112011100495T5 (de) Elektronisches Endoskopsystem
DE112017000897T5 (de) Endoskoplichtquellenvorrichtung und Endoskopsystem
DE102017210274A1 (de) Mikroskopiesystem und Mikroskopieverfahren zur Aufnahme von Fluoreszenzlichtbildern und Weißlichtbildern
DE102020105459A1 (de) Medizinische bildgebungsvorrichtung mit mehreren bildgebungsmodi
DE112017005511T5 (de) Bildverarbeitungsvorrichtung
DE112015005326T5 (de) Endoskopvorrichtung
DE60016533T2 (de) Vorrichtung zur Erfassung eines Fluoreszenzbildes
DE112016000067T5 (de) Bildverarbeitungseinrichtung
DE112017002653T5 (de) Bildsignalverarbeitungsvorrichtung, Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsprogramm
DE112015006176T5 (de) Endoskopvorrichtung
DE102011053250B4 (de) Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjektes mit einem elektronischen Bildsensor und optisches Beobachtungsgerät
DE102011001200A1 (de) Steuerung der Beleuchtung eines mittels einer Kamera erfassten medizinischen Objekts
DE112017003367B4 (de) Analysevorrichtung
DE60020986T2 (de) Farbbildaufnahmegerät für schwaches licht
DE112017002547T5 (de) Lebendkörper-Beobachtungssystem
DE112016001722T5 (de) Endoskopsystem und Bewertungswert-Berechnungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final