DE112015006505T5 - Bildgebungsvorrichtung - Google Patents

Bildgebungsvorrichtung Download PDF

Info

Publication number
DE112015006505T5
DE112015006505T5 DE112015006505.9T DE112015006505T DE112015006505T5 DE 112015006505 T5 DE112015006505 T5 DE 112015006505T5 DE 112015006505 T DE112015006505 T DE 112015006505T DE 112015006505 T5 DE112015006505 T5 DE 112015006505T5
Authority
DE
Germany
Prior art keywords
signal
light
fluorescence
processing unit
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015006505.9T
Other languages
English (en)
Inventor
Yusuke Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE112015006505T5 publication Critical patent/DE112015006505T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

Eine Bildgebungsvorrichtung umfasst eine Bildgebungseinheit und eine Signalverarbeitungseinheit. Die Bildgebungseinheit erzeugt ein erstes Bildsignal auf Grundlage von sichtbarem Licht von einem Objekt und ein zweites Bildsignal auf Grundlage von Erregungslicht und Fluoreszenz von dem Objekt zu erzeugen. Die Signalverarbeitungseinheit erzeugt ein Fluoreszenzbildsignal, das der Fluoreszenz entspricht, auf Grundlage des ersten Bildsignals und des zweiten Bildsignals. Die Signalverarbeitungseinheit bestimmt einen Zielbereich des Objektes auf Grundlage des ersten Bildsignals. Die Signalverarbeitungseinheit bestimmt einen Fluoreszenzbereich auf Grundlage des zweiten Bildsignals, das dem Zielbereich entspricht und der Fluoreszenzbereich erzeugt die Fluoreszenz in dem Objekt. Die Signalverarbeitungseinheit führt einen Hervorhebungsprozess des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, aus.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Bildgebungsvorrichtung.
  • Hintergrund der Technik
  • Endoskopsysteme, die zusätzlich zu herkömmlicher Beobachtung unter Verwendung sichtbaren Lichts Beobachtung mit speziellem Licht unter Verwendung von Infrarotlicht ausführen können, sind weit verbreitet. In einem solchen Endoskopsystem kann eine Läsion, die durch die herkömmliche Beobachtung oder die Beobachtung mit speziellem Licht gefunden wird, unter Verwendung eines Behandlungsinstruments behandelt werden.
  • In einem in PTL1 offenbarten Endoskopsystem wird beispielsweise Erregungslicht auf ein fluoreszierendes Material gestrahlt, das als Indocyanin-Grün (ICG) bezeichnet wird, und wird Fluoreszenz von einer Läsion erfasst. ICG wird dem Inneren des Körpers einer Untersuchungszielperson im Voraus verabreicht. ICG wird in einem Infrarotbereich durch Erregungslicht erregt, um Fluoreszenz auszustrahlen. Das verabreichte ICG wird in einer Läsion eines Krebs oder dergleichen kumuliert. Da von der Läsion eine starke Fluoreszenz erzeugt wird, kann eine untersuchende Person die Anwesenheit/Abwesenheit einer Läsion auf Grundlage eines aufgenommenen Fluoreszenzbildes bestimmen.
  • In dem in PTL1 offenbarten Endoskopsystem wird Licht, das sichtbares Licht und Infrarotlicht umfasst, auf ein Objekt gestrahlt. Das Wellenlängenband des auf ein Objekt gestrahlten Infrarotlichts umfasst nicht das Wellenlängenband von Fluoreszenz, sondern umfasst das Wellenlängenband des Erregungslichts. Von einem Objekt reflektiertes Licht und von dem Objekt erzeugte Fluoreszenz (Infrarot-Fluoreszenz) werden durch einen dichroitischen Spiegel oder ein dichroitisches Prisma abgebildet, die in einem Kamerakopf installiert sind. Eine Teilungseinrichtung, die sichtbares Licht und Fluoreszenz teilt, ist vorgesehen und dementsprechend können eine gewöhnliche Beobachtung unter Verwendung sichtbaren Lichts und eine Beobachtung mit speziellem Licht unter Verwendung von Infrarotlicht gleichzeitig ausgeführt werden. Außerdem werden Fluoreszenz, rotes Licht, grünes Licht und blaues Licht unter Verwendung verschiedener Bildsensoren durch den dichroitischen Spiegel oder das dichroitische Prisma abgebildet. Somit kann ein Bild mit einer hohen Bildqualität aufgenommen werden.
  • 9 zeigt die Konfiguration einer Endoskopvorrichtung 1001, die ähnlich der in PTL1 offenbarten Konfiguration ist. Wie in 9 gezeigt, umfasst die Endoskopvorrichtung 1001 eine Lichtquelleneinheit 1010, eine Endoskopeinheit 1020, einen Kamerakopf 1030, einen Prozessor 1040 und einen Monitor 1050. 9 zeigt schematische Konfigurationen der Lichtquelleneinheit 1010, der Endoskopeinheit 1020 und des Kamerakopfs 1030.
  • Die Lichtquelleneinheit 1010 umfasst eine Lichtquelle 1100, einen Bandpassfilter 1101 und eine Kondensorlinse 1102. Die Lichtquelle 1100 strahlt Licht von Wellenlängen im Bereich von dem Wellenlängenband sichtbaren Lichts zu dem Wellenlängenband von Infrarotlicht aus. Das Wellenlängenband von Infrarotlicht umfasst das Wellenlängenband von Erregungslicht und das Wellenlängenband von Fluoreszenz. Das Wellenlängenband von Fluoreszenz ist ein Band mit Wellenlängen, die länger sind als die des Wellenlängenbands von Erregungslicht in dem Wellenlängenband von Infrarotlicht. Der Bandpassfilter 1101 ist in der Mitte eines Beleuchtungsstrahlengangs der Lichtquelle 1100 angeordnet. Der Bandpassfilter 1101 überträgt nur sichtbares Licht und Erregungslicht. Die Kondensorlinse 1102 kondensiert durch den Bandpassfilter 1101 übertragenes Licht. Das Wellenlängenband des von der Lichtquelle 1100 ausgestrahlten Infrarotlichts kann mindestens das Wellenlängenband des Erregungslichts umfassen.
  • 10 zeigt die Durchlässigkeitseigenschaften des Bandpassfilters 1101. In einem in 10 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und die vertikale Achse die Durchlässigkeit dar. Der Bandpassfilter 1101 überträgt Licht eines Wellenlängenbands mit Wellenlängen von circa 370 nm bis circa 800 nm. Andererseits blockiert der Bandpassfilter 1101 Licht eines Wellenlängenbands mit Wellenlängen von weniger als circa 370 nm und Licht eines Wellenlängenbands mit Wellenlängen von circa 800 nm oder mehr. Das Wellenlängenband von von dem Bandpassfilter 1101 übertragenem Licht umfasst das Wellenlängenband sichtbaren Lichts und das Wellenlängenband von Erregungslicht. Das Wellenlängenband des Erregungslichts ist ein Band mit Wellenlängen von circa 750 nm bis circa 780 nm. Das Wellenlängenband von von dem Bandpassfilter 1101 blockiertem Licht umfasst das Wellenlängenband von Fluoreszenz. Das Wellenlängenband von Fluoreszenz ist ein Band mit Wellenlängen von circa 800 nm bis circa 900 nm.
  • Die Endoskopeinheit 1020 umfasst einen Lichtleiter 1200, eine Beleuchtungslinse 1201, eine Objektivlinse 1202 und einen Bildleiter 1203. Von der Lichtquelle 1100 ausgestrahltes Licht fällt durch den Bandpassfilter 1101 und die Kondensorlinse 1102 auf den Lichtleiter 1200 ein. Der Lichtleiter 1200 überträgt das von der Lichtquelle 1100 ausgestrahlte Licht an einen Spitzenendteil der Endoskopeinheit 1020. Das von dem Lichtleiter 1200 übertragene Licht wird von der Beleuchtungslinse 1201 auf ein Objekt 1060 gestrahlt.
  • Die Objektivlinse 1202 ist der Beleuchtungslinse 1201 an dem Spitzenendteil der Endoskopeinheit 1020 benachbart angeordnet. Das von dem Objekt 1060 reflektierte Licht und die von dem Objekt 1060 erzeugte Fluoreszenz fallen auf die Objektivlinse 1202 ein. Das von dem Objekt 1060 reflektierte Licht umfasst sichtbares Licht und Erregungslicht. Mit anderen Worten fallen Licht, das das von dem Objekt 1060 reflektierte Licht des Wellenlängenbands des sichtbaren Lichts umfasst, das reflektierte Licht des Wellenlängenbands des Erregungslichts und die von dem Objekt 1060 ausgestrahlte Fluoreszenz auf die Objektivlinse 1202 ein. Die Objektivlinse 1202 bildet ein Bild des vorstehend beschriebenen Lichts.
  • Eine Vorderendfläche des Bildleiters 1203 ist an einer Bildbildungsposition der Objektivlinse 1202 angeordnet. Der Bildleiter 1203 überträgt ein an der Vorderendfläche gebildetes optisches Licht an eine Rückendfläche.
  • Der Kamerakopf 1030 umfasst eine Abbildungslinse 1300, einen dichroitischen Spiegel 1301, einen Erregungslichtsperrfilter 1302, einen Bildsensor 1303, ein dichroitisches Prisma 1304, einen Bildsensor 1305, einen Bildsensor 1306 und einen Bildsensor 1307. Die Abbildungslinse 1300 ist derart angeordnet, dass sie der Rückendfläche des Bildleiters 1203 zugewandt angeordnet ist. Die Abbildungslinse 1300 bildet das von dem Bildleiter 1203 übertragene optische Bild an dem Bildsensor 1303, dem Bildsensor 1305, dem Bildsensor 1306 und dem Bildsensor 1307.
  • Der dichroitische Spiegel 1301 ist in einem Strahlengang von der Abbildungslinse 1300 zu der Bildbildungsposition der Abbildungslinse 1300 angeordnet. Licht, das die Abbildungslinse 1300 passiert, fällt auf den dichroitischen Spiegel 1301 ein. Der dichroitische Spiegel 1301 überträgt sichtbares Licht und reflektiert anderes Licht als das sichtbare Licht. 11 zeigt die Reflexions- und Durchlässigkeitseigenschaften des dichroitischen Spiegels 1301. In einem in 11 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und stellt die vertikale Achse die Durchlässigkeit dar. Der dichroitische Spiegel 1301 überträgt Licht eines Wellenlängenbands mit Wellenlängen von weniger als circa 700 nm. Andererseits reflektiert der dichroitische Spiegel 1301 Licht eines Wellenlängenbands mit Wellenlängen von circa 700 nm oder mehr. Das Wellenlängenband des von dem dichroitischen Spiegel 1301 übertragenen Lichts umfasst das Wellenlängenband sichtbaren Lichts. Außerdem umfasst das Wellenlängenband des von dem dichroitischen Spiegel 1301 reflektierten Lichts das Wellenlängenband von Infrarotlicht.
  • An der Bildbildungsposition von durch den dichroitischen Spiegel 1301 übertragenem Licht wird ein optisches Bild einer Komponente sichtbaren Lichts gebildet. Andererseits wird an der Bildbildungsposition von von dem dichroitischen Spiegel 1301 reflektiertem Licht ein optisches Bild einer Infrarotlichtkomponente gebildet.
  • Das von dem dichroitischen Spiegel 1301 reflektierte Licht fällt auf den Erregungslichtsperrfilter 1302 ein. Das auf den Erregungslichtsperrfilter 1302 einfallende Licht umfasst Infrarotlicht. Das Infrarotlicht umfasst das Erregungslicht und die Fluoreszenz. Der Erregungslichtsperrfilter 1302 blockiert das Erregungslicht und überträgt die Fluoreszenz. 12 zeigt die Durchlässigkeitseigenschaften des Erregungslichtsperrfilters 1302. In einem in 12 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und stellt die vertikale Achse die Durchlässigkeit dar. Der Erregungslichtsperrfilter 1302 blockiert Licht eines Wellenlängenbands mit Wellenlängen von weniger als circa 800 nm. Andererseits überträgt der Erregungslichtsperrfilter 1302 Licht eines Wellenlängenbands mit Wellenlängen von circa 800 nm oder mehr. Das Wellenlängenband des von dem Erregungslichtsperrfilter 1302 blockierten Lichts umfasst das Wellenlängenband des Erregungslichts. Das Wellenlängenband des von dem Erregungslichtsperrfilter 1302 übertragenen Lichts umfasst das Wellenlängenband der Fluoreszenz.
  • Die durch den Erregungslichtsperrfilter 1302 übertragene Fluoreszenz fällt auf den Bildsensor 1303 ein. Der Bildsensor 1303 erzeugt auf Grundlage der Fluoreszenz ein IR-Signal.
  • 13 zeigt die Eigenschaften von ICG, das dem Objekt 1060 verabreicht wird. In einem in 13 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und stellt die vertikale Achse die Intensität dar. 13 zeigt die Eigenschaften von Erregungslicht, das ICG erregt, und die Eigenschaften von von dem ICG ausgestrahlter Fluoreszenz. Die Spitrenwellenlänge des Erregungslichts ist circa 770 nm und die Spitrenwellenlänge der Fluoreszenz ist circa 820 nm. Dementsprechend wird, wenn Erregungslicht mit Wellenlängen von circa 750 nm bis circa 780 nm auf das Objekt 1060 gestrahlt wird, Fluoreszenz mit Wellenlängen von circa 800 nm bis circa 900 nm von dem Objekt 1060 erzeugt. Durch Erfassen der von dem Objekt 1060 erzeugten Fluoreszenz kann die Anwesenheit/Abwesenheit von Krebs erfasst werden. Wie in 10 gezeigt, überträgt der Bandpassfilter 1101 Erregungslicht mit Wellenlängen von circa 750 nm bis circa 780 nm und blockiert Fluoreszenz mit Wellenlängen von circa 800 nm bis circa 900 nm. Außerdem blockiert, wie in 12 gezeigt, der Erregungslichtsperrfilter 1302 Erregungslicht mit Wellenlängen von circa 750 nm bis circa 780 nm.
  • Das Licht des Wellenlängenbands sichtbaren Lichts, das durch den dichroitischen Spiegel 1301 übertragen wurde, fällt auf das dichroitische Prisma 1304 ein. Das dichroitische Prisma 1304 spaltet das Licht des Wellenlängenbands des sichtbaren Lichts in Licht (rotes Licht) eines roten Wellenlängenbands, Licht (grünes Licht) eines grünen Wellenlängenbands und Licht (blaues Licht) eines blauen Wellenlängenbands. Das das dichroitische Prisma 1304 passierende rote Licht fällt auf den Bildsensor 1305 ein. Der Bildsensor 1305 erzeugt ein R-Signal auf Grundlage des roten Lichts. Das das dichroitische Prisma 1304 passierende grüne Licht fällt auf den Bildsensor 1306 ein. Der Bildsensor 1306 erzeugt ein G-Signal auf Grundlage des grünen Lichts. Das das dichroitische Prisma 1304 passierende blaue Licht fällt auf den Bildsensor 1307 ein. Der Bildsensor 1307 erzeugt ein B-Signal auf Grundlage des blauen Lichts.
  • Der Prozessor 1040 erzeugt ein Bildsignal sichtbaren Lichts auf Grundlage des R-Signals, des G-Signals und des B-Signals und erzeugt ein Fluoreszenzbildsignal auf Grundlage des IR-Signals. Der Monitor 1050 zeigt ein Bild sichtbaren Lichts auf Grundlage des Bildsignals sichtbaren Lichts und ein Fluoreszenzbild auf Grundlage des Fluoreszenzbildsignals an. Beispielsweise zeigt der Monitor 1050 das Bild sichtbaren Lichts und das Fluoreszenzbild, die zur gleichen Zeit aufgenommen werden, in Ausrichtung an. Alternativ zeigt der Monitor 1050 das Bild sichtbaren Lichts und das Bild von Fluoreszenz, die zur gleichen Zeit aufgenommen wurden, überlappend an.
  • Literaturliste
  • Patentliteratur
    • PTL1: Japanische ungeprüfte Patentanmeldung, erste Veröffentlichungsnr. H10-201707 .
  • Kurzbeschreibung der Erfindung
  • Technisches Problem
  • In der in 9 gezeigten Endoskopvorrichtung 1001 ist der Erregungslichtsperrfilter 1302 vor dem Bildsensor 1303 angeordnet, so dass der Bildsensor 1303 reflektiertes Licht mit dem Wellenlängenband des Erregungslichts, das von dem Objekt 1060 reflektiert wird, nicht erfasst, sondern nur die Fluoreszenz aus dem von dem dichroitischen Spiegel 1301 reflektierten Licht erfasst. Es ist jedoch schwierig, den Erregungslichtsperrfilter 1302 derart herzustellen, dass er Licht mit dem Wellenlängenband des Erregungslichts vollständig blockiert. Aus diesem Grund erfasst der Bildsensor 1303 Licht des Fluoreszenzbandes und das restliche Licht mit dem Wellenlängenband des Erregungslichts, das nicht von dem Erregungslichtsperrfilter 1302 blockiert werden kann.
  • 14 zeigt schematisch die Energieverteilung von auf den Bildsensor 1303 einfallendem Licht. In einem in 14 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und stellt die vertikale Achse die Einfallsenergie dar. Wie in 14 gezeigt, umfasst das Wellenlängenband von auf den Bildsensor 1303 einfallendem Licht das Wellenlängenband des Erregungslichts mit Wellenlängen von circa 700 nm bis circa 800 nm und das Fluoreszenzband mit Wellenlängen von circa 800 nm bis circa 900 nm. Mit anderen Worten fallen von dem Objekt 1060 ausgestrahlte Fluoreszenz und ein Teil des Lichts des Wellenlängenbands des Erregungslichts, das nicht von dem Erregungslichtsperrfilter 1302 blockiert werden kann, auf den Bildsensor 1303 ein.
  • Die von dem Objekt 1060 ausgestrahlte Fluoreszenz ist schwächer als das Erregungslicht. Aus diesem Grund gibt es, wenn ein Teil des Lichts des Wellenlängenbands des Erregungslichts, das nicht von dem Erregungslichtsperrfilter 1302 blockiert werden kann, auf den Bildsensor 1303 einfällt, Fälle, in denen der Signalwert eines von einem ersten Pixel des Bildsensors 1303 erzeugten IR-Signals größer ist als der Signalwert eines von einem zweiten Pixel des Bildsensors 1303 erzeugten IR-Signals. Hier ist das erste Pixel ein Pixel, auf das Licht von einem Objekt, das keine Fluoreszenz ausstrahlt und eine hohe Reflexivität des Erregungslichts hat, einfällt. Das zweite Pixel ist ein Pixel, auf das Licht von einem Objekt, das Fluoreszenz ausstrahlt und eine hohe Reflexivität des Erregungslichts hat, einfällt. Aus diesem Grund gibt es Fälle, in denen der Signalwert eines von einem Pixel des Bildsensors 1303 erzeugten IR-Signals, auf das Licht von einem Bereich des Objekts 1060, der keine Fluoreszenz ausstrahlt, einfällt, groß ist. Folglich gibt es Fälle, in denen der Bereich des Objekts 1060, der keine Fluoreszenz ausstrahlt, in einem Fluoreszenzbild hell angezeigt wird.
  • Wenn das durch den Erregungslichtsperrfilter 1302 übertragene Erregungslicht einheitlich auf die Lichtaufnahmefläche des Bildsensors 1303 einfällt, ist eine in jedem Pixel des Bildsensors 1303 erzeugte Signalkomponente auf Grundlage des Erregungslichts einheitlich. Aus diesem Grund kann der Prozessor 1040 durch Subtrahieren einer Versatzkomponente auf Grundlage des Erregungslichts von einem in jedem Pixel des Bildsensors 1303 erzeugten IR-Signal ein IR-Signal berechnen, das nur auf der Fluoreszenz basiert.
  • Es ist jedoch eine Mehrzahl von unterschiedlichen Objektbildern in dem Abbildungsbereich des Bildsensors 1303 vorhanden und die Reflexivität jedes der Objekte in dem Wellenlängenband des Erregungslichts ist unterschiedlich. Aus diesem Grund fällt das Erregungslicht, das durch den Erregungslichtsperrfilter 1302 übertragen wurde, nicht einheitlich auf die Lichtaufnahmefläche des Bildsensors 1303 ein. Mit anderen Worten sind Signalkomponenten auf Grundlage des in den Pixeln des Bildsensors 1303 erzeugten Erregungslichts nicht einheitlich. Folglich ist es schwierig für den Prozessor 1040, ein IR-Signal auf Grundlage von nur der Fluoreszenz von einem IR-Signal auf Grundlage des Erregungslichts und der Fluoreszenz zu berechnen.
  • Aus den vorstehend beschriebenen Gründen ist es in einer Endoskopvorrichtung zur Beobachtung von Fluoreszenz schwierig, ein Fluoreszenzbild zu erzeugen, in dem ein Fluoreszenzbereich, der Fluoreszenz ausstrahlt, deutlicher heller gemacht wird.
  • Eine Aufgabe der vorliegenden Erfindung ist die Bereitstellung einer Bildgebungsvorrichtung, die ein Fluoreszenzbildsignal erzeugen kann, um ein Fluoreszenzbild anzuzeigen, in dem ein Fluoreszenzbereich deutlich heller gemacht wird.
  • Lösung des Problems
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung umfasst eine Bildgebungsvorrichtung eine Bildgebungseinheit und eine Signalverarbeitungseinheit. Die Bildgebungseinheit erzeugt ein erstes Bildsignal auf Grundlage sichtbaren Lichts von einem Objekt und erzeugt ein zweites Bildsignal auf Grundlage von Erregungslicht und Fluoreszenz von dem Objekt. Die Signalverarbeitungseinheit erzeugt ein Fluoreszenzbildsignal, das der Fluoreszenz entspricht, auf Grundlage des ersten Bildsignals und des zweiten Bildsignals. Die Signalverarbeitungseinheit bestimmt einen Zielbereich des Objektes auf Grundlage des ersten Bildsignals. Die Signalverarbeitungseinheit bestimmt einen Fluoreszenzbereich auf Grundlage des zweiten Bildsignals, das dem Zielbereich entspricht, und der Fluoreszenzbereich erzeugt die Fluoreszenz in dem Objekt. Die Signalverarbeitungseinheit führt einen Hervorhebungsprozess des zweiten Bildsignals aus, das dem Fluoreszenzbereich entspricht.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Signalverarbeitungseinheit den Hervorhebungsprozess durch Ausführung von Addition oder Multiplikation eines vorbestimmten Wertes für nur einen Signalwert des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, ausführen.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Signalverarbeitungseinheit den Hervorhebungsprozess durch Ausführung von Addition oder Multiplikation eines Wertes entsprechend einem Signalwert des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, nur für den Signalwert ausführen.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Signalverarbeitungseinheit einen Bereichsbestimmungskoeffizienten jedes Pixels entsprechend einem Korrelationsgrad zwischen einem Signalwert des ersten Bildsignals jedes Pixels und einem Referenzwert berechnen. Der Referenzwert entspricht einem Wert, der als ein Signalwert des ersten Bildsignals erwartet wird, das dem Zielbereich entspricht. Die Signalverarbeitungseinheit kann den Zielbereich auf Grundlage des Bereichsbestimmungskoeffizienten bestimmen.
  • Gemäß einem fünften Aspekt der vorliegenden Erfindung kann in dem vierten Aspekt die Signalverarbeitungseinheit einen Signalwert des zweiten Bildsignals jedes Pixels, für das der Hervorhebungsprozess ausgeführt wird, mit dem Bereichsbestimmungskoeffizienten jedes Pixels multiplizieren.
  • Gemäß einem sechsten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Bildgebungseinheit einen dichroitischen Spiegel, eine Bildgebungseinheit für sichtbares Licht, einen Erregungslichtsperrfilter und eine Bildgebungseinheit für Fluoreszenz umfassen. Der dichroitische Spiegel spaltet erstes Licht von dem Objekt in zweites Licht und drittes Licht. Das erste Licht umfasst das sichtbare Licht, das Erregungslicht und die Fluoreszenz. Das zweite Licht umfasst das sichtbare Licht. Das dritte Licht umfasst das Erregungslicht und die Fluoreszenz. Die Bildgebungseinheit für sichtbares Licht, auf die das zweite Licht einfällt, erzeugt das erste Bildsignal. Der Erregungslichtsperrfilter, auf den das dritte Licht einfällt, hat eine erste Durchlässigkeit für die Fluoreszenz und eine zweite Durchlässigkeit für das Erregungslicht. Die erste Durchlässigkeit ist höher als die zweite Durchlässigkeit. Die Bildgebungseinheit für Fluoreszenz, auf die das dritte durch den Erregungslichtsperrfilter übertragene Licht einfällt, erzeugt das zweite Bildsignal. Die Bildgebungseinheit für sichtbares Licht und die Bildgebungseinheit für Fluoreszenz können mit der Signalverarbeitungseinheit verbunden sein.
  • Gemäß einem siebten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Signalverarbeitungseinheit einen Speicher und eine Zielbereichsbestimmungseinheit umfassen. Information über die Objekteigenschaften, die Eigenschaften des Objektes darstellt, ist in dem Speicher aufgezeichnet. Die Information über die Objekteigenschaften wird auf Grundlage des ersten Bildsignals des Objektes erzeugt. Die Zielbereichsbestimmungseinheit bestimmt den Zielbereich auf Grundlage der Information über die in dem Speicher aufgezeichneten Objekteigenschaften und des ersten Bildsignals.
  • Gemäß einem achten Aspekt der vorliegenden Erfindung kann in dem ersten Aspekt die Signalverarbeitungseinheit eine Sättigung und einen Farbton jedes Pixels auf Grundlage eines Signalwertes des ersten Bildsignals jedes Pixels berechnen. Die Signalverarbeitungseinheit kann den Zielbereich auf Grundlage der Sättigung und des Farbtons jedes Pixels bestimmen.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß jedem vorstehend beschriebenen Aspekt bestimmt eine Signalverarbeitungseinheit einen Zielbereich eines Objektes auf Grundlage eines erstens Bildsignals. Die Signalverarbeitungseinheit bestimmt einen Fluoreszenzbereich auf Grundlage des zweiten Bildsignals, das dem Zielbereich entspricht. Die Signalverarbeitungseinheit führt einen Hervorhebungsprozess des zweiten Bildsignals aus, das dem Fluoreszenzbereich entspricht. Somit kann eine Bildgebungsvorrichtung ein Fluoreszenzbildsignal zum Anzeigen eines Fluoreszenzbildes erzeugen, in dem ein Fluoreszenzbereich deutlicher heller gemacht wird.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das die Konfiguration einer Endoskopvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist ein Referenzdiagramm, das das Konzept des Bestimmens eines Zielbereichs gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • 3 ist ein Referenzdiagramm, das das Konzept des Bestimmens eines Fluoreszenzbereichs gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • 4 ist ein Referenzdiagramm, das das Konzept des Bestimmens eines Fluoreszenzbereichs gemäß der ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • 5 ist ein Blockdiagramm, das die Konfiguration einer Endoskopvorrichtung gemäß einem ersten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
  • 6 ist ein Graph, der die Eigenschaften eines Erregungslichtsperrfilters gemäß dem ersten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
  • 7 ist ein Referenzdiagramm, das die Pixelanordnung eines Bildsensors gemäß dem ersten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
  • 8 ist ein Blockdiagramm, das die Konfiguration einer Endoskopvorrichtung gemäß einem zweiten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung zeigt.
  • 9 ist ein Blockdiagramm, das die Konfiguration einer Endoskopvorrichtung gemäß einer herkömmlichen Technik zeigt.
  • 10 ist ein Graph, der die Eigenschaften eines Bandpassfilters zeigt.
  • 11 ist ein Graph, der die Eigenschaften eines dichroitischen Spiegels zeigt.
  • 12 ist ein Graph, der die Eigenschaften eines Erregungslichtsperrfilters zeigt.
  • 13 ist ein Graph, der die Eigenschaften von Indocyanin-Grün (ICG) zeigt.
  • 14 ist ein Graph, der eine Energieverteilung von Licht zeigt, das auf einen Bildsensor einfällt.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen der vorliegenden Erfindung werden mit Bezugnahme auf die Zeichnungen beschrieben. In jeder nachstehend beschriebenen Ausführungsform wird eine Endoskopvorrichtung beschrieben, die ein Beispiel für eine Bildgebungsvorrichtung ist. Die vorliegende Erfindung kann auf eine Vorrichtung, ein System, ein Modul und dergleichen mit einer Bildgebungsfunktion angewendet werden.
  • (Erste Ausführungsform)
  • 1 zeigt die Konfiguration einer Endoskopvorrichtung 1a gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Wie in 1 gezeigt, umfasst die Endoskopvorrichtung 1a eine Lichtquelleneinheit 10, eine Endoskopeinheit 20, einen Kamerakopf 30a (Bildgebungsvorrichtung), eine Signalverarbeitungseinheit 40 und eine Anzeigeeinheit 50. 1 zeigt schematische Konfigurationen der Lichtquelleneinheit 10, der Endoskopeinheit 20 und des Kamerakopfs 30a.
  • Die Lichtquelleneinheit 10 umfasst eine Lichtquelle 100, einen Bandpassfilter 101 und eine Kondensorlinse 102. Die Lichtquelle 100 strahlt Licht der Wellenlängen im Bereich von dem Wellenlängenband sichtbaren Lichts bis zu dem Wellenlängenband von Infrarotlicht aus. Das Wellenlängenband sichtbaren Lichts umfasst ein rotes Wellenlängenband, ein grünes Wellenlängenband und ein blaues Wellenlängenband. Das rote Wellenlängenband ist ein Band mit längeren Wellenlängen als das grüne Wellenlängenband. Das grüne Wellenlängenband ist ein Band mit längeren Wellenlängen als das blaue Wellenlängenband. Das Wellenlängenband von Infrarotlicht ist ein Band mit längeren Wellenlängen als das rote Wellenlängenband. Das Wellenlängenband von Infrarotlicht umfasst das Wellenlängenband von Erregungslicht und das Wellenlängenband von Fluoreszenz. Das Wellenlängenband von Fluoreszenz ist ein Wellenlängenband mit längeren Wellenlängen als das Wellenlängenband von Erregungslicht. Mit anderen Worten sind die Wellenlängen von Infrarotlicht länger als die Wellenlängen von rotem Licht. Die Wellenlängen von rotem Licht sind länger als die Wellenlängen von grünem Licht. Die Wellenlängen von grünem Licht sind länger als die Wellenlängen von blauem Licht. Das Wellenlängenband von von der Lichtquelle 100 ausgestrahltem Infrarotlicht kann mindestens das Wellenlängenband von Erregungslicht umfassen.
  • Der Bandpassfilter 101 ist in der Mitte eines Beleuchtungsstrahlengangs der Lichtquelle 100 angeordnet. Der Bandpassfilter 101 überträgt nur sichtbares Licht und Erregungslicht. Die Kondensorlinse 102 kondensiert durch den Bandpassfilter 101 übertragenes Licht.
  • Die Durchlässigkeitseigenschaften des Bandpassfilters 101 sind ähnlich den in 10 gezeigten Durchlässigkeitseigenschaften. Der Bandpassfilter 101 überträgt Licht eines Wellenlängenbands mit Wellenlängen von circa 370 nm bis circa 800 nm. Andererseits blockiert der Bandpassfilter 101 Licht eines Wellenlängenbands mit Wellenlängen von weniger als 370 nm und Licht eines Wellenlängenbands mit Wellenlängen von circa 800 nm oder mehr. Das Wellenlängenband von von dem Bandpassfilter 101 übertragenem Licht umfasst das Wellenlängenband sichtbaren Lichts und das Wellenlängenband von Erregungslicht. Das Wellenlängenband von Erregungslicht ist ein Band mit Wellenlängen von circa 750 nm bis circa 780 nm. Das Wellenlängenband von von dem Bandpassfilter 101 blockiertem Licht umfasst das Wellenlängenband von Fluoreszenz. Das Wellenlängenband von Fluoreszenz ist ein Band mit Wellenlängen von circa 800 nm bis circa 900 nm.
  • Die Endoskopeinheit 20 umfasst einen Lichtleiter 200, eine Beleuchtungslinse 201, eine Objektivlinse 202 und einen Bildleiter 203. Von der Lichtquelle 100 ausgestrahltes Licht fällt durch den Bandpassfilter 101 und die Kondensorlinse 102 auf den Lichtleiter 200 ein. Der Lichtleiter 200 überträgt das von der Lichtquelle 100 ausgestrahlte Licht an einen Spitzenendteil der Endoskopeinheit 20. Das von dem Lichtleiter 200 übertragene Licht wird durch die Beleuchtungslinse 201 auf ein Objekt 60 gestrahlt.
  • Die Objektivlinse 202 ist der Beleuchtungslinse 201 an dem Spitzenendteil der Endoskopeinheit 20 benachbart angeordnet. Das von dem Objekt 60 reflektierte Licht und die von dem Objekt 60 erzeugte Fluoreszenz fallen auf die Objektivlinse 202 ein. Das von dem Objekt 60 reflektierte Licht umfasst sichtbares Licht und Erregungslicht. Mit anderen Worten fällt Licht auf die Objektivlinse 202 ein, das das von dem Objekt 60 reflektierte Licht des Wellenlängenbands des sichtbaren Lichts, das reflektierte Licht des Wellenlängenbands des Erregungslichts und die von dem Objekt 60 ausgestrahlte Fluoreszenz umfasst. Die Objektivlinse 202 bildet ein Bild des vorstehend beschriebenen Lichts.
  • Eine Vorderendfläche des Bildleiters 203 ist an einer Bildbildungsposition der Objektivlinse 202 angeordnet. Der Bildleiter 203 überträgt ein an der Vorderendfläche gebildetes optisches Bild an eine Rückendfläche.
  • Der Kamerakopf 30a umfasst eine Abbildungslinse 300, einen dichroitischen Spiegel 301, einen Erregungslichtsperrfilter 302, einen Bildsensor 303 (Fluoreszenzabbildungseinheit), ein dichroitisches Prisma 304, einen Bildsensor 305 (Abbildungseinheit für sichtbares Licht), einen Bildsensor 306 (Abbildungseinheit für sichtbares Licht) und einen Bildsensor 307 (Abbildungseinheit für sichtbares Licht). Die Abbildungslinse 300 ist derart angeordnet, dass sie der Rückendfläche des Bildleiters 203 zugewandt angeordnet ist. Die Abbildungslinse 300 bildet das von dem Bildleiter 203 übertragene optische Bild an dem Bildsensor 303, dem Bildsensor 305, dem Bildsensor 306 und dem Bildsensor 307.
  • Erstes Licht von dem Objekt 60 umfasst zweites Licht und drittes Licht. Das zweite Licht umfasst sichtbares Licht. Das sichtbare Licht umfasst rotes Licht, grünes Licht und blaues Licht. Das dritte Licht umfasst Erregungslicht und Fluoreszenz. Die Wellenlängen der Fluoreszenz sind länger als die Wellenlängen des Erregungslichts.
  • Der dichroitische Spiegel 301 ist in einem Strahlengang von der Abbildungslinse 300 zu der Bildbildungsposition der Abbildungslinse 300 angeordnet. Das erste Licht, das die Abbildungslinse 300 passiert, mit anderen Worten, das erste Licht von Objekt 60, fällt auf den dichroitischen Spiegel 301 ein. Der dichroitische Spiegel 301 überträgt sichtbares Licht und reflektiert anderes Licht als das sichtbare Licht. Die Reflexions- und Durchlässigkeitseigenschaften des dichroitischen Spiegels 301 sind den Reflexions- und Durchlässigkeitseigenschaften eines in 11 gezeigten dichroitischen Spiegels 1301 ähnlich. Der dichroitische Spiegel 301 überträgt Licht eines Wellenlängenbands mit Wellenlängen von weniger als circa 700 nm. Andererseits reflektiert der dichroitische Spiegel 301 Licht eines Wellenlängenbands mit Wellenlängen von circa 700 nm oder mehr. Das Wellenlängenband des von dem dichroitischen Spiegel 301 übertragenen Lichts umfasst das Wellenlängenband sichtbaren Lichts. Außerdem umfasst das Wellenlängenband des von dem dichroitischen Spiegel 301 reflektierten Lichts das Wellenlängenband von Infrarotlicht. Mit anderen Worten überträgt der dichroitische Spiegel 301 das zweite Licht und reflektiert das dritte Licht. Somit spaltet der dichroitische Spiegel 301 das erste Licht vom Objekt 60 in das zweite Licht und das dritte Licht.
  • An der Bildbildungsposition von durch den dichroitischen Spiegel 301 übertragenem Licht wird ein optisches Bild einer Komponente sichtbaren Lichts gebildet. Andererseits wird an der Bildbildungsposition von von dem dichroitischen Spiegel 301 reflektiertem Licht ein optisches Bild einer Infrarotlichtkomponente gebildet.
  • Das von dem dichroitischen Spiegel 301 reflektierte dritte Licht fällt auf den Erregungslichtsperrfilter 302 ein. Das auf den Erregungslichtsperrfilter 302 einfallende Licht umfasst Infrarotlicht. Das Infrarotlicht umfasst das Erregungslicht und die Fluoreszenz. Der Erregungslichtsperrfilter 302 blockiert das Erregungslicht und überträgt die Fluoreszenz. Die Durchlässigkeitseigenschaften des Erregungslichtsperrfilters 302 sind den Durchlässigkeitseigenschaften eines in 12 gezeigten Erregungslichtsperrfilters 1302 ähnlich. Der Erregungslichtsperrfilter 302 blockiert Licht eines Wellenlängenbands mit Wellenlängen von weniger als circa 800 nm. Andererseits überträgt der Erregungslichtsperrfilter 302 Licht eines Wellenlängenbands mit Wellenlängen von circa 800 nm oder mehr. Das Wellenlängenband des von dem Erregungslichtsperrfilter 302 blockierten Lichts umfasst das Wellenlängenband des Erregungslichts. Das Wellenlängenband des von dem Erregungslichtsperrfilter 302 übertragenen Lichts umfasst das Wellenlängenband der Fluoreszenz. Die Blockiereigenschaften des Erregungslichtsperrfilters 302 für das Erregungslicht sind nicht perfekt. Der Erregungslichtsperrfilter 302 blockiert einen Teil des Lichts des Wellenlängenbands des Erregungslichts und überträgt das restliche Licht des Wellenlängenbands des Erregungslichts und der Fluoreszenz.
  • Der Teil des Lichts des Wellenlängenbands des Erregungslichts und der Fluoreszenz, die durch den Erregungslichtsperrfilter 302 übertragen wurden, fallen auf den Bildsensor 303 ein. Der Bildsensor 303 erzeugt ein IR-Signal (zweites Bildsignal) auf Grundlage des Erregungslichts und der Fluoreszenz, die durch den Erregungslichtsperrfilter 302 übertragen wurden.
  • Das zweite Licht, das durch den dichroitischen Spiegel 301 übertragen wurde, fällt auf das dichroitische Prisma 304 ein. Das dichroitische Prisma 304 spaltet das zweite Licht in Licht (rotes Licht) des roten Wellenlängenbands, Licht (grünes Licht) des grünen Wellenlängenbands und Licht (blaues Licht) des blauen Wellenlängenbands. Das das dichroitische Prisma 304 passierende rote Licht fällt auf den Bildsensor 305 ein. Der Bildsensor 305 erzeugt ein R-Signal (erstes Bildsignal) auf Grundlage des roten Lichts. Das das dichroitische Prisma 304 passierende grüne Licht fällt auf den Bildsensor 306 ein. Der Bildsensor 306 erzeugt ein G-Signal (erstes Bildsignal) auf Grundlage des grünen Lichts. Das das dichroitische Prisma 304 passierende blaue Licht fällt auf den Bildsensor 307 ein. Der Bildsensor 307 erzeugt ein B-Signal (erstes Bildsignal) auf Grundlage des blauen Lichts.
  • Das R-Signal umfasst Signalwerte (Pixelwerte) einer Mehrzahl von in dem Bildsensor 305 angeordneten Pixeln. Das G-Signal umfasst Signalwerte (Pixelwerte) einer Mehrzahl von in dem Bildsensor 306 angeordneten Pixeln. Das B-Signal umfasst Signalwerte (Pixelwerte) einer Mehrzahl von in dem Bildsensor 307 angeordneten Pixeln. Das IR-Signal umfasst Signalwerte (Pixelwerte) einer Mehrzahl von in dem Bildsensor 303 angeordneten Pixeln.
  • Wie vorstehend beschrieben, umfasst der Kamerakopf 30a (Abbildungseinheit) den dichroitischen Spiegel 301, den Erregungslichtsperrfilter 302, den Bildsensor 305 (Abbildungseinheit für sichtbares Licht), den Bildsensor 306 (Abbildungseinheit für sichtbares Licht), den Bildsensor 307 (Abbildungseinheit für sichtbares Licht) und den Bildsensor 303 (Abbildungseinheit für Fluoreszenz). Der dichroitische Spiegel 301 spaltet das erste Licht von dem Objekt 60 in das zweite Licht und das dritte Licht. Das erste Licht umfasst sichtbares Licht, Erregungslicht und Fluoreszenz. Das zweite Licht umfasst sichtbares Licht. Das dritte Licht umfasst Erregungslicht und Fluoreszenz. Das zweite Licht fällt auf den Bildsensor 305, den Bildsensor 306 und den Bildsensor 307 ein. Der Bildsensor 305, der Bildsensor 306 und der Bildsensor 307 erzeugen Signale (erste Bildsignale) auf Grundlage sichtbaren Lichts. Die Durchlässigkeit des Erregungslichtsperrfilters 302 für Fluoreszenz ist höher als die Durchlässigkeit des Erregungslichtsperrfilters 302 für Erregungslicht. Das dritte Licht fällt auf den Erregungslichtsperrfilter 302 ein. Das dritte Licht, das durch den Erregungslichtsperrfilter 302 übertragen wurde, fällt auf den Bildsensor 303 ein. Der Bildsensor 303 erzeugt ein IR-Signal (zweites Bildsignal) auf Grundlage des Erregungslichts und der Fluoreszenz. Der Bildsensor 305, der Bildsensor 306, der Bildsensor 307 und der Bildsensor 303 sind mit der Signalverarbeitungseinheit 40 verbunden.
  • Die Signalverarbeitungseinheit 40 erzeugt ein Bildsignal sichtbaren Lichts auf Grundlage des R-Signals, G-Signals und B-Signals. Das Bildsignal sichtbaren Lichts ist ein Signal, das zum Anzeigen eines Bildes sichtbaren Lichts verwendet wird. Außerdem erzeugt die Signalverarbeitungseinheit 40 ein Bildsignal für Fluoreszenz auf Grundlage von mindestens einem des R-Signals, G-Signals und B-Signals und IR-Signals. Das Bildsignal für Fluoreszenz ist ein Signal, das zum Anzeigen eines Fluoreszenzbildes verwendet wird.
  • Die Anzeigeeinheit 50 umfasst einen Monitor 500. Der Monitor 500 zeigt ein Bild sichtbaren Lichts auf Grundlage des Bildsignals für sichtbares Licht und ein Fluoreszenzbild auf Grundlage des Bildsignals für Fluoreszenz an. Beispielsweise zeigt der Monitor 500 das Bild sichtbaren Lichts und das Bild von Fluoreszenz, die gleichzeitig aufgenommen werden, in Ausrichtung an. Alternativ zeigt der Monitor 500 das Bild sichtbaren Lichts und das Bild von Fluoreszenz, die gleichzeitig aufgenommen wurden, auf eine überlappende Weise an.
  • Wie vorstehend beschrieben, umfasst die Endoskopvorrichtung 1a (Bildgebungsvorrichtung) den Kamerakopf 30a (Bildgebungseinheit) und die Signalverarbeitungseinheit 40. Der Kamerakopf 30a erzeugt erste Bildsignale (ein R-Signal, ein G-Signal und ein B-Signal) auf Grundlage des sichtbaren Lichts von dem Objekt 60. Der Kamerakopf 30a erzeugt ein zweites Bildsignal (IR-Signal) auf Grundlage des Erregungslichts und der Fluoreszenz von dem Objekt 60. Die Signalverarbeitungseinheit 40 erzeugt ein Bildsignal für Fluoreszenz, das der Fluoreszenz entspricht, auf Grundlage des ersten Bildsignals und des zweiten Bildsignals. Die Signalverarbeitungseinheit 40 bestimmt einen Zielbereich des Objekts 60 auf Grundlage des ersten Bildsignals. Die Signalverarbeitungseinheit 40 bestimmt einen Fluoreszenzbereich auf Grundlage des zweiten Bildsignals, das dem Zielbereich entspricht. Der Fluoreszenzbereich erzeugt Fluoreszenz in dem Objekt 60. Die Signalverarbeitungseinheit 40 führt einen Hervorhebungsprozess des zweiten Bildsignals aus, das dem Fluoreszenzbereich entspricht. Aus diesem Grund kann die Endoskopvorrichtung 1a ein Bildsignal für Fluoreszenz zum Anzeigen eines Fluoreszenzbildes erzeugen, in dem der Fluoreszenzbereich deutlicher heller gemacht wird.
  • Es wird eine ausführliche Konfiguration der Signalverarbeitungseinheit 40 beschrieben. Die Signalverarbeitungseinheit 40 umfasst einen Speicher 400, eine RGB-Signalverarbeitungseinheit 401, eine Zielbereichsbestimmungseinheit 402, eine Fluoreszenzbereichsbestimmungseinheit 403 und eine IR-Signalverarbeitungseinheit 404. Der Speicher 400 ist ein flüchtiges oder nicht flüchtiges Aufzeichnungsmedium. Die RGB-Signalverarbeitungseinheit 401, die Zielbereichsbestimmungseinheit 402, die Fluoreszenzbereichsbestimmungseinheit 403 und die IR-Signalverarbeitungseinheit 404 sind beispielsweise als Prozessoren montiert. Alternativ sind die RGB-Signalverarbeitungseinheit 401, die Zielbereichsbestimmungseinheit 402, die Fluoreszenzbereichsbestimmungseinheit 403 und die IR-Signalverarbeitungseinheit 404 als Hardware, wie beispielsweise eine anwendungsspezifische integrierte Schaltung (ASIC) oder dergleichen, montiert.
  • Information über die Objekteigenschaften, die die Eigenschaften des Objekts 60 darstellt, ist in dem Speicher 400 aufgezeichnet. Mit anderen Worten speichert der Speicher 400 die Information über die Objekteigenschaften. Die Information über die Objekteigenschaften wird auf Grundlage der ersten Signale (des R-Signals, des G-Signals und des B-Signals) des Objekts 60 erzeugt. Beispielsweise ist die Information über die Objekteigenschaften RGB-Information, die die spektralen Reflexionseigenschaften des Objekts 60 für sichtbares Licht darstellt.
  • Die RGB-Signalverarbeitungseinheit 401 erzeugt RGB-Information jedes Pixels auf Grundlage der ersten Bildsignale (des R-Signals, des G-Signals und des B-Signals). Die von der RGB-Signalverarbeitungseinheit 401 erzeugte RGB-Information wird an die Zielbereichsbestimmungseinheit 402 ausgegeben.
  • Die Zielbereichsbestimmungseinheit 402 bestimmt einen Zielbereich des Objekts 60 auf Grundlage der ersten Bildsignale (des R-Signals, des G-Signals und des B-Signals). Mit anderen Worten bestimmt die Zielbereichsbestimmungseinheit 402 einen Zielbereich des Objekts 60 auf Grundlage der in dem Speicher 400 aufgezeichneten Information über die Objekteigenschaften (RGB-Information) und der von der RGB-Signalverarbeitungseinheit 401 erzeugten RGB-Information. Zielbereichsinformation, die den Zielbereich darstellt, wird an die Fluoreszenzbereichsbestimmungseinheit 403 ausgegeben. Die Zielbereichsinformation umfasst Positionsinformation von Pixeln, die dem Zielbereich entsprechen.
  • Die Fluoreszenzbereichsbestimmungseinheit 403 bestimmt einen Fluoreszenzbereich auf Grundlage des zweiten Signals (IR-Signal), das dem Zielbereich entspricht. Mit anderen Worten bestimmt die Fluoreszenzbereichsbestimmungseinheit 403 einen Fluoreszenzbereich auf Grundlage der zweiten Bildsignale von Pixeln, die von der Zielbereichsinformation dargestellt werden. Fluoreszenzbereichsinformation, die den Fluoreszenzbereich darstellt, wird an die IR-Signalverarbeitungseinheit 404 ausgegeben. Die Fluoreszenzbereichsinformation umfasst die Positionsinformation von Pixeln, die dem Fluoreszenzbereich entsprechen.
  • Die IR-Signalverarbeitungseinheit 404 führt einen Hervorhebungsprozess des zweiten Bildsignals (IR-Signals) aus, das dem Fluoreszenzbereich entspricht. Mit anderen Worten führt die IR-Signalverarbeitungseinheit 404 einen Hervorhebungsprozess der zweiten Bildsignale von Pixeln aus, die durch die Fluoreszenzbereichsinformation dargestellt werden. Die IR-Signalverarbeitungseinheit 404 führt einen Hervorhebungsprozess der zweiten Bildsignale aus, so dass Signalwerte der Pixel, die dem Fluoreszenzbereich entsprechen, größer sind als die Signalwerte von Pixeln, die einem anderen Bereich als dem Fluoreszenzbereich in dem zweiten Bildsignal entsprechen.
  • Die Details der RGB-Information, die in dem Speicher 400 aufgezeichnete Information über die Objekteigenschaften ist, werden beschrieben. Beispielsweise ist das Objekt 60, das ein Beobachtungsziel der Endoskopvorrichtung 1a ist, ein Organ eines menschlichen Körpers. Beispielsweise ist das Objekt 60 der Dickdarm, der Dünndarm, der Magen oder die Leber. Nachdem ICG in eine Ader eines Testsubjektes injiziert wird, fließt das verabreichte ICG durch Blutgefäße und Lymphgefäße. Dementsprechend sind Zielbereiche bei Fluoreszenzbeobachtung unter Verwendung von ICG Blutgefäße und Lymphgefäße. Die spektralen Reflexionseigenschaften eines Zielbereichs, wie beispielsweise eines Blutgefäßes oder eines Lymphgefäßes, sichtbaren Lichts, unterscheiden sich von den spektralen Reflexionseigenschaften anderer Bereiche (beispielsweise Fett oder dergleichen) des Beobachtungsziels sichtbaren Lichts. Aus diesem Grund kann der Zielbereich des Objekts 60 durch Analyse des R-Signals, des G-Signals und des B-Signals erfasst werden.
  • Die RGB-Information ist beispielsweise ein Verhältnis zwischen Signalwerten des R-Signals, des G-Signals und des B-Signals. Mit anderen Worten umfasst die RGB-Information ein Verhältnis zwischen den Signalwerten des R-Signals und des G-Signals und ein Verhältnis zwischen den Signalwerten des R-Signals und des B-Signals. Beispielsweise liegt das Verhältnis zwischen den Signalwerten des R-Signals und des G-Signals in einem Zielbereich in dem Bereich von X1 bis X2. Hier ist X2 größer als X1. Beispielsweise liegt das Verhältnis zwischen den Signalwerten des R-Signals und des B-Signals in einem Zielbereich im Bereich von Y1 bis Y2. Hier ist Y2 größer als Y1. Der Bereich von X1 bis X2 und der Bereich von Y1 bis Y2 sind in dem Speicher 400 als die RGB-Information aufgezeichnet.
  • Die RGB-Information können die Sättigung und der Farbton sein. Die Sättigung ist ein Index, der die Stärke einer Farbe darstellt. Die Sättigung von achromatischen Farben (schwarz, weiß und grau) ist „0”. Wenn die Farbe stark wird, nimmt die Sättigung zu. Mit anderen Worten ist die Sättigung einer stärkeren Farbe größer. Der Farbton ist ein Index, der die Phase einer Farbe, wie beispielsweise rot, gelb, grün, blau oder violett, darstellt. Der numerische Wert des Farbtons ist für jede Phase der Farbe unterschiedlich. RGB-Signale können in Pixelwerte (Farbton, Sättigung und Luminanz) eines HIS-Farbraumes umgewandelt werden, der durch die drei Elemente Farbton (H), Sättigung (S) und Luminanz (I) definiert ist. Der Bereich von jedem der Sättigung und des Farbtons ist in dem Speicher 400 aufgezeichnet.
  • Es wird ein ausführlicher Betrieb der Signalverarbeitungseinheit 40 beschrieben. Ein von dem Bildsensor 305 ausgegebenes R-Signal, ein von dem Bildsensor 306 ausgegebenes G-Signal, ein von dem Bildsensor 307 ausgegebenes B-Signal und ein von dem Bildsensor 303 ausgegebenes IR-Signal werden in die Signalverarbeitungseinheit 40 eingegeben. Das R-Signal, das G-Signal und das B-Signal werden in die RGB-Signalverarbeitungseinheit 401 eingegeben. Das IR-Signal wird in die Fluoreszenzbereichsbestimmungseinheit 403 eingegeben. Die Pixel des Bildsensors 305, des Bildsensors 306, des Bildsensors 307 und des Bildsensors 303 entsprechen einander. Beispielsweise ist die Anzahl von Pixeln des Bildsensors 305, des Bildsensors 306, des Bildsensors 307 und des Bildsensors 303 die gleiche.
  • Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) erzeugt RGB-Information jedes Pixels auf Grundlage des R-Signals, G-Signals und B-Signals. Wenn die RGB-Information erzeugt wird, führt die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) erzeugt RGB-Information eines Pixels auf Grundlage eines R-Signals, eines G-Signals und eines B-Signals der Pixel, die einander entsprechen. Wenn die RGB-Information Verhältnisse zwischen den Signalwerten eines R-Signals, eines G-Signals und eines B-Signals ist, berechnet die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) ein Verhältnis zwischen den Signalwerten des R-Signals und des G-Signals und ein Verhältnis zwischen den Signalwerten des R-Signals und des B-Signals. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) gibt die RGB-Information, die die berechneten Verhältnisse umfasst, an die Zielbereichsbestimmungseinheit 402 aus.
  • Wenn die RGB-Information die Sättigung und der Farbton ist, berechnet die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) die Sättigung und den Farbton jedes Pixels auf Grundlage der Signalwerte jedes Pixels der ersten Bildsignale (des R-Signals, des G-Signals und des B-Signals). Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) gibt die RGB-Information, die die Sättigung und den Farbton, die berechnet wurden, umfasst, an die Zielbereichsbestimmungseinheit 402 aus.
  • Außerdem erzeugt die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) ein Bildsignal sichtbaren Lichts auf Grundlage des R-Signals, des G-Signals und des B-Signals. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) kann Bildverarbeitung, wie beispielsweise einen Interpolationsprozess, für mindestens eines des R-Signals, des G-Signals und des B-Signals ausführen. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) gibt das Bildsignal sichtbaren Lichts an den Monitor 500 aus.
  • Die von der Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) erzeugte RGB-Information kann in dem Speicher 400 aufgezeichnet werden. Beispielsweise wird ein Objekt 60, das einen bekannten Zielbereich umfasst, abgebildet und werden ein R-Signal, ein G-Signal und ein B-Signal erzeugt. Außerdem wird ein Bild für sichtbares Licht auf Grundlage des Bildsignals für sichtbares Licht des Objekts 60, das einen bekannten Zielbereich umfasst, auf dem Monitor 500 angezeigt. Ein Zielbereich wird von einer Beobachtungsperson auf Grundlage dieses Bildes sichtbaren Lichts bestimmt. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) erzeugt RGB-Information auf Grundlage eines R-Signals, eines G-Signals und eines B-Signals, die dem von der Beobachtungsperson bestimmten Zielbereich entsprechen.
  • Beispielsweise berechnet die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) ein Verhältnis zwischen den Signalwerten des R-Signals und des G-Signals jedes Pixels des Zielbereichs und ein Verhältnis zwischen den Signalwerten des R-Signals und des B-Signals jedes Pixels. Ein Mindestwert X1 und ein Maximalwert X2 des Verhältnisses zwischen den Signalwerten des R-Signals und des G-Signals jedes Pixels des Zielbereichs werden als RGB-Information in dem Speicher 400 aufgezeichnet. Außerdem werden ein Mindestwert Y1 und ein Maximalwert Y2 des Verhältnisses zwischen den Signalwerten des B-Signals und des G-Signals jedes Pixels des Zielbereichs als RGB-Information in dem Speicher 400 aufgezeichnet.
  • Alternativ berechnet die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) die Sättigung und den Farbton jedes Pixels des Zielbereichs. Der Bereich von jedem der Sättigung und des Farbtons des Zielbereichs wird in dem Speicher 400 als RGB-Information aufgezeichnet.
  • Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) bestimmt einen Zielbereich des Objekts 60 auf Grundlage der in dem Speicher 400 aufgezeichneten Information über die Objekteigenschaften (RGB-Information) und der ersten Bildsignale (des R-Signals, des G-Signals und des B-Signals). Wenn ein Zielbereich bestimmt wird, führt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) liest die RGB-Information aus dem Speicher 400. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) vergleicht die in dem Speicher 400 aufgezeichnete RGB-Information mit der von der RGB-Signalverarbeitungseinheit 401 erzeugten RGB-Information. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) bestimmt einen Zielbereich des Objekts 60 auf Grundlage eines Vergleichsergebnisses.
  • 2 zeigt das Konzept der Bestimmung eines Zielbereichs. Ein Abbildungsbereich S1 ist ein Abbildungsbereich eines des Bildsensors 305, des Bildsensors 306 und des Bildsensors 307. In dem Abbildungsbereich S1 wird ein Bild eines Objekts 60 auf Grundlage eines des roten Lichts, des grünen Lichts und des blauen Lichts gebildet. Das Objekt 60 umfasst einen Zielbereich 61. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) vergleicht die in dem Speicher 400 aufgezeichnete RGB-Information mit der von der RGB-Signalverarbeitungseinheit 401 erzeugten RGB-Information für jedes Pixel. Dementsprechend bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob jedes Pixel in dem Zielbereich 61 enthalten ist.
  • Wenn die RGB-Information ein Verhältnis zwischen den Signalwerten des R-Signals, des G-Signals und des B-Signals ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob das von der RGB-Signalverarbeitungseinheit 401 berechnete Verhältnis in dem Bereich von in dem Speicher 400 aufgezeichneten Verhältnissen ist. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) bestimmt beispielsweise, ob ein von der RGB-Signalverarbeitungseinheit 401 berechnetes Verhältnis Prg zwischen den Signalwerten des R-Signals und des G-Signals in dem Bereich eines Verhältnisses zwischen den in dem Speicher 400 aufgezeichneten Signalwerten des R-Signals und des G-Signals enthalten ist. Der Bereich des Verhältnisses zwischen den Signalwerten des R-Signals und des G-Signals ist X1 bis X2.
  • Auf ähnliche Weise bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob das von der RGB-Signalverarbeitungseinheit 401 berechnete Verhältnis Prb zwischen den Signalwerten des R-Signals und des B-Signals in dem Bereich eines in dem Speicher 400 aufgezeichneten Verhältnisses zwischen den Signalwerten des R-Signals und des B-Signals enthalten ist. Der Bereich des Verhältnisses zwischen den Signalwerten des R-Signals und des B-Signals ist Y1 bis Y2. Wenn das Verhältnis Prg X1 oder mehr oder weniger als X2 ist und das Verhältnis Prb Y1 oder mehr oder weniger als Y2 ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass ein Pixel, das das Bestimmungsziel ist, in dem Zielbereich enthalten ist. Andererseits bestimmt, wenn das Prg-Verhältnis weniger als X1 oder mehr als X2 ist, die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass das Pixel, das das Bestimmungsziel ist, nicht in dem Zielbereich enthalten ist. Wenn das Verhältnis Prb weniger als X1 oder mehr als X2 ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) auch, dass das Pixel, das das Bestimmungsziel ist, nicht in dem Zielbereich enthalten ist.
  • Wenn die RGB-Information die Sättigung und der Farbton ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) einen Zielbereich auf Grundlage der Sättigung und des Farbtons jedes Pixels der ersten Bildsignale (des R-Signals, des G-Signals und des B-Signals). Mit anderen Worten bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob die von der RGB-Signalverarbeitungseinheit 401 berechnete Sättigung Ps in dem Bereich der in dem Speicher 400 aufgezeichneten Sättigung Psm enthalten ist. Auf ähnliche Weise bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob der von der RGB-Signalverarbeitungseinheit 401 berechnete Farbton Ph in dem Bereich des in dem Speicher 400 aufgezeichneten Farbtons Phm enthalten ist.
  • Wenn die Sättigung Ps in dem Bereich der Sättigung Psm enthalten ist und der Farbton Ph in dem Bereich des Farbtons Phm enthalten ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass das Pixel, das das Bestimmungsziel ist, in dem Zielbereich enthalten ist. Andererseits bestimmt, wenn die Sättigung Ps nicht in dem Bereich der Sättigung Psm enthalten ist, die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass das Pixel, das das Bestimmungsziel ist, nicht in dem Zielbereich enthalten ist. Wenn der Farbton Ph nicht im Bereich des Farbtons Phm enthalten ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) auch, dass das Pixel, das das Bestimmungsziel ist, nicht in dem Zielbereich enthalten ist.
  • Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) erzeugt Zielbereichsinformation auf Grundlage eines Ergebnisses der Bestimmung des Zielbereichs. Die Zielbereichsinformation umfasst die Positionsinformation des Pixels, das als in dem Zielbereich enthalten bestimmt wurde. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) gibt Zielbereichsinformation an die Fluoreszenzbereichsbestimmungseinheit 403 aus.
  • Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) bestimmt einen Fluoreszenzbereich auf Grundlage des Signalwerts jedes Pixels des zweiten Bildsignals (IR-Signals), das dem Zielbereich entspricht. Wenn ein Fluoreszenzbereich bestimmt wird, führt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) vergleicht den Signalwert des IR-Signals jedes Pixels, das von der Zielbereichsinformation dargestellt wird, mit einem Referenzwert α. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) bestimmt einen Fluoreszenzbereich des Zielbereichs des Objekts 60 auf Grundlage eines Vergleichsergebnisses.
  • 3 und 4 zeigen das Konzept der Bestimmung eines Fluoreszenzbereichs. Ein Abbildungsbereich S2 ist ein Abbildungsbereich des Bildsensors 303. Ein Bild des Objekts 60 wird auf Grundlage des Erregungslichts und der Fluoreszenz in dem Abbildungsbereich S2 gebildet. Das Objekt 60 umfasst einen Zielbereich 61.
  • ICG fließt durch Blutgefäße und Lymphgefäße. Doch fließt ICG nicht notwendigerweise durch sämtliche Blutgefäße und Lymphgefäße in dem Objekt 60. Aus diesem Grund bestimmt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) einen Bereich des Zielbereichs 61, in dem ICG Licht ausstrahlt, und einen Bereich des Zielbereichs 61, in dem ICG kein Licht ausstrahlt.
  • In einem Bereich einer Läsion kumuliert das verabreichte ICG und wird Fluoreszenz erzeugt. Aus diesem Grund ist in einem Bereich einer Läsion der Signalwert des IR-Signals größer als der eines Bereichs ohne Läsion. Mit anderen Worten umfasst ein IR-Signal, das einem Bereich einer Läsion des Zielbereichs entspricht, Signalkomponenten auf Grundlage der Fluoreszenz und eines Teils des Erregungslichts. Aus diesem Grund ist der Signalwert eines IR-Signals, das einem Bereich einer Läsion entspricht, groß. Andererseits umfasst ein IR-Signal, das einem Bereich des Zielbereichs ohne Läsion entspricht, eine Signalkomponente auf Grundlage nur eines Teils des Erregungslichts. Aus diesem Grund ist der Signalwert eines IR-Signals, das einem Bereich ohne Läsion entspricht, klein.
  • Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) vergleicht den Signalwert des IR-Signals mit den Referenzwert α für jedes Pixel des Zielbereichs. Entsprechend bestimmt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403), ob das Pixel des Zielbereichs in dem Fluoreszenzbereich enthalten ist. Der Referenzwert α ist ein Signalwert auf Grundlage von Erregungslicht, das durch den Erregungslichtsperrfilter 302 übertragen wurde, mit anderen Worten, ein Signalwert auf Grundlage einer Streukomponente des Erregungslichts.
  • Wenn der Signalwert des IR-Signals des Pixels des Zielbereichs der Referenzwert α oder mehr ist, bestimmt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403), dass das Pixel, das das Bestimmungsziel ist, in dem Fluoreszenzbereich enthalten ist. Andererseits bestimmt, wenn der Signalwert des IR-Signals des Pixels des Zielbereichs niedriger ist als der Referenzwert α, die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403), dass das Pixel, das das Bestimmungsziel ist, nicht in dem Fluoreszenzbereich enthalten ist.
  • Der Bezugswert α wird beispielsweise wie nachstehend beschrieben bestimmt. Ein Objekt 60, das einen bekannten Zielbereich umfasst, und ein R-Signal, ein G-Signal und ein B-Signal werden erzeugt. Außerdem wird ein Bild sichtbaren Lichts auf Grundlage eines Bildsignals sichtbaren Lichts des Objekts 60, das den bekannten Zielbereich umfasst, auf dem Monitor 500 angezeigt. Ein Zielbereich wird von einer Beobachtungsperson auf Grundlage des Bildes sichtbaren Lichts bestimmt. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) berechnet die Reflexivität des Erregungslichts auf Grundlage des R-Signals, des G-Signals und des B-Signals, die dem Zielbereich entsprechen, der von der Beobachtungsperson bestimmt wird. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) berechnet die Reflexivität des Zielbereichs für das Erregungslicht für jeden Typ des Objekts 60. Die Typen des Objekts 60 sind beispielsweise der Dickdarm, der Dünndarm, der Magen und die Leber. Die Reflexivität jedes Typs des Objekts 60 für das Erregungslicht ist in dem Speicher 400 aufgezeichnet.
  • Wenn ein Objekt 60, das das Beobachtungsziel ist, beobachtet wird, liest die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) die Reflexivität des Erregungslichts, die dem Typ des Objekts 60 entspricht, aus dem Speicher 400. Die Signalverarbeitungseinheit 40 (RGB-Signalverarbeitungseinheit 401) berechnet eine Intensität von reflektiertem Licht des Erregungslichts in dem Zielbereich auf Grundlage der Intensität der Lichtquelleneinheit 100 und der Reflexivität des Erregungslichts. Die berechnete Intensität von reflektiertem Licht ist der Referenzwert α.
  • Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) kann einen Fluoreszenzbereich durch Vergleichen der IR-Signale von Pixeln des Zielbereichs bestimmen. Wenn beispielsweise ein Wert, der durch Subtraktion des Signalwerts des IR-Signals des zweiten Pixels des Zielbereichs von dem Signalwert des IR-Signals des ersten Pixels des Zielbereichs erlangt wird, ein Referenzwert β oder mehr ist, bestimmt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403), dass das erste Pixel in dem Fluoreszenzbereich enthalten ist. Andererseits bestimmt die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403), wenn der Wert, der durch Subtraktion des Signalwerts des IR-Signals eines zweiten Pixels des Zielbereichs von dem Signalwert des IR-Signals des ersten Pixels des Zielbereichs erlangt wird, niedriger als ein Referenzwert β ist, dass das erste Pixel nicht in dem Fluoreszenzbereich enthalten ist. Das zweite Pixel ist beispielsweise ein Pixel, dessen Signalwert des IR-Signals in dem Zielbereich am kleinsten ist.
  • Der Referenzwert β ist beispielsweise der Signalwert eines geringsten Pegels des IR-Signals, das gemäß der Lichtausstrahlung von ICG erfasst wird, das dem Inneren des Körpers verabreicht wird. Der Referenzwert β wird auf der Grundlage des Typs des Objekts 60, der Erregungslichtintensität der Lichtquelle 100 und der Dichte des dem Inneren des Körpers verabreichten ICG bestimmt. Der Referenzwert β wird auf der Grundlage der Information zur Zeit der Abbildung eines Objekts 60 bestimmt, das einen bekannten Zielbereich umfasst, und der bestimmte Referenzwert β wird in dem Speicher 400 aufgezeichnet.
  • Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) erzeugt Fluoreszenzbereichsinformation auf Grundlage eines Ergebnisses der Bestimmung des Fluoreszenzbereichs. Die Fluoreszenzbereichsinformation umfasst die Positionsinformation von Pixeln, die als in dem Fluoreszenzbereich enthalten bestimmt wurden. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) gibt die Fluoreszenzbereichsinformation an die IR-Signalverarbeitungseinheit 404 aus.
  • Wie vorstehend beschrieben, ist ein Signalwert des IR-Signals, das von einem Pixel erzeugt wird, auf das Licht von einem Objekt einfällt, das keine Fluoreszenz ausstrahlt und eine hohe Reflexivität des Erregungslichts hat, groß. Wenn ein Fluoreszenzbereich auf Grundlage des IR-Signals bestimmt wird, das dem gesamten abgebildeten Bereich des Objektes entspricht, besteht eine Möglichkeit, dass ein Pixel, dessen Signalwert des IR-Signals groß ist, irrtümlicherweise als ein Fluoreszenzbereich in einem anderen Bereich als dem Zielbereich bestimmt wird. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) bestimmt jedoch einen Fluoreszenzbereich auf Grundlage der IR-Signale von nur dem Zielbereich. Dementsprechend kann die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) einen Fluoreszenzbereich mit hoher Genauigkeit bestimmen.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) führt einen Hervorhebungsprozess des Signalwerts des zweiten Bildsignals (IR-Signals) jedes Pixels aus, das dem Fluoreszenzbereich entspricht. Somit erzeugt die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) ein Fluoreszenzbildsignal. Wenn der Hervorhebungsprozess ausgeführt wird, führt die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) führt den Hervorhebungsprozess durch Addieren eines vorbestimmten Werts nur zu dem Signalwert des IR-Signals aus, das dem Fluoreszenzbereich entspricht. Mit anderen Worten addiert die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) einen vorbestimmten Wert γ nur zu dem Signalwert des IR-Signals jedes Pixels, das dem Fluoreszenzbereich entspricht. Der vorbestimmte Wert γ wird größer als null eingestellt und derart eingestellt, dass ein Maximalwert des IR-Signals nach der Addition ein Wert ist, der niedriger ist als ein gesättigter Signalwert. Der vorbestimmte Wert γ kann größer sein als der Signalwert eines IR-Signals mit dem niedrigsten Pegel, das erfasst wird, wenn das dem Inneren des Körpers verabreichte ICG Licht ausstrahlt.
  • Durch Addieren des vorbestimmten Werts γ nur zu dem Signalwert des IR-Signals, das dem Fluoreszenzbereich entspricht, nimmt eine Differenz zwischen dem Signalwert des IR-Signals nach der Addition und dem Signalwert des IR-Signals, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, zu. Aus diesem Grund werden IR-Signale, die dem Fluoreszenzbereich entsprechen, stärker hervorgehoben.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Hervorhebungsprozess durch Addieren eines Werts gemäß einem Signalwert nur zu dem Signalwert des IR-Signals, das dem Fluoreszenzbereich entspricht, ausführen. Mit anderen Worten kann die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den Hervorhebungsprozess durch Addieren eines anderen Werts gemäß einem Signalwert nur zu dem Signalwert des IR-Signals jedes Pixels, das dem Fluoreszenzbereich entspricht, durchführen. Der addierte Wert ist größer als „0” und ist kleiner als der Maximalwert (oder der gesättigte Signalwert) des IR-Signals. Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) addiert einen höheren Wert zu einem höheren Signalwert des IR-Signals.
  • Durch Addieren eines Werts, der einem Signalwert entspricht, nur zu dem Signalwert eines IR-Signals, das dem Fluoreszenzbereich entspricht, nimmt eine Differenz zwischen einem Signalwert des IR-Signals nach der Addition und einem IR-Signal, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, zu. Aus diesem Grund wird ein IR-Signal, das dem Fluoreszenzbereich entspricht, stärker hervorgehoben. Durch Addieren eines hören Werts zu einem hören Signalwert eines IR-Signals nimmt eine Differenz zwischen Intensitäten von IR-Signalen in dem Fluoreszenzbereich zu.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Hervorhebungsprozess durch Multiplizieren nur des Signalwerts eines IR-Signals, das dem Fluoreszenzbereich entspricht, mit einem vorbestimmten Wert ausführen. Mit anderen Worten addiert die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) einen vorbestimmten Wert γa nur zu dem Signalwert des IR-Signals jedes Pixels, das dem Fluoreszenzbereich entspricht. Der vorbestimmte Wert γa wird höher als „1” eingestellt und so eingestellt, dass ein Maximalwert des IR-Signals nach der Multiplikation ein kleinerer Wert ist als der gesättigte Signalwert.
  • Durch Multiplizieren nur des Signalwerts eines IR-Signals, das dem Fluoreszenzbereich entspricht, um den vorbestimmten Wert γa, nimmt eine Differenz zwischen dem Signalwert des IR-Signals nach der Addition und dem Signalwert eines IR-Signals, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, zu. Aus diesem Grund werden die IR-Signale, die dem Fluoreszenzbereich entsprechen, stärker hervorgehoben.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Hervorhebungsprozess durch Multiplizieren nur des Signalwerts eines IR-Signals, das dem Fluoreszenzbereich entspricht, mit einem Wert, der dem Signalwert entspricht, ausführen. Mit anderen Worten kann die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den Hervorhebungsprozess durch Multiplizieren nur des Signalwerts des IR-Signals jedes Pixels, das dem Fluoreszenzbereich entspricht, mit einem Wert, der sich gemäß dem Signalwert unterscheidet, ausführen. Der Multiplikator wird höher als „1” eingestellt und so eingestellt, dass ein Maximalwert des IR-Signals nach der Multiplikation ein kleinerer Wert ist als der gesättigte Signalwert. Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) multipliziert einen höheren Signalwert eines IR-Signals mit einem höheren Wert.
  • Durch Multiplizieren nur des Signalwerts eines IR-Signals, das dem Fluoreszenzbereich entspricht, mit einem Wert entsprechend dem Signalwert, nimmt eine Differenz zwischen dem Signalwert des IR-Signals nach der Multiplikation und dem Signalwert eines IR-Signals, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, zu. Aus diesem Grund werden IR-Signale, die dem Fluoreszenzbereich entsprechen, stärker hervorgehoben. Durch Multiplizieren eines höheren Signalwerts eines IR-Signals mit einem höheren Wert nimmt eine Differenz zwischen den Intensitäten von IR-Signalen in dem Fluoreszenzbereich weiter zu.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann einen Hervorhebungsprozess des zweiten Bildsignals (IR-Signals), das dem Fluoreszenzbereich entspricht, ausführen und einen Prozess zur Reduzierung des zweiten Bildsignals (IR-Signals), das einem anderen Bereich als dem Fluoreszenzbereich entspricht, ausführen. Wenn der Reduzierungsprozess ausgeführt wird, führt die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) führt den Reduzierungsprozess durch Subtrahieren eines vorbestimmten Werts von nur den Signalwerten von IR-Signalen aus, die einem anderen Bereich als dem Fluoreszenzbereich entsprechen. Mit anderen Worten subtrahiert die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) einen vorbestimmten Wert γb nur von dem Signalwert eines IR-Signals jedes Pixels, das einem anderen Bereich als dem Fluoreszenzbereich entspricht. Der vorbestimmte Wert γb ist größer als „0” und ist kleiner als der Maximalwert des IR-Signals auf Grundlage der in 14 gezeigten Erregungslichtkomponente.
  • Durch Subtrahieren des vorbestimmten Werts γb von nur den Signalwerten von IR-Signalen, die dem Fluoreszenzbereich entsprechen, nimmt eine Differenz zwischen dem Signalwert eines IR-Signals nach der Subtraktion und dem Signalwert eines IR-Signals, das einem Fluoreszenzbereich entspricht, zu. Somit wird das IR-Signal, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, weiter reduziert.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Reduzierungsprozess durch Multiplizieren nur der Signalwerte von IR-Signalen, die einem anderen Bereich als dem Fluoreszenzbereich entsprechen, mit einem Wert von weniger als „1” ausführen. Mit anderen Worten kann die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den Reduzierungsprozess durch Multiplizieren nur des Signalwerts des IR-Signals jedes Pixels, das dem Fluoreszenzbereich entspricht, mit einem Wert von weniger als „1” ausführen. Der Wert des Multiplikators kann entweder eine Konstante oder ein Wert sein, der sich gemäß dem Signalwert des IR-Signals unterscheidet.
  • Durch Multiplizieren nur der Signalwerte von IR-Signalen, die einem anderen Bereich als dem Fluoreszenzbereich entsprechen, mit einem Wert von weniger als „1” nimmt eine Differenz zwischen dem Signalwert des IR-Signals nach der Multiplikation und dem Signalwert eines IR-Signals, das dem Fluoreszenzbereich entspricht, zu. Somit nimmt ein IR-Signal, das einem anderen Bereich als dem Fluoreszenzbereich entspricht, weiter ab.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) gibt ein Fluoreszenzbildsignal an den Monitor 500 aus. Das Fluoreszenzbildsignal umfasst IR-Signale, die einem anderen Bereich als dem Fluoreszenzbereich entsprechen, und IR-Signale, die dem Fluoreszenzbereich entsprechen, für den der Hervorhebungsprozess ausgeführt wurde.
  • Die Bildgebungsvorrichtung gemäß jedem Aspekt der vorliegenden Erfindung umfasst gegebenenfalls eine Konfiguration, die mindestens eines der Lichtquelleneinheit 10, der Endoskopeinheit 20, der Abbildungslinse 300, des dichroitischen Spiegels 301, des Erregungslichtsperrfilters 302, des dichroitischen Prismas 304 und der Anzeigeeinheit 50 entspricht.
  • In der ersten Ausführungsform bestimmt die Signalverarbeitungseinheit 40 einen Zielbereich des Objekts 60 auf Grundlage eines R-Signals, G-Signals und B-Signals. Die Signalverarbeitungseinheit 40 bestimmt einen Fluoreszenzbereich auf Grundlage von IR-Signalen, die dem Zielbereich entsprechen. Die Signalverarbeitungseinheit 40 führt einen Hervorhebungsprozess von IR-Signalen durch, die dem Fluoreszenzbereich entsprechen. Somit kann die Endoskopvorrichtung 1a ein Fluoreszenzbildsignal erzeugen, das zur Anzeige eines Fluoreszenzbildes verwendet wird, in dem der Fluoreszenzbereich deutlich heller gemacht wird.
  • Die Signalverarbeitungseinheit 40 führt Addition oder Multiplikation nur für die Signalwerte der IR-Signale, die dem Fluoreszenzbereich entsprechen, aus. Dementsprechend sticht in einem Fluoreszenzbild der Fluoreszenzbereich mehr hervor als andere Bereiche.
  • Die Endoskopvorrichtung 1a erlangt separat ein R-Signal, ein G-Signal, ein B-Signal und ein IR-Signal. Somit kann die Endoskopvorrichtung 1a ein Bild sichtbaren Lichts und ein Fluoreszenzbild mit einer hohen Auflösung aufnehmen. Außerdem kann die Endoskopvorrichtung 1a gleichzeitig eine Bildgebung sichtbaren Lichts und eine Bildgebung von Infrarotlicht ausführen.
  • Die Signalverarbeitungseinheit 40 bestimmt einen Zielbereich auf Grundlage der Sättigung und des Farbtons des R-Signals, G-Signals und B-Signals jedes Pixels. Somit kann ein Zielbereich auf Grundlage der Sättigung und des Farbtons bestimmt werden.
  • (Zweite Ausführungsform)
  • Eine zweite Ausführungsform der vorliegenden Erfindung wird unter Verwendung der in 1 gezeigten Endoskopvorrichtung 1a beschrieben. Nachstehend werden Punkte beschrieben, die sich von denen der ersten Ausführungsform unterscheiden.
  • Eine Signalverarbeitungseinheit 40 (Zielbereichsbestimmungseinheit 402) berechnet einen Bereichsbestimmungskoeffizienten jedes Pixels entsprechend einem Korrelationsgrad zwischen Signalwerten der ersten Bildsignale (eines R-Signals, eines G-Signals und eines B-Signals) jedes Pixels und einem Referenzwert. Der Referenzwert entspricht einem Wert, der als der Signalwert eines ersten Bildsignals erwartet wird, das dem Zielbereich entspricht. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) bestimmt einen Zielbereich auf Grundlage des Bereichsbestimmungskoeffizienten für jedes Pixel.
  • Der Bereichsbestimmungskoeffizient stellt die Gewissheit jedes Pixels in einem Zielbereich dar. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) bestimmt eine Möglichkeit, dass jedes Pixel zu einem Zielbereich gehört, auf Grundlage des Bereichsbestimmungskoeffizienten. Dementsprechend kann die Signalverarbeitungseinheit 40 (Zielbereichsbestimmungseinheit 402) einen Zielbereich gemäß dem Grad an Gewissheit, dass dieser der Zielbereich ist, bestimmen.
  • Die Signalverarbeitungseinheit 40 (Zielbereichsbestimmungseinheit 402) multipliziert den Signalwert des zweiten Bildsignals (IR-Signals) jedes Pixels, für das der Hervorhebungsprozess ausgeführt wurde, mit dem Bereichsbestimmungskoeffizienten jedes Pixels.
  • Der Bereichsbestimmungskoeffizient jedes Pixels eines Falles, in dem jedes Pixel des ersten Bildsignals in dem Zielbereich enthalten ist, ist größer als der Bereichsbestimmungskoeffizient jedes Pixels eines Falles, in dem jedes Pixel des ersten Bildsignals nicht in dem Zielbereich enthalten ist. Somit nimmt durch Multiplizieren des Signalwerts des zweiten Bildsignals mit dem Bereichsbestimmungskoeffizienten das Verhältnis der Signalwerte von in dem Zielbereich und dem Fluoreszenzbereich enthaltenen Pixeln zu den Signalwerten von nicht in dem Zielbereich enthaltenen Pixeln zu. Folglich sticht in einem Fluoreszenzbildsignal ein Fluoreszenzbereich mehr hervor als andere Bereiche.
  • Es werden Einzelheiten des von der Signalverarbeitungseinheit 40 (der Zielbereichsbestimmungseinheit 402) ausgeführten Prozesses beschrieben. Wenn ein Bereichsbestimmungskoeffizient berechnet wird, führt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) liest einen Referenzwert aus einem Speicher 400. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) vergleicht den in dem Speicher 400 aufgezeichneten Referenzwert mit von einer RGB-Signalverarbeitungseinheit 401 erzeugten RGB-Information. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) berechnet einen Korrelationsgrad auf Grundlage eines Vergleichsergebnisses. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) berechnet einen Bereichsbestimmungskoeffizienten auf Grundlage des berechneten Korrelationsgrads.
  • Wenn die RGB-Information Verhältnisse zwischen einem R-Signal, einem G-Signal und einem B-Signal darstellt, umfasst die von der RGB-Signalverarbeitungseinheit 401 erzeugte RGB-Information ein Verhältnis X3 zwischen den Signalwerten des R-Signals und des G-Signals und ein Verhältnis Y3 zwischen den Signalwerten des R-Signals und des B-Signals jedes Pixels. Der in dem Speicher 400 aufgezeichnete Referenzwert ist ein Verhältnis X5 zwischen den Signalwerten des R-Signals und des G-Signals in dem Zielbereich und ein Verhältnis Y5 der Signalwerte des R-Signals und des B-Signals in dem Zielbereich. Wie vorstehend beschrieben, liegt das Verhältnis zwischen den Signalwerten des R-Signals und des G-Signals in dem Zielbereich im Bereich von X1 bis X2. Hier ist X5 ein repräsentativer Wert des Bereichs von X1 bis X2. Wie vorstehend beschrieben, liegt das Verhältnis zwischen den Signalwerten des B-Signals und des G-Signals in dem Zielbereich im Bereich von Y1 bis Y2. Hier ist Y5 ein repräsentativer Wert des Bereichs von Y1 bis Y2.
  • Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) vergleicht die Kombination des Verhältnisses X3 und des Verhältnisses Y3 jedes Pixels mit der Kombination der Verhältnisse X5 und Y5, die die Referenzwerte sind, und berechnet einen Korrelationsgrad. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) berechnet beispielsweise einen Euklidischen Abstand zwischen (X3, Y3) und (X5, Y5). Der berechnete Euklidische Abstand stellt einen Korrelationsgrad zwischen den Signalwerten des R-Signals, des G-Signals und des B-Signals jedes Pixels und den Referenzwerten dar. Wenn der Euklidische Abstand kurz ist, ist der Korrelationsgrad hoch. Andererseits ist, wenn der Euklidische Abstand lang ist, der Korrelationsgrad niedrig.
  • Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) berechnet einen Bereichsbestimmungskoeffizienten jedes Pixels auf Grundlage des Korrelationsgrads jedes Pixels. Beispielsweise ist der Bereichsbestimmungskoeffizient jedes Pixels ein Wert im Bereich von „0” bis „1”. Wenn der Korrelationsgrad hoch ist, mit anderen Worten, wenn eine hohe Wahrscheinlichkeit besteht, dass jedes Pixel in dem Zielbereich enthalten ist, ist der Bereichsbestimmungskoeffizient nahe „1”. Andererseits ist, wenn der Korrelationsgrad niedrig ist, mit anderen Worten, wenn eine hohe Wahrscheinlichkeit besteht, dass jedes Pixel nicht in dem Zielbereich enthalten ist, der Bereichsbestimmungskoeffizient nahe „0”. Mit anderen Worten hat der Bereichsbestimmungskoeffizient einen Gewichtungsfaktor, der dem Korrelationsgrad entspricht.
  • Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) vergleicht den Bereichsbestimmungskoeffizienten jedes Pixels mit einem Referenzwert δ. Hier ist der Referenzwert δ ein Wert von über „0” und unter „1”. Somit bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), ob jedes Pixel in dem Zielbereich enthalten ist.
  • Wenn der Bereichsbestimmungskoeffizient jedes Pixels der Referenzwert δ oder höher ist, bestimmt die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass das Pixel, das das Bestimmungsziel ist, in dem Zielbereich enthalten ist. Andererseits bestimmt, wenn der Bereichsbestimmungskoeffizient jedes Pixels niedriger als der Referenzwert δ ist, die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402), dass das Pixel, das das Bestimmungsziel ist, nicht in dem Zielbereich enthalten ist.
  • Das Verhältnis X5 und das Verhältnis Y5, die die Referenzwerte sind, werden wie nachstehend beschrieben bestimmt. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) kann eine repräsentative spektrale Verteilung von sichtbarem Licht, das von dem Zielbereich reflektiert wird und auf den Bildsensor einfällt, auf der Grundlage von bekannter Information erlangen. Die bekannte Information umfasst die spektrale Verteilung von von einer Lichtquelle 100 ausgestrahltem Licht, die spektrale Durchlässigkeit, die von dem optischen System der Endoskopvorrichtung 1a abhängt, und die Eigenschaften der spektralen Reflexion des Zielbereichs. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) berechnet die repräsentativen Verhältnisse X5 und Y5 in dem Zielbereich auf Grundlage einer repräsentativen spektralen Verteilung von sichtbarem Licht. Die Verhältnisse X5 und Y5, die berechnet wurden, werden in dem Speicher 400 aufgezeichnet. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) kann die repräsentativen Verhältnisse X5 und Y5 in dem Zielbereich auf Grundlage des R-Signals, des G-Signals und des B-Signals berechnen, die erzeugt werden, wenn das Objekt 60 abgebildet wird, das den bekannten Zielbereich umfasst.
  • Der Referenzwert δ wird beispielsweise wie nachstehend beschrieben bestimmt. Das Verhältnis X5 und das Verhältnis Y5 sind repräsentative Werte in dem Zielbereich. Aufgrund von in dem Bildsensor erzeugtem Rauschen, Unregelmäßigkeiten von von der Lichtquelle 100 ausgestrahltem Licht und dergleichen sind jedoch das Verhältnis X3 und das Verhältnis X5 zwischen den Signalwerten des R-Signals und des G-Signals in dem Zielbereich nicht notwendigerweise gleich. Auf ähnliche Weise sind das Verhältnis Y3 und das Verhältnis Y5 zwischen den Signalwerten des R-Signals und des B-Signals in dem Zielbereich nicht notwendigerweise gleich. Mit anderen Worten variieren das Verhältnis X3 und das Verhältnis Y3, die in dem Zielbereich erfasst werden. Selbst wenn das Verhältnis X3 und das Verhältnis Y3 in dem Zielbereich variieren, wird ein Referenzwert δ zum Bestimmen, dass die meisten Pixel, die dem Zielbereich entsprechen, in dem Zielbereich liegen, bestimmt.
  • Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) berechnet beispielsweise das Verhältnis X3 und das Verhältnis Y3 jedes Pixels des Zielbereichs auf der Grundlage eines R-Signals, eines G-Signals und eines B-Signals, die erzeugt werden, wenn ein Objekt 60 abgebildet wird, das einen bekannten Zielbereich umfasst. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) berechnet einen Korrelationsgrad zwischen dem Verhältnis X3 und dem Verhältnis Y3 jedes Pixels des Zielbereichs und dem Verhältnis X5 und dem Verhältnis Y5, die Referenzwerte sind. Die Signalverarbeitungseinheit 40 (die RGB-Signalverarbeitungseinheit 401) bestimmt einen Referenzwert δ auf Grundlage der Verteilung des Korrelationsgrads jedes Pixels.
  • Wenn die RGB-Information die Sättigung und der Farbton ist, vergleicht die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) die Kombination der Sättigung und des Farbtons jedes Pixels und die Kombination der Sättigung und des Farbtons, die Referenzwerte sind, und berechnet einen Korrelationsgrad davon. Die Berechnung eines Bereichsbestimmungskoeffizienten auf Grundlage des Korrelationsgrads und die Bestimmung eines Zielbereichs auf Grundlage des Bereichsbestimmungskoeffizienten sind ähnlich wie die vorstehend beschriebenen Prozesse.
  • Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) bestimmt einen Fluoreszenzbereich unter Verwendung eines Verfahrens ähnlich dem gemäß der ersten Ausführungsform. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) erzeugt Fluoreszenzbereichsinformation auf Grundlage eines Ergebnisses der Bestimmung des Fluoreszenzbereichs. Die Fluoreszenzbereichsinformation umfasst Positionsinformation von Pixeln, die als in dem Fluoreszenzbereich enthalten bestimmt wurden. Die Signalverarbeitungseinheit 40 (die Fluoreszenzbereichsbestimmungseinheit 403) gibt die Fluoreszenzbereichsinformation und den Bereichsbestimmungskoeffizienten jedes Pixels an die IR-Signalverarbeitungseinheit 404 aus.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) führt den Hervorhebungsprozess gemäß der ersten Ausführungsform für ein zweites Bildsignal (IR-Signal) aus. Mit anderen Worten führt die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den Hervorhebungsprozess durch Ausführen von Addition oder Multiplikation eines vorbestimmten Werts nur für die Signalwerte von IR-Signalen, die dem Fluoreszenzbereich entsprechen, aus. Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Hervorhebungsprozess durch Ausführen von Addition oder Multiplikation eines Werts, der Signalwerten von IR-Signalen entspricht, die dem Fluoreszenzbereich entsprechen, nur für die Signalwerte ausführen.
  • Außerdem führt die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) den folgenden Prozess aus. Die Signalverarbeitungseinheit 40 (die Zielbereichsbestimmungseinheit 402) multipliziert den Signalwert des IR-Signals jedes Pixels, für das der Hervorhebungsprozess ausgeführt wurde, mit dem Bereichsbestimmungskoeffizienten jedes Pixels. Die Multiplikation des Signalwerts des IR-Signals und des Bereichsbestimmungskoeffizienten, der dem gleichen Pixel entspricht, wird ausgeführt.
  • Wie vorstehend beschrieben, ist der Bereichsbestimmungskoeffizient jedes Pixels ein Wert im Bereich von „0” bis „1”. Wenn eine hohe Wahrscheinlichkeit besteht, dass jedes Pixel in dem Zielbereich enthalten ist, ist der Bereichsbestimmungskoeffizienten nahe „1”. Andererseits ist, wenn eine niedrige Wahrscheinlichkeit besteht, dass jedes Pixel in dem Zielbereich enthalten ist, der Bereichsbestimmungskoeffizient nahe „0”. Beispielsweise ist ein Verhältnis Pr1 zwischen dem Signalwert Sir1 eines IR-Signals eines Pixels P1, das dem Zielbereich entspricht, und dem Fluoreszenzbereich und dem Signalwert Sir2 eines IR-Signals eines Pixel P2, das dem Zielbereich entspricht, in Gleichung (1) dargestellt. Pr1 = Sir1/Sir2 (1)
  • Der Bereichsbestimmungskoeffizient des Pixels P1 ist a1 und der Bereichsbestimmungskoeffizient des Pixels P2 ist a2. Nachdem die Signalwerte von IR-Signalen mit den Bereichsbestimmungskoeffizienten multipliziert werden, ist ein Verhältnis Pr2 zwischen dem Signalwert Sir1' eines IR-Signals des Pixels P1, das dem Zielbereich entspricht, und dem Fluoreszenzbereich und dem Signalwert Sir2' eines IR-Signals des Pixels P2, das dem Zielbereich entspricht, in Gleichung (2) dargestellt Pr2 = Sir1'/Sir2' = (a1 × Sir1)/(a2 × Sir2) (2)
  • Der Bereichsbestimmungskoeffizient a1 ist größer als der Bereichsbestimmungskoeffizient a2. Somit ist das Verhältnis Pr2 größer als das Verhältnis Pr1. Mit anderen Worten sticht durch Multiplikation des Signalwerts des IR-Signals mit dem Bereichsbestimmungskoeffizienten in einem Fluoreszenzbild der Fluoreszenzbereich mehr hervor als die anderen Bereiche.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) gibt ein Fluoreszenzbildsignal an den Monitor 500 aus. Das Fluoreszenzbildsignal umfasst IR-Signale, die einem anderen Bereich als dem Fluoreszenzbereich entsprechen, und IR-Signale, die dem Fluoreszenzbereich entsprechen, für den der Hervorhebungsprozess und die Multiplikation des Bereichsbestimmungskoeffizienten ausgeführt wurden.
  • Die Signalverarbeitungseinheit 40 (die IR-Signalverarbeitungseinheit 404) kann den Hervorhebungsprozess und den Reduzierungsprozess gemäß der ersten Ausführungsform ausführen. In der zweiten Ausführungsform ist die Multiplikation des Signalwerts des IR-Signals jedes Pixels mit dem Bereichsbestimmungskoeffizienten jedes Pixels nicht wesentlich.
  • Bezüglich anderer Punkte als den vorstehend beschriebenen ist der Betrieb der Endoskopvorrichtung 1a gemäß der zweiten Ausführungsform ähnlich dem Betrieb der Endoskopvorrichtung 1a gemäß der ersten Ausführungsform.
  • In der zweiten Ausführungsform kann die Endoskopvorrichtung 1a ein Fluoreszenzbildsignal zum Anzeigen eines Fluoreszenzbildes erzeugen, in dem ein Fluoreszenzbereich deutlicher heller gemacht wird.
  • Die Signalverarbeitungseinheit 40 berechnet einen Bereichsbestimmungskoeffizienten jedes Pixels gemäß dem Korrelationsgrad zwischen den Signalwerten des R-Signals, des G-Signals und des B-Signals jedes Pixels und den Referenzwerten. Die Signalverarbeitungseinheit 40 bestimmt einen Zielbereich auf der Grundlage des Bereichsbestimmungskoeffizienten. Somit bestimmt die Signalverarbeitungseinheit 40 einen Zielbereich gemäß der Gewissheit, dass dieser ein Zielbereich ist.
  • Die Signalverarbeitungseinheit 40 multipliziert den Signalwert des IR-Signals jedes Pixels, für das der Hervorhebungsprozess ausgeführt wurde, mit dem Bereichsbestimmungskoeffizienten des Pixels. Somit kann die Endoskopvorrichtung 1a ein Fluoreszenzsignal zum Anzeigen eines Fluoreszenzbildes erzeugen, in dem der Fluoreszenzbereich deutlich heller gemacht ist.
  • (Erstes modifiziertes Beispiel)
  • 5 zeigt die Konfiguration einer Endoskopvorrichtung 1b gemäß einem ersten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung. Wie in 5 gezeigt, umfasst die Endoskopvorrichtung 1b eine Lichtquelleneinheit 10, eine Endoskopeinheit 20, einen Kamerakopf 30b (Bildgebungsvorrichtung), eine Signalverarbeitungseinheit 40 und eine Anzeigeeinheit 50. 5 zeigt schematische Konfigurationen der Lichtquelleneinheit 10, der Endoskopeinheit 20 und des Kamerakopfs 30b.
  • In der in 5 gezeigten Konfiguration sind andere Punkte als die in der in 1 gezeigten Konfiguration geschrieben. Der Kamerakopf 30b umfasst eine Abbildungslinse 300, einen Erregungslichtsperrfilter 308 und einen Bildsensor 309 (eine Bildgebungseinheit für sichtbares Licht und eine Bildgebungseinheit für Fluoreszenz). Die Abbildungslinse 300 ist die gleiche wie die in 1 gezeigte Abbildungslinse 300.
  • Erstes Licht, das durch die Abbildungslinse 300 übertragen wurde, mit anderen Worten das erste Licht von einem Objekt 60, fällt auf den Erregungslichtsperrfilter 308 ein. Das auf den Erregungslichtsperrfilter 308 einfallende Licht umfasst sichtbares Licht und Infrarotlicht. Das sichtbare Licht umfasst rotes, grünes und blaues Licht. Das Infrarotlicht umfasst Erregungslicht und Fluoreszenz. Der Erregungslichtsperrfilter 308 blockiert das Erregungslicht und überträgt die Fluoreszenz und das sichtbare Licht.
  • 6 zeigt die Durchlässigkeitseigenschaften des Erregungslichtsperrfilters 308 gemäß dem ersten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung. In einem in 6 gezeigten Graphen stellt die horizontale Achse die Wellenlänge dar und die vertikale Achse die Durchlässigkeit dar. Der Erregungslichtsperrfilter 308 blockiert Licht eines Wellenlängenbands mit Wellenlängen von circa 700 nm bis circa 800 nm. Andererseits überträgt der Erregungslichtsperrfilter 308 Licht eines Wellenlängenbands mit Wellenlängen von weniger als 700 nm und Licht eines Wellenlängenbands mit Wellenlängen von circa 800 nm oder mehr. Das Wellenlängenband des von dem Erregungslichtsperrfilter 308 blockierten Lichts umfasst das Wellenlängenband des Erregungslichtes. Das Wellenlängenband des von dem Erregungslichtsperrfilter 308 übertragenen Lichts umfasst das Wellenlängenband sichtbaren Lichts und das Wellenlängenband von Fluoreszenz. Die Blockiereigenschaften des Erregungslichtsperrfilters 308 für das Erregungslicht sind nicht perfekt. Der Erregungslichtsperrfilter 308 blockiert einen Teil des Lichts mit der Wellenlänge des Erregungslichts und überträgt das restliche Licht des Wellenlängenbands des Erregungslichts, der Fluoreszenz und des sichtbaren Lichts.
  • Das Erregungslicht und die Fluoreszenz, die durch den Erregungslichtsperrfilter 308 übertragen wurden, fallen auf den Bildsensor 309 ein. Der Bildsensor 309 erzeugt ein R-Signal (erstes Bildsignal) auf der Grundlage von rotem Licht, ein G-Signal (erstes Bildsignal) auf der Grundlage von grünem Licht und ein B-Signal (erstes Bildsignal) auf der Grundlage von blauem Licht. Außerdem erzeugt der Bildsensor 309 ein IR-Signal (zweites Bildsignal) auf Grundlage des Erregungslichts und der Fluoreszenz.
  • Bezüglich anderer Punkte als den vorstehend beschriebenen ist die in 5 gezeigte Konfiguration ähnlich der in 1 gezeigten Konfiguration.
  • 7 zeigt die Pixelanordnung des Bildsensors 309. Der Bildsensor 309 umfasst eine Mehrzahl von Pixeln 309R, eine Mehrzahl von Pixeln 309G, eine Mehrzahl von Pixeln 309B und eine Mehrzahl von Pixeln 309IR. Die Mehrzahl von Pixeln 309R, die Mehrzahl von Pixeln 309G, die Mehrzahl von Pixeln 309B und die Mehrzahl von Pixeln 309IR sind in einem Matrixmuster angeordnet. In 7 sind Zeichen von einem Pixel 309R, einem Pixel 309G, einem Pixel 309B und einem Pixel 309IR repräsentativ gezeigt. Das eine Pixel 309R, das eine Pixel 309G, das eine Pixel 309B und das eine Pixel 309IR konfigurieren eine Einheitsanordnung. In der in 7 gezeigten Pixelanordnung ist eine Mehrzahl von Einheitsanordnungen periodisch in einer zweidimensionalen Form angeordnet.
  • Filter, die rotes Licht übertragen, sind auf den Oberflächen der Mehrzahl von Pixeln 309R angeordnet. Filter, die grünes Licht übertragen, sind auf den Oberflächen der Mehrzahl von Pixeln 309G angeordnet. Filter, die blaues Licht übertragen, sind auf den Oberflächen der Mehrzahl von Pixeln 309B angeordnet. Filter, die Fluoreszenz übertragen, sind auf den Oberflächen der Mehrzahl von Pixeln 300IR angeordnet. Die Mehrzahl von Pixeln 309R erzeugt R-Signale auf Grundlage des roten Lichts. Die Mehrzahl von Pixeln 309a erzeugt G-Signale auf Grundlage des grünen Lichts. Die Mehrzahl von Pixeln 309IR erzeugt IR-Signale auf Grundlage der Fluoreszenz. Somit konfigurieren die Mehrzahl von Pixeln 309R, die Mehrzahl von Pixeln 309G und die Mehrzahl von Pixeln 309B eine Bildgebungseinheit sichtbaren Lichts. Die Mehrzahl von Pixeln 309IR konfiguriert eine Bildgebungseinheit für Fluoreszenz.
  • (Zweites modifiziertes Beispiel)
  • 8 zeigt die Konfiguration einer Endoskopvorrichtung 1c gemäß einem zweiten modifizierten Beispiel der ersten und der zweiten Ausführungsform der vorliegenden Erfindung. Wie in 8 gezeigt, umfasst die Endoskopvorrichtung 1c eine Lichtquelleneinheit 10c, eine Endoskopeinheit 20, einen Kamerakopf 30c (Bildgebungsvorrichtung), eine Signalverarbeitungseinheit 40 und eine Anzeigeeinheit 50. 8 zeigt schematische Konfigurationen der Lichtquelleneinheit 10c, der Endoskopeinheit 20 und des Kamerakopfs 30c.
  • In der in 8 gezeigten Konfiguration sind andere Punkte als die in der in 5 gezeigten Konfiguration geschrieben. Die Lichtquelleneinheit 10c umfasst eine Lichtquelle 100, einen Bandpassfilter 101, eine Kondensorlinse 102, einen Bandbegrenzungsfilter 103 und einen RGB-Drehfilter 104. Die Lichtquelle 100 ist die gleiche wie die in 1 gezeigten Lichtquelle 100. Der Bandpassfilter 101 ist der gleiche wie der in 1 gezeigte Bandpassfilter 101. Die Kondensorlinse 102 ist die gleiche wie die in 1 gezeigte Kondensorlinse 102.
  • Sichtbares Licht und Erregungslicht, die durch den Bandpassfilter 101 übertragen werden, fallen auf den Bandbegrenzungsfilter 103 ein. Der Bandbegrenzungsfilter 103 umfasst einen ersten Filter und einen zweiten Filter. Der erste Filter überträgt nur das sichtbare Licht. Der zweite Filter überträgt nur das Erregungslicht. Der Bandbegrenzungsfilter 103 ist ein Filter vom Drehtyp. Einer des ersten Filters und des zweiten Filters ist in einem Strahlengang angeordnet. Bei der Abbildung von sichtbarem Licht ist der erste Filter in dem Strahlengang angeordnet. Der Bandbegrenzungsfilter 103 überträgt das sichtbare Licht. Bei der Abbildung von Fluoreszenz ist der zweite Filter in dem Strahlengang angeordnet. Der Bandbegrenzungsfilter 103 überträgt das Erregungslicht.
  • Das Licht, das den Bandbegrenzungsfilter 103 passiert hat, fällt auf den RGB-Drehfilter 104 ein. Der RGB-Drehfilter 104 umfasst einen dritten Filter, einen vierten Filter und einen fünften Filter. Der dritte Filter blockiert das grüne Licht und das blaue Licht und überträgt das rote Licht und das Erregungslicht. Der vierte Filter blockiert das rote Licht und das blaue Licht und überträgt das grüne Licht und das Erregungslicht. Der fünfte Filter blockiert das rote Licht und das grüne Licht und überträgt das blaue Licht und das Erregungslicht. Der RGB-Drehfilter 104 ist ein Filter vom Drehtyp. Der dritte Filter, der vierte Filter und der fünfte Filter sind sequenziell in dem Strahlengang angeordnet. Bei der Abbildung von sichtbarem Licht überträgt der RGB-Drehfilter 104 sequenziell das rote Licht, das grüne Licht und das blaue Licht. Andererseits überträgt bei der Abbildung von Fluoreszenz der RGB-Drehfilter 104 das Erregungslicht.
  • Der Kamerakopf 30c umfasst eine Abbildungslinse 300, einen Erregungslichtsperrfilter 308 und einen Bildsensor 310 (eine Bildgebungseinheit für sichtbares Licht und eine Bildgebungseinheit für Fluoreszenz). Die Abbildungslinse 300 ist die gleiche wie die 1 gezeigte Abbildungslinse 300. Der Erregungslichtsperrfilter 308 ist der gleiche wie der in 8 gezeigte Erregungslichtsperrfilter 308.
  • Der Bildsensor 310 besitzt Sensitivität für das sichtbare Licht und die Fluoreszenz. Bei Abbildung des sichtbaren Lichts werden das rote Licht, das grüne Licht und das blaue Licht sequenziell durch den Erregungslichtsperrfilter 308 übertragen. Der Bildsensor 310 erzeugt ein R-Signal auf Grundlage des roten Lichts, ein G-Signal auf Grundlage des grünen Lichts und ein B-Signal auf Grundlage des blauen Lichts. Bei der Abbildung von Fluoreszenz werden das Erregungslicht und die Fluoreszenz durch den Erregungslichtsperrfilter 308 übertragen. Der Bildsensor 310 erzeugt ein IR-Signal auf Grundlage des Erregungslichts und der Fluoreszenz.
  • Wie vorstehend beschrieben, kann der Bildsensor 310 das R-Signal, das G-Signal, das B-Signal und das IR-Signal zu unterschiedlichen Zeiten erzeugen.
  • Bezüglich anderer Punkte als den vorstehend beschriebenen ist die in 8 gezeigte Konfiguration ähnlich der in 5 gezeigten Konfiguration.
  • Wie vorstehend beschrieben, ist, während die bevorzugten Ausführungsformen der vorliegenden Erfindung beschrieben wurden, die vorliegende Erfindung nicht auf diese Ausführungsformen und deren modifizierte Beispiele beschränkt. Hinzufügungen, Auslassungen, Ersetzungen und sonstige Änderungen in der Konfiguration können in einem Bereich vorgenommen werden, der nicht von dem Konzept der vorliegenden Erfindung abweicht. Außerdem ist die vorliegende Erfindung nicht auf die vorstehend beschriebene Beschreibung beschränkt, sondern nur durch den Offenbarungsbereich der beiliegenden Ansprüche beschränkt.
  • Industrielle Anwendbarkeit
  • Gemäß jeder Ausführungsform der vorliegenden Erfindung kann die Bildgebungsvorrichtung ein Fluoreszenzbildsignal zur Anzeige eines Fluoreszenzbildes erzeugen, in dem ein Fluoreszenzbereich deutlich heller gemacht wird.
  • Bezugszeichenliste
  • 1a, 1b, 1c und 1001
    Endoskopvorrichtung
    10, 10c und 1010
    Lichtquelleneinheit
    20 und 1020
    Endoskopeinheit
    30a, 30b, 30c und 1030
    Kamerakopf
    40
    Signalverarbeitungseinheit
    50
    Anzeigeeinheit
    100 und 1100
    Lichtquelle
    101 und 1101
    Bandpassfilter
    102 und 1102
    Kondensorlinse
    103
    Bandbegrenzungsfilter
    104
    RGB-Drehfilter
    200 und 1200
    Lichtleiter
    201 und 1201
    Beleuchtungslinse
    202 und 1202
    Objektivlinse
    203 und 1203
    Abbildungsleiter
    300 und 1300
    Abbildungslinse
    301 und 1301
    dichroitischer Spiegel
    302, 308 und 1302
    Erregungslichtsperrfilter
    304 und 1304
    dichroitisches Prisma
    303, 305, 306, 307, 309, 310, 1303, 1305, 1306 und 1307
    Bildsensor
    400
    Speicher
    401
    RGB-Signalverarbeitungseinheit
    402
    Zielbereichsbestimmungseinheit
    403
    Fluoreszenzbereichsbestimmungseinheit
    404
    IR-Signalverarbeitungseinheit
    500 und 1050
    Monitor
    1040
    Prozessor

Claims (8)

  1. Bildgebungsvorrichtung, die umfasst: eine Bildgebungseinheit, die dazu konfiguriert ist, ein erstes Bildsignal auf Grundlage von sichtbarem Licht von einem Objekt zu erzeugen und ein zweites Bildsignal auf Grundlage von Erregungslicht und Fluoreszenz von dem Objekt zu erzeugen; und eine Signalverarbeitungseinheit, die dazu konfiguriert ist, ein Fluoreszenzbildsignal, das der Fluoreszenz entspricht, auf Grundlage des ersten Bildsignals und des zweiten Bildsignals zu erzeugen, wobei die Signalverarbeitungseinheit einen Zielbereich des Objektes auf Grundlage des ersten Bildsignals bestimmt, die Signalverarbeitungseinheit einen Fluoreszenzbereich auf Grundlage des zweiten Bildsignals bestimmt, das dem Zielbereich entspricht, wobei der Fluoreszenzbereich die Fluoreszenz in dem Objekt erzeugt, und die Signalverarbeitungseinheit einen Hervorhebungsprozess des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, ausführt.
  2. Bildgebungsvorrichtung nach Anspruch 1, wobei die Signalverarbeitungseinheit den Hervorhebungsprozess durch Ausführung von Addition oder Multiplikation eines vorbestimmten Wertes nur für einen Signalwert des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, ausführt.
  3. Bildgebungsvorrichtung nach Anspruch 1, wobei die Signalverarbeitungseinheit den Hervorhebungsprozess durch Ausführung von Addition oder Multiplikation eines Wertes entsprechend einem Signalwert des zweiten Bildsignals, das dem Fluoreszenzbereich entspricht, nur für den Signalwert ausführt.
  4. Bildgebungsvorrichtung nach Anspruch 1, wobei die Signalverarbeitungseinheit einen Bereichsbestimmungskoeffizienten jedes Pixels entsprechend einem Korrelationsgrad zwischen einem Signalwert des ersten Bildsignals jedes Pixels und einem Referenzwert berechnet, wobei der Referenzwert einem Wert entspricht, der als ein Signalwert des ersten Bildsignals erwartet wird, das dem Zielbereich entspricht, und die Signalverarbeitungseinheit den Zielbereich auf Grundlage des Bereichsbestimmungskoeffizienten bestimmt.
  5. Bildgebungsvorrichtung nach Anspruch 4, wobei die Signalverarbeitungseinheit einen Signalwert des zweiten Bildsignals jedes Pixels, für das der Hervorhebungsprozess ausgeführt wird, mit dem Bereichsbestimmungskoeffizienten jedes Pixels multipliziert.
  6. Bildgebungsvorrichtung nach Anspruch 1, wobei die Bildgebungseinheit umfasst: einen dichroitischen Spiegel, der dazu konfiguriert ist, erstes Licht von dem Objekt in zweites Licht und drittes Licht zu spalten, wobei das erste Licht das sichtbare Licht, das Erregungslicht und die Fluoreszenz umfasst, das zweite Licht das sichtbare Licht umfasst, und das dritte Licht das Erregungslicht und die Fluoreszenz umfasst; eine Bildgebungseinheit für sichtbares Licht, auf die das zweite Licht einfällt, die dafür konfiguriert ist, das erste Bildsignal zu erzeugen; ein Erregungslichtsperrfilter, auf den das dritte Licht einfällt, der eine erste Durchlässigkeit für die Fluoreszenz und eine zweite Durchlässigkeit für das Erregungslicht hat, wobei die erste Durchlässigkeit höher als die zweite Durchlässigkeit ist; und eine Bildgebungseinheit für Fluoreszenz, auf die das dritte durch den Erregungslichtsperrfilter übertragene Licht einfällt, die dafür konfiguriert ist, das zweite Bildsignal zu erzeugen, und wobei die Bildgebungseinheit für sichtbares Licht und die Bildgebungseinheit für Fluoreszenz mit der Signalverarbeitungseinheit verbunden sind.
  7. Bildgebungsvorrichtung nach Anspruch 1, wobei die Signalverarbeitungseinheit umfasst: einen Speicher, in dem Information über die Objekteigenschaften, die Eigenschaften des Objektes darstellt, aufgezeichnet wird, wobei die Information über die Objekteigenschaften auf Grundlage des ersten Bildsignals des Objektes erzeugt wird; und eine Zielbereichsbestimmungseinheit, die dafür konfiguriert ist, auf Grundlage der in dem Speicher aufgezeichneten Information über die Objekteigenschaften und des ersten Bildsignals den Zielbereich zu bestimmen.
  8. Bildgebungsvorrichtung nach Anspruch 1, wobei die Signalverarbeitungseinheit eine Sättigung und einen Farbton jedes Pixels auf Grundlage eines Signalwertes des ersten Bildsignals jedes Pixels berechnet, und die Signalverarbeitungseinheit den Zielbereich auf Grundlage der Sättigung und des Farbtons jedes Pixels bestimmt.
DE112015006505.9T 2015-06-17 2015-06-17 Bildgebungsvorrichtung Withdrawn DE112015006505T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/067452 WO2016203572A1 (ja) 2015-06-17 2015-06-17 撮像装置

Publications (1)

Publication Number Publication Date
DE112015006505T5 true DE112015006505T5 (de) 2018-03-15

Family

ID=57545618

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015006505.9T Withdrawn DE112015006505T5 (de) 2015-06-17 2015-06-17 Bildgebungsvorrichtung

Country Status (5)

Country Link
US (1) US20180116520A1 (de)
JP (1) JP6484336B2 (de)
CN (1) CN107708518A (de)
DE (1) DE112015006505T5 (de)
WO (1) WO2016203572A1 (de)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12026900B2 (en) 2017-12-27 2024-07-02 Cllag GmbH International Hyperspectral imaging in a light deficient environment
JP7252970B2 (ja) * 2018-10-12 2023-04-05 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理装置の作動方法
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US11284783B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral imaging system
US11134832B2 (en) 2019-06-20 2021-10-05 Cilag Gmbh International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11122967B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11012599B2 (en) 2019-06-20 2021-05-18 Ethicon Llc Hyperspectral imaging in a light deficient environment
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11877065B2 (en) 2019-06-20 2024-01-16 Cilag Gmbh International Image rotation in an endoscopic hyperspectral imaging system
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US10952619B2 (en) 2019-06-20 2021-03-23 Ethicon Llc Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11457154B2 (en) 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11754500B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Minimizing image sensor input/output in a pulsed fluorescence imaging system
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11589819B2 (en) 2019-06-20 2023-02-28 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a laser mapping imaging system
US11712155B2 (en) 2019-06-20 2023-08-01 Cilag GmbH Intenational Fluorescence videostroboscopy of vocal cords
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11986160B2 (en) 2019-06-20 2024-05-21 Cllag GmbH International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US20200397270A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11686847B2 (en) 2019-06-20 2023-06-27 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
JP2021149558A (ja) * 2020-03-19 2021-09-27 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察システムおよび画像処理方法
US20240215799A1 (en) * 2021-05-10 2024-07-04 Given Imaging Ltd. In vivo device and a combined imager therefor

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60122894T2 (de) * 2000-07-14 2007-03-15 Xillix Technologies Corp., Richmond Kompaktes fluorezenz endoskopisches video system
US20020182603A1 (en) * 2001-04-20 2002-12-05 Chapman William H. Uniformly functionalized surfaces for microarrays
US8620410B2 (en) * 2002-03-12 2013-12-31 Beth Israel Deaconess Medical Center Multi-channel medical imaging system
JP3869324B2 (ja) * 2002-06-26 2007-01-17 オリンパス株式会社 蛍光観察用画像処理装置
US8498695B2 (en) * 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy
JP2011510705A (ja) * 2008-01-24 2011-04-07 ライフガード サージカル システムズ 総胆管外科手術の画像化システム
JP5242479B2 (ja) * 2009-03-26 2013-07-24 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
DE102009024943A1 (de) * 2009-06-10 2010-12-16 W.O.M. World Of Medicine Ag Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts
JP5541914B2 (ja) * 2009-12-28 2014-07-09 オリンパス株式会社 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
JP5484997B2 (ja) * 2010-04-12 2014-05-07 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
JP2012005512A (ja) * 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP5485191B2 (ja) * 2011-01-19 2014-05-07 富士フイルム株式会社 内視鏡装置
JP2012152460A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 医療システム、医療システムのプロセッサ装置、及び画像生成方法
JP2012245285A (ja) * 2011-05-31 2012-12-13 Fujifilm Corp 光源装置
JP5802440B2 (ja) * 2011-06-02 2015-10-28 オリンパス株式会社 蛍光観察装置
WO2012176285A1 (ja) * 2011-06-21 2012-12-27 オリンパス株式会社 蛍光観察装置、蛍光観察システムおよび蛍光画像処理方法
EP2735257A4 (de) * 2011-07-22 2015-05-27 Olympus Corp Fluoreszenzendoskopsystem
BRPI1103937A2 (pt) * 2011-09-05 2013-08-06 Prates Joel Aires circuito sincronizador comulador reversÍvel automÁtico
WO2013051431A1 (ja) * 2011-10-06 2013-04-11 オリンパス株式会社 蛍光観察装置
JP5993237B2 (ja) * 2012-07-25 2016-09-14 オリンパス株式会社 蛍光観察装置
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
JP6188721B2 (ja) * 2012-12-13 2017-08-30 オリンパス株式会社 蛍光観察装置
JP2014198144A (ja) * 2013-03-29 2014-10-23 ソニー株式会社 画像処理装置、画像処理方法、情報処理プログラム、蛍光観察システム、および蛍光ナビゲーション・サージェリー・システム

Also Published As

Publication number Publication date
WO2016203572A1 (ja) 2016-12-22
JP6484336B2 (ja) 2019-03-13
US20180116520A1 (en) 2018-05-03
JPWO2016203572A1 (ja) 2018-04-05
CN107708518A (zh) 2018-02-16

Similar Documents

Publication Publication Date Title
DE112015006505T5 (de) Bildgebungsvorrichtung
US11330237B2 (en) Medical inspection apparatus, such as a microscope or endoscope using pseudocolors
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
EP2263516B1 (de) Verfahren und Vorrichtung zum Steuern einer mehrfarbigen Ausgabe eines Bilds eines medizinischen Objekts
DE102014110131A1 (de) Bildaufnahmevorrichtung und Bildaufnahmeverfahren
DE102017203448B4 (de) Mikroskopiesystem und Mikroskopieverfahren zum Quantifizieren einer Fluoreszenz
DE102011002990B4 (de) Visualisieren von Gewebe in einem Operationsbereich
DE102017117428B4 (de) Bildgebendes Verfahren unter Ausnutzung von Fluoreszenz sowie zugehörige Bildaufnahmevorrichtung
DE112012004064B4 (de) Diagnosesystem
WO2006122810A1 (de) Trennung spektral oder farblich überlagerter bildbeiträge in einem mehrfarbbild, insbesondere in transmissionsmikroskopischen mehrfarbbildern
DE112015001158T5 (de) Beobachtungsbild-Gewinnungssystem und Beobachtungsbild-Gewinnungsverfahren
EP3939488A1 (de) Stereoendoskop
DE102015011441A1 (de) Fluoreszenzlichtdetektionssystem und Mikroskopiesystem
DE112011103387B4 (de) Diagnosesystem
DE112018000393T5 (de) Endoskopsystem und Bildanzeigevorrichtung
DE112017004417B4 (de) Endoskopsystem
DE102007014413B4 (de) Verfahren zum Auswerten von Fluoreszenzbildsätzen und Vorrichtung zu seiner Durchführung
DE112017004403T5 (de) Endoskopsystem und charakteristischer betrag-berechnungsverfahren
DE102007026595A1 (de) Vorrichtung und Verfahren zur Kompensation von Farbverschiebungen in faseroptischen Abbildungssystemen
DE102018122816B9 (de) Verfahren und Vorrichtung zum Bestimmen einer Eigenschaft eines Objekts
DE102017215158B4 (de) Detektionssystem
DE112017006861T5 (de) Beobachtungsvorrichtung und Beobachtungsverfahren
DE102018204426B4 (de) Mikroskopiesystem
DE102019217541A1 (de) Medizinische Bildgebungseinrichtung, Verfahren und Verwendung
DE102017203452A1 (de) Fluoreszenzbeobachtungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee