DE102009024943A1 - Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts - Google Patents

Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts Download PDF

Info

Publication number
DE102009024943A1
DE102009024943A1 DE102009024943A DE102009024943A DE102009024943A1 DE 102009024943 A1 DE102009024943 A1 DE 102009024943A1 DE 102009024943 A DE102009024943 A DE 102009024943A DE 102009024943 A DE102009024943 A DE 102009024943A DE 102009024943 A1 DE102009024943 A1 DE 102009024943A1
Authority
DE
Germany
Prior art keywords
signal
imaging system
fluorescence
optical
wavelength range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009024943A
Other languages
English (en)
Inventor
Andreas Dr. Bembenek
Jörn BECKER
Martin Bock
Andreas Lutz
Karl-Heinz Dr. Schönborn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
W. O. M. WORLD OF MEDICINE GMBH, DE
Original Assignee
WOM World of Medicine GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WOM World of Medicine GmbH filed Critical WOM World of Medicine GmbH
Priority to DE102009024943A priority Critical patent/DE102009024943A1/de
Priority to EP15167414.0A priority patent/EP2932892A1/de
Priority to US13/376,795 priority patent/US9433350B2/en
Priority to PCT/EP2010/057995 priority patent/WO2010142672A1/de
Priority to ES10734055.6T priority patent/ES2544804T3/es
Priority to EP10734055.6A priority patent/EP2440119B1/de
Publication of DE102009024943A1 publication Critical patent/DE102009024943A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14556Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases by fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/41Detecting, measuring or recording for evaluating the immune or lymphatic systems
    • A61B5/414Evaluating particular organs or parts of the immune or lymphatic systems
    • A61B5/418Evaluating particular organs or parts of the immune or lymphatic systems lymph vessels, ducts or nodes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • G01N21/6456Spatial resolved fluorescence measurements; Imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00172Optical arrangements with means for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/048Picture signal generators using solid-state devices having several pick-up sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Biochemistry (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Bildgebungssystem zur Fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts, mit einer Beleuchtungseinheit, die ausgebildet und vorgesehen ist, optische Strahlung in einem vorbestimmten Wellenlängenbereich zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes zu emittieren, und einer Aufnahmeeinheit, die ausgebildet und vorgesehen ist, ein optisches Signal aus dem Bereich des Objekts aufzunehmen und das optische Signal in ein Fluoreszenzsignal mit einem ersten Wellenlängenbereich und ein Signal sichtbaren Lichts mit einem zweiten Wellenlängenbereich aufzuteilen. Dabei ist vorgesehen, dass die optische Aufnahmeeinheit (3) ein dichroitisches Prisma (30) zur Aufteilung des aufgenommenen optischen Signals (S) in das Fluoreszenzsignal (S1) und das Signal sichtbaren Lichts (S2) aufweist. Die Erfindung betrifft zudem ein Verfahren zur Fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts. Auf diese Weise werden ein Bildgebungssystem und ein Verfahren zur Fluoreszenz-optischen Visualisierung eines Objekts geschaffen, bei denen die Aufnahmeeinheit kompakt aufgebaut und die Kanalzahl zur Verarbeitung unterschiedlicher Signale in einfacher Weise erweitert werden kann.

Description

  • Die Erfindung betrifft ein Bildgebungssystem zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts nach dem Oberbegriff des Anspruchs 1 sowie ein Verfahren zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts.
  • Ein derartiges Bildgebungssystem zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts, insbesondere des Körpers eines Patienten und seiner Organe und/oder Gewebebereiche, weist eine Beleuchtungseinheit und eine Aufnahmeeinheit auf, die einerseits das Objekt beleuchten, d. h. mit einer optischen Strahlung sichtbaren und/oder infraroten Lichts bestrahlen, und andererseits ein in oder an dem Objekt infolge der Bestrahlung erzeugtes optisches Signal aufnehmen. Die Beleuchtungseinheit ist hierzu ausgebildet, optische Strahlung in einem vorbestimmten Wellenlängenbereich zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes zu emittieren, während die Aufnahmeeinheit ausgebildet und vorgesehen ist, ein optisches Signal aus dem Bereich des Objekts aufzunehmen und das optische Signal in ein Fluoreszenzsignal mit einem ersten Wellenlängenbereich und ein Signal sichtbaren Lichts mit einem zweiten Wellenlängenbereich aufzuteilen.
  • Das Fluoreszenzsignal entsteht in einem menschlichen Körper beispielsweise durch Anregung eines geeigneten Kontrastmittels, beispielsweise in Form eines Farbstoffs wie Indocyaningrün (ICG), das einem fluoreszierenden Farbstoff entspricht, der in der Medizin herkömmlich bereits als Indikatorsubstanz (z. B. für die photometrische Leberfunktionsdiagnostik und Fluoreszenzangiographie) bei Herz-, Kreislauf-, Leber- und Augenerkrankungen eingesetzt wird. ICG wird hierzu beispielsweise intravenös oder auch zur Eindiffusion auf der Haut verabreicht und auf natürliche Weise in Abhängigkeit von der Leberleistung mit einer Halbwertszeit von ca. 3–4 Minuten aus dem Körper eliminiert. ICG kann als Natriumsalz in Pulverform vorliegen und kann in unterschiedlichen Lösungsmitteln gelöst werden. Das Absorptions- und Fluoreszenzspektrum von ICG liegt im nahinfraroten Bereich. Das Maximum des Fluoreszenzspektrums liegt unterschiedlich je nach Lösungsmittel: in Blut liegt es bei einer Wellenlänge von etwa 830 nm, in Wasser bei etwa 820 nm (bei einer Anregungswellenlänge von z. B. 765 nm).
  • Bei einem aus der US2006/0108509 A1 bekannten Bildgebungssystem wird sichtbares Licht zusammen mit einer Anregungsstrahlung im infraroten Bereich auf ein Objekt gestrahlt, und aus dem Bereich des Objekts wird ein optisches Signal aufgenommen. Über Strahlteiler in Form einer Spiegelanordnung wird das optische Signal dann in ein erstes, einem Fluoreszenzsignal entsprechendes Signal im Infrarotbereich und ein zweites Signal im Bereich des sichtbaren Lichts geteilt. Die Signale werden anschließend weiterverarbeitet und auf einem Monitor angezeigt.
  • Bei einem aus der US 6,293,911 B1 bekannten Bildgebungssystem wird in ähnlicher Weise ein Objekt angeregt und ein optisches Signal aus dem Bereich des Objektes aufgenommen. Das optische Signal wird über eine Spiegelanordnung in ein Signal sichtbaren Lichts und ein Fluoreszenzsignal geteilt, wobei das Signal sichtbaren Lichts anschließend unter Verwendung eines dichroitischen Prismas in einen Rot-, einen Grün- und einen Blauanteil (die so genannten RGB-Farben) zerlegt und weiterverarbeitet wird, wie dies beispielsweise auch von Farb-Videokameras bekannt ist.
  • Sowohl die Anordnung der US2006/0108509 A1 als auch das System der US 6,293,911 B1 verwenden separate Spiegel, um Fluoreszenzsignale von Signalen sichtbaren Lichts zu trennen. Die daraus resultierenden Anordnungen erfordern einen gewissen Bauraum für die Bereitstellung der Spiegel und die Lichtausbreitung zwischen den Spiegeln. Zudem ist eine Erweiterung der Kanäle der Anordnung beispielsweise zur Aufteilung und Verarbeitung weiterer Signale nicht ohne weiteres möglich.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Bildgebungssystem und ein Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts, bei denen die Aufnahmeeinheit kompakt aufgebaut und die Kanalzahl zur Verarbeitung unterschiedlicher Signale in einfacher Weise erweitert werden kann.
  • Diese Aufgabe wird durch ein Bildgebungssystem mit den Merkmalen des Anspruchs 1 gelöst.
  • Dabei ist vorgesehen, dass die optische Aufnahmeeinheit ein dichroitisches Prisma zur Aufteilung des aufgenommenen optischen Signals in das Fluoreszenzsignal und das Signal sichtbaren Lichts aufweist.
  • Durch Verwendung des dichroitischen Prismas zur Aufteilung des aufgenommenen optischen Signals in das Fluoreszenzsignal und das Signal sichtbaren Lichts wird eine Anordnung geschaffen, die auf weitere strahlteilende Spiegel zur Aufteilung des optischen Signals verzichten kann. Das Fluoreszenzsignal und das Signal sichtbaren Lichts werden über ein dichroitisches Prisma voneinander separiert. Auf diese Weise wird ein kompakter Aufbau erhalten, der mit einem einzigen Prisma zur Strahlaufteilung auskommen kann und zudem kurze Ausbreitungswege zwischen Signalaufteilung und Signaldetektion gewährleistet. Das System ist dadurch zum einen vergleichsweise einfach aufzubauen und zudem weniger empfindlich gegenüber Störungen im Betrieb.
  • Darüber hinaus kann durch Verwendung eines dichroitischen Drei-Kanal- oder Vier-Kanal-Prismas oder eines Prismas mit sogar mehr als vier Kanälen die Kanalzahl des Systems in einfacher Weise skaliert werden, so dass das aufgenommene optische Signal in mehrere unterschiedliche Anteile aufgeteilt werden kann, die anschließend getrennt verarbeitet werden können.
  • Unter einem dichroitischen Prisma ist in diesem Zusammenhang ein optisches Prisma zu verstehen, das einen Lichtstrahl in mindestens zwei Strahlen unterschiedlicher Spektren, d. h. unterschiedlicher Wellenlängenbereiche, aufteilt. Es wird gewöhnlich aus Glas gefertigt, wobei bestimmte Oberflächen mit dichroitischen Spiegeln versehen sind, die Licht abhängig von dessen Wellenlänge reflektieren oder durchlassen.
  • Bei einer beispielsweisen Ausführungsform eines dichroitischen Prismas tritt das optische Signal in Form eines Lichtstrahls in ein erstes Teilprisma ein und auf einen ersten dichroitische Filter auf, der einen ersten Anteil des optischen Signals mit einem ersten Wellenlängenbereich reflektiert und das übrige Licht, beispielsweise Licht längerer Wellenlängen, durchlässt. Dieses Licht tritt in ein zweites Teilprisma ein und wird durch einen zweiten dichroitischen Filter geteilt, welcher einen zweiten Anteil des Lichts reflektiert und einen dritten Anteil durchlässt. Die Winkel der einzelnen Teilprismen sind so gewählt, dass der erste und zweite Anteil mittels Totalreflexion in den jeweiligen Teilprismen umgelenkt werden.
  • Der erste Wellenlängenbereich und der zweite Wellenlängenbereich des Fluoreszenzsignals bzw. des Signals sichtbaren Lichts unterscheiden sich voneinander. Der erste Wellenlängenbereich, der dem Wellenlängenbereich des Fluoreszenzsignals entspricht, kann beispielsweise Wellenlängen größer als 800 nm enthalten und liegt damit im Infrarotbereich. Der zweite Wellenlängenbereich des Signals sichtbaren Lichts kann demgegenüber Wellenlängen kleiner als 700 nm enthalten und liegt damit im Bereich der sichtbaren Wellenlängen.
  • Zur Detektion der Signale ist das dichroitische Prisma beispielsweise mit zwei optoelektronischen Wandlern verbunden, von denen ein erster optoelektronischer Wandler das Fluoreszenzsignal in ein erstes elektronisches Datensignal und von denen ein zweiter optoelektronischer Wandler das Signal sichtbaren Lichts in ein zweites elektronisches Datensignal umwandelt. Die optoelektronischen Wandler, beispielsweise ausgebildet als CMOS- oder CCD-Bauelemente, sind vorteilhafterweise unmittelbar auf dem dichroitischen Prisma angeordnet und so mit dem dichroitischen Prisma verbunden, dass die jeweiligen Signale auf die Wandler treffen, dort in elektronische Signale umgewandelt und zur elektronischen Weiterverarbeitung weitergeleitet werden.
  • Vor dem optoelektronischen Wandler (z. B. in Form eines CCD-Chips) zur Detektion des Fluoreszenzsignals kann zusätzlich ein Langpassfilter angeordnet sein, der nur Wellenlängen größer als die Grenzwellenlänge für das Fluoreszenzsignal (z. B. 800 nm) durchlässt.
  • Der erste optoelektronische Wandler zur Detektion des Fluoreszenzsignals kann beispielsweise als Schwarzweiß-Wandler und der zweite optoelektronische Wandler zur Detektion des Signals sichtbaren Lichts als Farb-Wandler ausgebildet sein. Als Schwarzweiß-Wandler kann beispielsweise ein so genannter „S/W-NIR-Enhanced”-Wandler insbesondere für den Empfang von optischen Signalen im (Nah-)Infrarotbereich (NIR: Near Infrared) ausgebildet sein. Als Farb-Wandler kann beispielsweise ein als Bayer-Sensor oder Bayer-Pattern bezeichneter Fotosensor eingesetzt werden, der mit einem Farbfilter ausgestattet ist, der z. B. zu 50% aus Grün, und je 25% aus Rot und Blau besteht (wobei berücksichtigt wird, dass das menschliche Auge auf Grün empfindlicher reagiert als auf andere Farben). Um Farbinformationen zu erhalten, wird dabei in an sich bekannter Weise vor jeder einzelnen Fotozelle des Sensors ein Farbfilter in einer der drei Grundfarben Rot, Grün oder Blau aufgebracht. Jeder Farbpunkt (Pixel) liefert dementsprechend nur Informationen für eine einzige Farbkomponente an dieser Stelle, so dass für ein vollständiges Bild mit denselben Abmessungen die jeweils benachbarten Pixel derselben Farbe zur Farbinterpolation herangezogen werden müssen.
  • Zur weiteren Vereinfachung des Aufbaus kann anstelle mehrerer getrennter optoelektronischer Wandler auch ein einziger optoelektronischer Wandler vorgesehen sein, der mehrere Teilbereiche aufweist. In einem ersten Teilbereich wird dann beispielsweise das Fluoreszenzsignal detektiert und in einem zweiten Teilbereich das Signal sichtbaren Lichts.
  • Bei Ausbildung des dichroitischen Prismas als Drei-Kanal-Prisma kann vorgesehen sein, das aufgenommene optische Signal zusätzlich in ein Fluoreszenzanregungssignal mit einem dritten Wellenlängenbereich zu teilen, der von dem ersten Wellenlängenbereich und dem zweiten Wellenlängenbereich unterschiedlich ist und in einem Wellenlängenbereich zwischen 700 nm und 800 nm liegt, also zwischen dem Signal sichtbaren Lichts (mit Wellenlängen kleiner als 700 nm) und dem Fluoreszenzsignal (mit Wellenlängen größer als 800 nm). Dieser Wellenlängenbereich entspricht bevorzugt dem Bereich der von der Beleuchtungseinheit emittierten Strahlung zur Anregung der Fluoreszenz des Objekts bzw. eines in dem Objekt enthaltenen fluoreszierenden Stoffes.
  • Möglich ist, den dritten Kanal des dichroitischen Prismas mit einem Absorberelement beispielsweise in Form eines Schwarzglases zu verbinden, welches das Fluoreszenzanregungssignal absorbiert. Auf diese Weise wird ein Bildgebungssystem geschaffen, dass lediglich den Anteil des aufgenommenen optischen Signals im sichtbaren Wellenlängenbereich kleiner 700 nm und im infraroten Bereich größer 800 nm zur Informationsgewinnung ausnutzt, den Bereich dazwischen jedoch unterdrückt. Liegt die optische Anregungsstrahlung der Beleuchtungseinheit zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes gerade in diesem Bereich, weist also Wellenlängen zwischen 700 nm und 800 nm auf, so kann dadurch das Streulicht innerhalb der Aufnahmeeinheit minimiert und der Kontrast der empfangenen Signale verbessert werden.
  • Alternativ ist aber auch möglich, das dichroitische Prisma mit einem dritten optoelektronischen Wandler zu verbinden (oder einen weiteren Teilbereich eines einzigen optoelektronischen Wandlers vorzusehen), der das Fluoreszenzanregungssignal in ein drittes elektronisches Datensignal umwandelt. Damit wird die Möglichkeit geschaffen, das Signal im Wellenlängenbereich zwischen 700 nm und 800 nm auszunutzen und daraus zusätzliche Informationen zu gewinnen. Beispielsweise können aus dem aus dem Fluoreszenzanregungssignal gewonnenen dritten elektronischen Datensignal weitere Bildinformationen über das betrachtete Objekt erhalten, es können Informationen über den Signal-zu-Rausch-Abstand gewonnen oder die Aussagekraft von Bildinformationen kann gezielt verbessert werden. Beispielsweise können in Gewebebereichen hoher Absorption nicht-fluoreszierende („quenched”) Absorptionsmechanismen wirken, die nicht in einem aus dem Fluoreszenzsignal erhaltenen Fluoreszenzbild, wohl aber in einem aus dem Fluoreszenzanregungssignal erhaltenen Absorptionsbild detektiert werden können. Zudem sind das Fluoreszenzbild und das Absorptionsbild näherungsweise in ihrer Intensität komplementär. Eine Subtraktion oder Verhältnisbildung der entsprechenden Bilder kann demnach dazu dienen, den Kontrast zu erhöhen. Weiter ist möglich, das Absorptionsbild auf eine signifikante Absorptionslinie zu legen (entsprechend z. B. Haemoglobin) und separat auszuwerten.
  • Der dritte optoelektronische Wandler ist beispielsweise wie der das Fluoreszenzsignal aufnehmende Wandler als Schwarzweiß-Wandler in Form eines „S/W-NIR-Enhanced”-CCD-Chips ausgebildet.
  • In einer Ausführungsform kann der dritte optoelektronische Wandler zur Detektion des aus der Anregungsstrahlung resultierenden Fluoreszenzanregungssignals mit einem Strahlabschwächungsfilter zusammenwirken, um das intensitätsstarke Fluoreszenzanregungssignal in geeigneter Weise abzuschwächen, so dass dieses durch den optoelektronischen Wandler verarbeitet werden kann. Der Abschwächungsfilter kann beispielsweise aus einem Filterglas, z. B. einem Grauglasfilter, bestehen.
  • Mit dem bereitgestellten Bildgebungssystem ist es insbesondere möglich, für einen Arzt nicht sichtbare Gefäße, Organe oder Organelle (z. B. zur Darstellung des lymphatischen Systems mit den darin eingebundenen Lympfknoten) intraoperativ zu visualisieren. Das Bildgebungssystem kann dabei einerseits offenchirurgisch zur fluoreszenz-optischen Visualisierung durch Beleuchtung und Aufnahme von außen und andererseits beispielsweise endoskopisch oder kolposkopisch zur fluoreszenz-optischen Visualisierung durch Beleuchtung und Aufnahme im Inneren eines Patienten eingesetzt werden. Dazu kann die Aufnahmeeinheit mit einem Objektiv zur Aufnahme des optischen Signals außerhalb des Objekts und/oder mit einer Aufnahmeeinrichtung zur Aufnahme des optischen Signals aus dem Inneren des Objekts verbunden werden. Die Aufnahmeeinrichtung zur Aufnahme des optischen Signals aus dem Inneren des Objekts kann beispielsweise ein Endoskop, ein Kolposkop, eine in das Objekt invasiv oder nicht-invasiv einführbare oder einbringbare Kamera beispielsweise in Form einer intraoral zu verwendenden Kamera oder in Form einer so genannten, durch einen Patienten in Form einer Pille zu schluckenden „Pill-Cam” sein, wobei auch andere Ausgestaltungen einer in einen Patienten einbringbaren Aufnahmeeinrichtung denkbar sind (die Beleuchtungseinheit kann dabei z. B. in der Pille als chemolumineszent wirkende und beispielsweise durch die Magensäure zu triggernde Lichtquelle realisiert sein). Die Aufnahmeeinheit kann wahlweise mit dem Objektiv zur Aufnahme eines optischen Signals außerhalb des Objekts und/oder mit der beispielsweise endoskopischen Aufnahmeeinrichtung zur Aufnahme des optischen Signals aus dem Inneren des Objekts verbunden werden, wobei die Aufnahmeeinrichtung in einfacher Weise abnehmbar ist. Auf diese Weise wird ein vielseitig einsetzbares Bildgebungssystem geschaffen, das wahlweise offenchirurgisch oder endoskopisch einsetzbar ist und dazu lediglich den Austausch einzelner Zubehörkomponenten erfordert.
  • Neben der Aufnahmeeinheit weist das Bildgebungssystem eine Beleuchtungseinheit auf, die zur Beleuchtung und Anregung des zu untersuchenden Objekts dient und dazu optische Strahlung in einem vorbestimmten Wellenlängenbereich emittiert. Die Beleuchtungseinheit kann hierzu mit zwei Lichtquellen ausgestattet sein, von denen eine erste Lichtquelle eine Fluoreszenzanregungsstrahlung und eine zweite Lichtquelle Strahlung im Bereich sichtbaren Lichts (Weißlicht) erzeugt. Die von der ersten Lichtquelle erzeugte Fluoreszenzanregungsstrahlung kann beispielsweise in einem Wellenlängenbereich zwischen 700 nm und 800 nm liegen, während die Strahlung sichtbaren Lichts vorzugsweise Wellenlängen kleiner als 700 nm aufweist. Die Lichtquellen können beispielsweise durch Laser oder Leuchtdioden (LEDs) verwirklicht sein, die jeweils angepasst sind, optische Strahlung im gewünschten Wellenlängenbereich mit der erforderlichen Intensität und Charakteristik zu erzeugen.
  • Die von den beiden Lichtquellen der Beleuchtungseinheit erzeugte Strahlung wird vorteilhafterweise durch ein optisches Koppelelement zur Kopplung der Fluoreszenzanregungsstrahlung und der Strahlung im Bereich sichtbaren Lichts in einen Lichtleiter einkoppelt. Das optische Koppelelement kann zusätzlich dichroitische Filterschichten aufweisen und koppelt die Fluoreszenzanregungsstrahlung und die Strahlung im Bereich des sichtbaren Lichts beispielsweise physikalisch oder durch faseroptische Zusammenführung.
  • Über den Lichtleiter wird die gekoppelte Strahlung zur Beleuchtung hin zu dem Objekt geleitet, wobei der Lichtleiter mit einem Element zur Anpassung der Abstrahlungscharakteristik der optischen Strahlung zur Beleuchtung des Objektes von außen oder zur Beleuchtung von Bereichen innerhalb des Objektes verbunden sein kann. Beispielsweise kann der Lichtleiter zur Anpassung der Abstrahlungscharakteristik mit einem Diffusor und/oder einem Endoskop verbunden sein, um das Objekt von außen oder von innen zu beleuchten und die optische Strahlung gezielt an den Ort zu führen, an dem das Objekt zur fluoreszenz-optischen Visualisierung beleuchtet und angeregt werden soll. Mit andern Worten wird über den Lichtleiter und gegebenenfalls ein Endoskop oder dergleichen die optische Strahlung gezielt in den Bereich geleitet, aus dem die Aufnahmeeinheit dann die gewünschten optischen Signale empfängt. Beleuchtungseinheit und Aufnahmeeinheit können dabei zur Beleuchtung einerseits und Aufnahme andererseits dasselbe Endoskop verwenden, in dem einerseits ein lichtleitender Kanal für die optische (Beleuchtungs-)Strahlung und ein lichtleitender Kanal für das aufgenommene optische Signal angeordnet sind.
  • Denkbar und vorteilhaft in diesem Zusammenhang kann sein, das dichroitische Prisma zur Aufteilung des aufgenommenen optischen Signals in das Fluoreszenzsignal und das Signal sichtbaren Lichts unmittelbar in der Spitze eines Endoskops, also an dem in das Objekt einzuführenden Ende des Endoskops, anzuordnen, um das optische Signal unmittelbar dort aufzunehmen, wo es entsteht. Auf diese Weise kann auf einen lichtleitenden Kanal in dem Endoskop zur Leitung des aufgenommenen optischen Signals hin zu dem dichroitischen Prisma verzichtet werden, so dass Signalverluste durch Übertragung vermieden oder zumindest weitestgehend minimiert werden. Das optische Signal wird damit bereits am Orte seiner Entstehung erfasst und an dem dichroitischen Prisma nach der Signalaufteilung unmittelbar in elektronische Datensignale gewandelt, die dann über das Endoskop an eine Steuer- und Verarbeitungseinheit zur weiteren Bildverarbeitung und Analyse übermittelt werden.
  • Eine Steuer- und Verarbeitungseinheit ist unter anderem vorgesehen, um die Beleuchtungseinheit und/oder die Aufnahmeeinheit und damit die Funktionsweise des Bildgebungssystems zu steuern. Die Steuer- und Verarbeitungseinheit gibt dabei einerseits Parameter für den Betrieb der Beleuchtungseinheit und der Aufnahmeeinheit vor und regelt deren Zusammenwirken, zum andern übernimmt sie die Verarbeitung der über die Aufnahmeeinheit aufgenommenen und in elektronische Datensignale gewandelten Signale.
  • Zur Bildverarbeitung kann die Steuer- und Verarbeitungseinheit ausgebildet sein, aus den erfassten Signalen ein aus dem Signal sichtbaren Lichts erhaltenes Realbild, ein aus dem Fluoreszenzsignal erhaltenes Fluoreszenzbild und/oder ein aus einem Fluoreszenzanregungssignal erhaltenes Infrarotabsorptionsbild zu erzeugen, die in überlagerter Weise oder nebeneinander ausgegeben und für einen Arzt zur Begutachtung angezeigt werden können. Sollen die erhaltenen Bilder überlagert dargestellt werden, so werden die einander zugeordneten Bilder algorithmisch in analog oder digital vorbehandelter Form miteinander fusioniert. Die Fusionierung erfolgt beispielsweise derart, dass auf dem Realbild mit Falschfarben Bereiche markiert werden, in denen auf dem aus dem Fluoreszenzsignal erhaltenen Fluoreszenzbild ein Signal detektiert wurde. Als eine Möglichkeit für einen Vorbehandlungsalgorithmus des Fluoreszenzbildes wird ein Schwellwert definiert, bei Überschreitung dessen ein Signal auf das Realbild übertragen wird. Im Realbild wird mit einer wählbaren Falschfarbe in Echtzeit der Bereich mit Fluoreszenzintensitäten oberhalb der Schwelle markiert. Dabei kann beispielsweise im Sinne einer Ja-Nein-Entscheidung nur die Tatsache der Fluoreszenzstrahlung oder ein der Signalintensität proportionales Fluoreszenzsignal angezeigt werden. Auch andere Skalierungen, wie logarithmische oder mit einem Maximalwert begrenzte Intensitätsdarstellungen des Fluoreszenzsignals, sind denkbar.
  • In einer weiteren Ausgestaltung kann das Bildgebungssystem einen Zweiachsenscanner zur Projektion eines erzeugten Fluoreszenzbildes auf das Objekt aufweisen. Der Zweiachsenscanner kann beispielsweise ausgebildet sein, einen Lichtstrahl einer Lichtquelle zur Erzeugung eines Fluoreszenzbildes auf dem Objekt periodisch über das Objekt zu lenken, um auf diese Weise ein Bild auf dem Objekt zu erzeugen, das dem aus dem Fluoreszenzsignal erzeugten Fluoreszenzbild entspricht. Auf diese Weise können beispielsweise auf dem Objekt unmittelbar in Falschfarben solche Bereiche angezeigt werden, in denen ein Fluoreszenzsignal vorhanden ist. Einem Arzt kann so während einer Operation in Echtzeit ein Fluoreszenzbild unmittelbar dort angezeigt werden, wo es herrührt, so dass sogar ein zusätzlicher Monitor zum Anzeigen des Fluoreszenzbildes entfallen könnte.
  • Zusätzlich oder alternativ kann der Zweiachsenscanner ausgebildet sein, optische Strahlung einer Lichtquelle zur Anregung eines Fluoreszenzsignals auf das Objekt zu lenken und/oder angeregte optische Signale von dem Objekt hin zu einem Detektor zu lenken. Mittels des Zweiachsenscanners kann so eine pixelweise Anregung und/oder Aufnahme erfolgen, wobei als Lichtquelle zur Anregung beispielsweise ein Laser verwendet werden kann.
  • Eine solche Projektionsvorrichtung ist vorteilhaft mit dem oben beschriebenen Bildgebungssystem kombinierbar, kann grundsätzlich aber auch eigenständig in Zusammenwirken mit beliebigen anderen Bildgebungssystemen betrieben werden.
  • Die Aufgabe wird weiterhin durch ein Verfahren zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts gelöst, bei dem
    • – eine optische Strahlung in einem vorbestimmten Wellenlängenbereich zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes emittiert wird und
    • – ein optisches Signal aus dem Bereich des Objekts aufgenommen und das optische Signal in ein Fluoreszenzsignal mit einem ersten Wellenlängenbereich und ein Signal sichtbaren Lichts mit einem zweiten Wellenlängenbereich aufgeteilt wird.
  • Bei dem Verfahren ist vorgesehen, dass ein dichroitisches Prisma das aufgenommene optische Signal in das Fluoreszenzsignal und das Signal sichtbaren Lichts teilt.
  • Für das erfindungsgemäße Verfahren ergeben sich die gleichen Vorteile wie oben für das Bildgebungssystem beschrieben. Insbesondere wird durch Verwendung eines dichroitischen Prismas ermöglicht, unter Verwendung eines kompakten Aufbaus bei hoher Betriebssicherheit und optischer Effizienz Objekte fluoreszenz-optisch zu visualisieren.
  • Das beschriebene Bildgebungssystem und das Verfahren können in einem weiten Gebiet insbesondere für medizinische Zwecke eingesetzt werden. Beispielsweise zählen hierzu das Auffinden von bestimmten signifikanten Organen, Organellen oder Organteilen oder von pathologisch veränderten Gewebebereichen (Lymphknoten, Lymphbahnen, Adern, Gallengänge, Hohlräumen, Entzündungsherden oder dergleichen) im menschlichen Körper mit Hilfe von in den Körper eingebrachten Farbstoffen und deren bildlicher Nachweis mittels fluoreszenz-optischer Methoden und die Beobachtung von Stofftransportphänomenen in körpereigenen Fluss-Systemen (Adern, Lymphbahnen, Hautperfusion und andere) und/oder die qualitative und quantitative Bestimmung von Transportgeschwindigkeiten und -routen sowie Anhäufungsarealen und -volumina dieser Flusssysteme.
  • Konkret sind folgende medizinische Einsatzzwecke denkbar, wobei die Aufzählung in keiner Weise abschließend zu verstehen sein soll:
    • – Visualisierung des lymphatischen Systems mit dem Ziel einer Lymphographie (minimal invasiv),
    • – Sentinel-Lymphknoten-Biopsie (z. B. bei Brust, malignen Melanomen, Lunge, Magen, Darm, Prostata, Zervix, Endometrium),
    • – Visualisierung des Blutgefäßsystems (Perfusionsmessung) mit dem Ziel der Anastomosekontrolle,
    • – Schweregradbestimmung bei Verbrennungen (minimal invasiv),
    • – Bestimmung eines notwendigen Amputationslevels (minimal invasiv),
    • – Qualitätskontrolle bei Rekonstruktionsoperationen, plastischen Korrekturen oder Gewebetransplantationen,
    • – Bewertung des „Diabetischen Fuß”-Syndroms (minimal invasiv),
    • – Dekubituskontrolle (minimal invasiv),
    • – Darstellung so genannter „bleeding points” (Blutungen) im Rahmen von endoskopischen Operationen,
    • – Differenzierung zwischen Gewebearten (z. B. Adenom vs. Tumor),
    • – Erlangung von Informationen über die Invasionstiefe erkannter Tumoren (submukosaler Effekt),
    • – Visualisierung von Gallengängen im Rahmen der Leber- oder Gallenchirurgie mit dem Ziel der Schonung wichtiger Strukturen,
    • – Visualisierung von Entartungen zur Krebsvorsorge (so genanntes „screening”) und der Früherkennung von Tumoren (z. B. in Zusammenhang mit selektiven Tumormarkern) (minimal invasiv).
  • Unter „minimal invasiv” ist hier zu verstehen, dass die so gekennzeichneten Einsatzzwecke mindestens den Einsatz eines in einen Körper eingebrachten fluoreszierenden Kontrastmittels erforderlich machen, um ein Fluoreszenzsignal aus dem Körper zu erhalten.
  • Grundsätzlich wird dabei so vorgegangen, dass ein in den Köper eines Patienten, ob systemisch (durch Einspritzen) oder topisch (durch Aufbringen auf die Körperoberfläche und Eindiffusion) eingebrachter Farbstoff (oder der nach dem Einbringen im Körper sich bildenden Agglomerationen desselben mit körpereigenen Stoffen) durch von der Beleuchtungseinheit emittierte Strahlung zur Fluoreszenz angeregt wird, das resultierende Fluoreszenzsignal über die Aufnahmeeinheit detektiert wird und ein daraus erzeugtes Fluoreszenzbild in einer Weise angezeigt wird, die es dem Mediziner erlaubt, diagnostische oder therapeutische Entscheidungen zu treffen.
  • Der der Erfindung zugrunde liegende Gedanke soll nachfolgend anhand der in den Figuren dargestellten Ausführungsbeispiele näher erläutert werden. Es zeigen:
  • 1 eine schematische Ansicht einer ersten Ausführungsform eines Bildgebungssystems mit einer Beleuchtungseinheit und einer Aufnahmeeinheit, bei der über ein dichroitisches Prisma ein aufgenommenes optisches Signal in ein Fluoreszenzsignal und ein Signal sichtbaren Lichts geteilt wird (2-Kanal-Variante);
  • 2 eine Detaildarstellung der Aufnahmeeinheit des Bildgebungssystems gemäß 1;
  • 3 eine Detaildarstellung einer Ausführungsform eines dichroitischen Prismas;
  • 4 eine schematische Ansicht einer zweiten Ausführungsform eines Bildgebungssystems mit einer Beleuchtungseinheit und einer Aufnahmeeinheit, bei der über ein dichroitisches Prisma ein aufgenommenes optisches Signal in ein Fluoreszenzsignal, ein Signal sichtbaren Lichts und ein Fluoreszenzanregungssignal geteilt wird (3-Kanal-Variante);
  • 5 eine Detaildarstellung der Aufnahmeeinheit des Bildgebungssystems gemäß 4;
  • 6 eine Darstellung eines 4-Kanal-Prismas zur Aufteilung eines optischen Signals in vier Signalanteile;
  • 7 eine schematische Ansicht einer Anordnung zur Aufteilung eines optischen Signals in zwei Signalanteile und der Detektion mittels eines einzigen CCD-Chips;
  • 8A, 8B Ansichten einer Anordnung zur Detektion eines geteilten optischen Signals mittels eines einzigen CCD-Chips;
  • 9 eine schematische Darstellung einer Anordnung zur Projektion eines Fluoreszenzbildes auf ein Objekt;
  • 10 eine schematische Darstellung einer Anordnung zur Aufnahme und zur Projektion eines Fluoreszenzbildes auf ein Objekt und
  • 11 eine schematische Darstellung einer weiteren Anordnung zur Aufnahme und zur Projektion eines Fluoreszenzbildes auf ein Objekt.
  • 1 zeigt zunächst in einer Übersichtsdarstellung eine Ausführungsform eines Bildgebungssystems 1, das eine Beleuchtungseinheit 2 und eine Aufnahmeeinheit 3 umfasst. Das Bildgebungssystem 2 dient zur fluoreszenz-optischen Visualisierung eines Objekts 4, beispielsweise von Gefäßen, Organen oder Organellen eines Patienten, und erzeugt hierzu eine optische Strahlung, mit der das Objekt 4 bestrahlt und zur Emission von fluoreszenz-optischen Signalen angeregt wird.
  • Grundlegend wird zur fluoreszenz-optischen Visualisierung folgendermaßen vorgegangen. Zunächst wird ein geeigneter fluoreszierender Farbstoff (beispielsweise Indocyaningrün (ICG)), in das Objekt 4, beispielsweise den Körper eines Patienten, eingebracht. Dieses kann systemisch durch Einspritzen oder topisch durch Aufbringen auf die Objektoberfläche und Eindiffusion erfolgen. Anschließend wird der eingebrachte Farbstoff mittels der Beleuchtungseinheit 2 zur Fluoreszenz angeregt, und die resultierenden Signale werden mittels der Aufnahmeeinheit 3 detektiert. Die detektierten Signale werden weiterverarbeitet und in geeigneter Weise beispielsweise als Videosignal in Echtzeit zur Begutachtung für einen Mediziner angezeigt.
  • Zu betonen ist an dieser Stele, dass die Funktionsweise des Bildgebungssystems von der Art und Weise des Einbringens des fluoreszierenden Stoffes in das Objekt 4 unabhängig ist. Wesentlich ist lediglich, dass in dem Objekt 4 ein Stoff vorhanden ist, der zur Fluoreszenz angeregt werden kann. Grundsätzlich kann dieser Stoff auch auf natürliche Weise in dem Objekt 4 vorhanden sein, ohne dass ein Einbringen von außen erforderlich ist.
  • Die Beleuchtungseinheit 2 weist zwei Lichtquellen 21, 22 auf, die mittels Lasern oder Leuchtdioden (LEDs) einerseits eine Fluoreszenzanregungsstrahlung in einem Wellenlängenbereich zwischen 700 nm und 800 nm und andererseits eine Strahlung im Bereich sichtbaren Lichts mit Wellenlängen kleiner als 700 nm erzeugen. Die von den Lichtquellen 21, 22 erzeugte Strahlung wird mittels eines optischen Koppelelementes 23 beispielsweise in Form eines physikalischen oder faseroptischen Kopplers gekoppelt und über einen Anschluss 240 in einen Lichtleiter 24, beispielsweise eine flexible optische Faser, eingespeist.
  • Über den Lichtleiter 24 wird die erzeugte optische Strahlung hin zu einem mit der Aufnahmeeinheit 3 verbundenen Endoskop 32 geleitet und ist über einen Anschluss 241 mit dem Endoskop 32 verbunden. Das Endoskop 32 verfügt über einen lichtleitenden optischen Kanal 320, in dem die optische Strahlung der Beleuchtungseinheit 2 hin zu dem Objekt 4 geführt wird.
  • Das Endoskop 32 ist zum Einführen in das Objekt 4 ausgebildet. Beispielsweise kann das Endoskop 32 invasiv in den Körper eines Patienten eingeführt werden, um auf diese Weise Gefäße oder Organe des Patienten unmittelbar im Inneren des Patienten anzuregen. Das Endoskop 32 kann in an sich bekannter Weise zumindest abschnittsweise flexibel ausgebildet sein und ermöglicht damit einen einfachen Zugang in das Innere des Objekts 4.
  • Das Endoskop 32 weist einen zweiten Kanal 321 auf, über den in oder an dem Objekt 4 aus der optischen Anregung resultierende optische Signale aufgenommen und an die Aufnahmeeinheit 3 geleitet werden. Das Endoskop 32 ist hierzu über ein einen Schnellverschluss aufweisendes Objektiv 31 an einen Kamerakopf 30 der Aufnahmeeinheit 3 angeschlossen, in dem die empfangenen optischen Signale zerlegt und gewandelt werden.
  • Eine Detailansicht des Kamerakopfs 30 ist in 2 dargestellt. In dem Kamerakopf 30 ist ein dichroitisches Prisma 300 angeordnet, das mit zwei optoelektronischen Wandlern 301, 302 in Form von CCD-Chips oder CMOS-Bauelementen und zudem mit einem Absorberelement 304 beispielsweise in Form eines Schwarzglases verbunden ist. Das dichroitische Prisma 300 dient der Strahlaufteilung eines empfangenen und auf das dichroitische Prisma 300 treffenden optischen Signals S und zerlegt dieses, wie nachfolgend anhand von 3 noch erläutert werden soll, in Signalanteile S1, S2, S3, die einem Fluoreszenzsignal mit Wellenlängen größer als 800 nm, einem Signal sichtbaren Lichts mit Wellenlängen kleiner 700 nm einem Fluoreszenzanregungssignal mit Wellenlängen zwischen 700 nm und 800 nm entsprechen. Von diesen Signalanteilen werden lediglich das Fluoreszenzsignal S1 und das Signal sichtbaren Lichts S2 bei dem Aufbau gemäß 2 über je einen optoelektronischen Wandler 301, 302 detektiert und über Analog/Digital-Wandler 306, 307 und elektronische Treiber 308, 309 in elektronische Datensignale D1, D2 umgewandelt. Das Fluoreszenzanregungssignal S3 hingegen wird über das Absorberelement 304 absorbiert und keiner Bildverarbeitung zugeführt.
  • Wie aus 1 ersichtlich, ist der Kamerakopf 30 über einen Anschluss 305 an Datenkabel 501, 502 angeschlossen, über die die elektronischen Datensignale D1, D2 an eine Steuer- und Verarbeitungseinheit 5 geleitet werden. Die Datenkabel 501, 502 sind hierzu über einen Anschluss 503 mit der Steuer- und Verarbeitungseinheit 5 verbunden, die in einem selben Gehäuse wie die Beleuchtungseinheit 2 angeordnet ist.
  • Die Steuer- und Verarbeitungseinheit 5 dient einerseits der Steuerung der Beleuchtungseinheit 2 und der Aufnahmeeinheit 3 und andererseits der Bildverarbeitung der empfangenen Datensignale D1, D2. Zu diesem Zweck weist die Steuer- und Verarbeitungseinheit 5 Vorverarbeitungseinheiten 511, 512 auf, die zur Vorverarbeitung des dem Fluoreszenzsignal zugeordneten elektronischen Datensignals D1 und des dem Signal sichtbaren Lichts zugeordneten elektronischen Datensignals D2 dienen. Die vorverarbeiteten Datensignale werden an eine Bildverarbeitungseinheit 513 weitergeleitet, die algorithmisch aus den Datensignalen D1, D2 ein dem Fluoreszenzsignal entsprechendes Fluoreszenzbild und ein dem Signal sichtbaren Lichts zugeordnetes Realbild erzeugt.
  • Die Bildverarbeitungseinheit 513 kann das Fluoreszenzbild und das Realbild beispielsweise miteinander fusionieren, das heißt, so überlagern, dass in einem fusionierten Bild auf dem Realbild solche Bereiche in Falschfarben angezeigt werden, in denen ein Fluoreszenzsignal vorhanden ist. Das so erzeugte Bild wird an eine Endverarbeitungseinheit 514 weitergeleitet, die das so genannte „Framing” zur Echtzeitdarstellung der erzeugten Bilder vornimmt und über einen Anschluss 515 ein Videoausgabesignal V zum Anzeigen auf einem Monitor und zur Begutachtung für einen Mediziner ausgibt.
  • Die Steuer- und Verarbeitungseinheit 5 verfügt über eine Steuereinheit 52, die die einzelnen Einheiten 511, 512, 513, 514 steuert und gleichzeitig auch die Beleuchtungseinheit 2 insbesondere unter Auswertung der empfangenen Datensignale D1, D2 regelt.
  • Eine Detailansicht einer Ausführungsform eines dichroitischen Prismas 300 ist in 3 dargestellt, wobei grundlegend auch andere Ausführungsformen Verwendung finden können. Das dichroitische Prisma 300 weist drei Teilprismen A1, A2, A3 auf, die über dichroitische Filter F1, F2 optisch miteinander gekoppelt sind. Das dichroitische Prisma 300 dient der Aufteilung eines einfallenden optischen Signals S in drei Teilsignale entsprechend einem Fluoreszenzsignal S1, einem Signal sichtbaren Lichts S2 und einem Fluoreszenzanregungssignal S3. Das einfallende optische Signal S trifft dabei zunächst auf die mit dem dichroitischen Filter F1 versehene Grenzfläche des Teilprismas A1 und wird an dieser Grenzfläche teilweise reflektiert und teilweise durchgelassen. Der dichroitische Filter F1 ist so ausgebildet, dass lediglich der Anteil des optischen Signals S im Wellenlängenbereich zwischen 700 nm und 800 nm reflektiert wird, die übrigen Anteile jedoch durchgelassen werden. Die übrigen Anteile treten so in das Teilprisma A2 ein und werden an der mit dem dichroitischen Filter F2 versehenen Grenzfläche des Teilprismas A2 teilweise reflektiert und teilweise durchgelassen. Der dichroitische Filter F2 ist so beschaffen, dass er Signale mit Wellenlängen kleiner 700 nm durchlässt, Signale mit größeren Wellenlängen jedoch reflektiert. Auf diese Weise wird das Fluoreszenzsignal S1 von dem Signal sichtbaren Lichts S2 separiert, wobei das Signal sichtbaren Lichts S2 in das Teilprisma A3 eintritt und dieses passiert, während das Fluoreszenzsignal S1 unter Totalreflektion innerhalb des Teilprismas A2 erneut reflektiert und emittiert wird.
  • Wie aus 2 ersichtlich, wird das Fluoreszenzsignal S1 und das Signal sichtbaren Lichts S2 von je einem optoelektronischen Wandler 301, 302 detektiert und umgewandelt, während das Fluoreszenzanregungssignal S3 bei dem Bildgebungssystem gemäß 1 absorbiert und nicht weiterverarbeitet wird.
  • Die Verwendung eines dichroitischen Prismas 300 ermöglicht einen kompakten Aufbau des Bildgebungssystems 1 mit seiner Aufnahmeeinheit 3. Insbesondere werden keine separaten Spiegel zur Strahlaufteilung benötigt. Die Strahlaufteilung erfolgt vollständig über ein einheitliches, kompaktes dichroitisches Prisma.
  • Das Bildgebungssystem 1 kann wahlweise endoskopisch zur Anregung fluoreszenz-optischer Signale innerhalb eines Objekts 4, wie in 1 dargestellt, oder auch offenchirurgisch zur äußeren Beleuchtung und Aufnahme von fluoreszenz-optischen Signalen außerhalb eines Objekts 4 ohne Verwendung eines Endoskops 32 eingesetzt werden. Das Endoskop 32 kann hierzu über einen Schnellverschluss von dem Objektiv 31 gelöst werden. Zur offenen Anwendung kann dann der Lichtleiter 24 beispielsweise mit einem Diffusor zur Anpassung der Abstrahlungscharakteristik und zur äußeren Beleuchtung des Objekts 4 verbunden werden.
  • Eine Verwendung eines Diffusors zur Anpassung der Abstrahlungscharakteristik ist grundlegend auch in Zusammenhang mit einem Endoskop 32 denkbar.
  • Eine weitere Ausführungsform eines Bildgebungssystems 1 ist in 4 und 5 dargestellt. Der Aufbau entspricht grundlegend dem Aufbau des Bildgebungssystems 1 gemäß 1 bis 3, wobei gleiche Bauteile soweit zweckdienlich auch mit gleichen Bezugszeichen bezeichnet sind.
  • Im Unterschied zu dem Bildgebungssystem 1 gemäß 1 bis 3 ist bei dem Bildgebungssystem 1 gemäß 4 und 5 das dichroitische Prisma 300 der Aufnahmeeinheit 3 nicht mit einem Absorberelement 304 (vergleiche 2), sondern mit einem dritten optoelektronischen Wandler 303 in Form eines CCD-Chips oder CMOS-Bauelementes verbunden (siehe 5). Das in dem dichroitischen Prisma 300 separierte Fluoreszenzanregungssignal S3 (siehe 3) wird damit in dem Aufbau gemäß 4 und 5 nicht unterdrückt, sondern separat detektiert und über einen Anlog/Digital-Wandler 309 und einen Treiber 311 in ein drittes elektronisches Datensignal D3 umgewandelt, das über einen Anschluss 305, eine Datenleitung 504 und den Anschluss 503 der Steuer- und Verarbeitungseinheit 5 zugeführt wird. In einem separaten Kanal wird das dritte elektronische Datensignal D3 über eine zusätzliche Vorverarbeitungseinheit 516 vorverarbeitet und der Bildverarbeitungseinheit 513 zugeführt, die das zusätzliche Signal in geeigneter Weise verarbeitet, daraus Informationen ableitet und beispielsweise ein aus dem Fluoreszenzanregungssignal S3 abgeleitetes Infrarotabsorptionsbild generiert und dem Realbild und/oder dem Fluoreszenzbild überlagert.
  • Die Anordnung gemäß 4 und 5 schafft damit ein Bildgebungssystem 1 mit drei Kanälen und ermöglicht die Auswertung zusätzlicher, aus dem Fluoreszenzanregungssignal abzuleitender Informationen. Beispielsweise können aus einem Infrarotabsorptionsbild Gewebebereiche erfasst werden, in denen es aufgrund nicht fluoreszierender Absorptionsmechanismen zu einer hohen Absorption kommt und die nicht im Fluoreszenzbild, wohl aber im Infrarotabsorptionsbild detektiert werden können. Zudem kann durch Subtraktion oder Verhältnisbildung des Infrarotabsorptionsbildes mit dem Fluoreszenzbild ein Rückschluss auf den Signal-zu-Rausch-Abstand gezogen werden. Auch ist möglich, das Infrarotabsorptionsbild auf eine signifikante Absorptionslinie zu legen, die beispielsweise Hämoglobin entspricht, und dieses Infrarotabsorptionsbild separat auszuwerten.
  • Grundlegend denkbar ist auch, andere dichroitische Prismen zu verwenden und unter Verwendung dieser Prismen eine Aufteilung des optischen Signals S in weitere Signalanteile vorzunehmen. 6 zeigt beispielsweise ein Vier-Kanal-Prisma, das unter Verwendung von Teilprismen A1', A2', A3', A4', A5', dichroitischen Filtern F1', F2', F3' das optische Signal S in Teilsignale S1', S2', S3', S4' aufteilt, die separat voneinander ausgewertet und bearbeitet werden können. Die Teilsignale S1', S2', S3', S4' können dabei unterschiedlichen Wellenlängenbereichen zugeordnet sein. Denkbar ist beispielsweise, mittels des Vier-Kanal-Prismas das optische Signale S in drei Farbsignale (Grundfarben Rot, Grün, Blau) und ein Fluoreszenzbild aufzuteilen. Denkbar ist auch, das optische Signal S so aufzuteilen, dass man ein Realbild, ein Fluoreszenzbild, ein Infrarotabsorptionsbild und ein Schmalbandbild (so genanntes „Narrow Band Imaging”) erhält.
  • Mittels dem so genannten „Narrow Band Imaging” kann beispielsweise die Sichtbarkeit von Kapillaren, Venen und anderen feinen Gewebestrukturen verbessert werden. Hierzu werden diskrete Wellenlängen eingesetzt, um Absorption und Reflektion zu vermindern, wobei zum einen Blau (415 nm), um die oberflächlichen Kapillaren darzustellen, und andererseits Grün (540 nm), um tiefer liegende Gefäße darzustellen, verwendet wird. Kombiniert ergibt sich daraus ein Bild der oberen Gewebeschichten mit sehr hohem Kontrast.
  • In einer ersten Anwendung eines Vier-Kanal-Prismas werden beispielsweise die drei Grundfarben Rot, Grün, Blau unter Verwendung jeweils eines Schwarzweiß-Wandlers detektiert, während im vierten Kanal das Fluoreszenzsignal mit Wellenlängen größer 800 nm detektiert wird.
  • In einer zweiten Anwendung eines Vier-Kanal-Prismas wird ein Farb-Wandler für das Realbild eingesetzt, das Fluoreszenzbild liefert ein Schwarzweiß-„NIR-Enhanced”- Wandler, das Infrarotabsorptionsbild wird ebenfalls über einen Schwarzweiß-„NIR-Enhanced”-Wandler erhalten und ein vierter Wandler arbeitet in einem „Narrow Band Imaging”-Modus.
  • In einer dritten Anwendung eines Vier-Kanal-Prismas wird ein Farbsensor für das Realbild eingesetzt, ein Schwarzweiß-„NIR-Enhanced”-Wandler für das Fluoreszenzbild, während ein dritter Wandler das blaue Band (415 nm) und ein vierter Sensor das grüne Band (540 nm) für das so genannte „Narrow Band Imaging” liefert.
  • Grundlegend ist auch bei Verwendung eines Vier-Kanal-Prismas möglich, einen oder mehrere der Signalanteile unter Verwendung eines oder mehrerer Absorberelemente zu absorbieren, um dadurch Kontrast und Signal-zu-Rausch-Abstand zu verbessern.
  • In einer weiterführenden Ausgestaltung eines Bildgebungssystems ist auch denkbar, Anregung und Aufnahme des optischen Signals S in einem Zeitmultiplex vorzunehmen, um auf diese Weise zusätzlich zur oder anstelle der Strahlaufteilung mittels des dichroitischen Prismas eine zeitliche Separation des Fluoreszenzsignals S1 und des Signals sichtbaren Lichts S2 zu erreichen. Dazu können zeitlich abwechselnde Bildaufnahmen des Realbildes und des Fluoreszenzbildes über denselben Sensor erfolgen. Realbild und Fluoreszenzbild werden dann getrennt, indem bildsynchron die beiden Lichtquellen 21, 22 für die Strahlung im Bereich des sichtbaren Lichts und für die Fluoreszenzanregungsstrahlung synchron mit der entsprechenden Bildaufnahme für den Realbild- und den Fluoreszenzbildkanal getaktet werden.
  • Zwei Ansätze sind dabei möglich:
    • 1. Wechselseitige An- und Abschaltung der Lichtquellen 21, 22 für die Fluoreszenzanregungsstrahlung und die Strahlung sichtbaren Lichts;
    • 2. Taktung ausschließlich der Fluoreszenzanregungsstrahlung und Berechnung des Fluoreszenzbildes als Differenz zwischen dem Bild mit und ohne Fluoreszenzanregung.
  • Hierzu kann grundlegend ein einheitlicher Farb-Wandler als Sensor verwendet werden. Denkbar ist aber auch, einen Aufbau wie in 1 oder 4 zu verwenden und eine zeitliche Separation zusätzlich zur Strahlaufteilung durch das dichroitische Prisma 300 vorzunehmen.
  • Bei Verwendung eines einheitlichen Farb-Wandlers kann das Licht, das auf den Farb-Wandler fällt, durch eine Bandsperre gefiltert werden, so dass keine Anregungsstrahlung auf den Farb-Wandler fällt (Anregungsstrahlungsfilter). Auf diese Weise wird möglich, über den Sensor sowohl ein Realbild in Form eines Farbbildes als auch ein Fluoreszenzbild zu detektieren.
  • Wie oben angegeben, können als optoelektronische Wandler 301, 302, 303 CCD-Chips oder CMOS-Bauelemente eingesetzt werden. Insbesondere bei Verwendung von CMOS-Sensoren kann eine effektive Fremdlichtunterdrückung erreicht werden, d. h. eine Unterdrückung solchen Lichts und solcher Strahlung, die nicht von der Beleuchtungseinheit 2 stammt, sondern von externen Lichtquellen der Umgebung, z. B. Tageslicht.
  • Grundlegend ist eine solche Fremdlichtunterdrückung auch mit CCD-Chips möglich.
  • Eine Fremdlichtunterdrückung wird durch ein so genanntes „Gating” erreicht, für dass es grundlegend zwei Anwendungsmöglichkeiten gibt:
    • 1. Unterdrückung von Störlicht (Umgebungslicht);
    • 2. Erzeugung des Realbildes und des Fluoreszenzbildes mit einer CCD-Anordnung für das Realbild und das Fluoreszenzbild im Zeitmultiplex.
  • Im Rahmen der ersten Möglichkeit kann ein Bildsensor in Form eines optoelektronischen Wandlers (analog zur Belichtungszeitauswahl bei einer Fotokamera) angesteuert werden, indem über einen Eingang am Sensor gesteuert wird, wann dieser das Signal aufnimmt. Bei Einsatz empfindlicher Sensoren (z. B. CMOS) kann dadurch die Belichtungszeit des Sensors reduziert werden, wodurch die Einflüsse von Störstrahlung unterdrückt werden und äußeres Umgebungslicht keinen Einfluss auf ein Fluoreszenzbild hat.
  • Bei der zweiten Variante kann die Aufnahme synchron mit den ebenfalls zu taktenden Lichtquellen für die Strahlung sichtbaren Lichts und die Fluoreszenzanregungsstrahlung gesteuert werden, wodurch abwechselnd ein Realbild und ein Fluoreszenzbild erhalten werden.
  • Um die Sensitivität der optoelektronischen Wandler zur Detektion der Infrarot- oder Nahinfrarotsignale zu erhöhen, kann auch ein so genanntes „Binning” eingesetzt werden, bei dem benachbarte Sensorzellen bei gleichzeitiger Reduzierung der Ortsauflösung zusammengeschlossen werden. Dadurch werden mehrere Bildpunkte der Sensoren miteinander verknüpft, indem die Signalwerte benachbarter Zellen addiert werden und dadurch ein höherer Signalwert für einen Ort erhalten wird. Die Fläche des detektierten Signalortes erhöht sich mit der Anzahl der Pixel, so dass die Ortsauflösung insgesamt abnimmt. Ein Vorteil dieser Methode gegenüber einer reinen Signalverstärkung liegt in der Mittelung des Grundrauschens.
  • Das Fluoreszenzsignal kann zusätzlich durch den Einsatz eines geeigneten Farbstoffs optimiert werden. Beispielsweise kann anstelle des Farbstoffs Indocyaningrün (ICG) eine Mischung aus ICG und Patent-Blau verwendet werden, um auf diese Weise mögliche Verunreinigungen durch den an sich unsichtbaren Fluoreszenzfarbstoff visuell sichtbar zu machen. Auf diese Weise können beispielsweise verunreinigte Tupfer sofort ausgetauscht werden, bevor sie bei einer Operation Verwendung finden.
  • Denkbar ist auch der Einsatz von kombinierten LED-Lichtquellen mit der Möglichkeit der Modulation, Taktung und Synchronisation mit der Aufnahmeeinheit 3.
  • Denkbar ist zudem, bei Verwendung eines dichroitischen Prismas 300 in seiner Drei-Kanal-Form oder Vier-Kanal-Form einen optoelektronischen Wandler durch einen Beleuchtungskanal zu ersetzen, so dass die beleuchtende Strahlung nicht über einen Diffusor oder endoskopischen Lichtleitanschluss dem Objekt 4 zugeführt wird, sondern direkt über das dichroitische Prisma 300. Am dichroitischen Prisma 300 kann hierfür ein Adapter vorhanden sein, der den Anschluss des Lichtleiters 24 der Beleuchtungseinheit 2 ermöglicht.
  • 7 und 8A, 8B zeigen schematisch eine Ausführungsform, bei dem ein optisches Signal S unter Verwendung eines dichroitischen Prismas 300' in Signalanteile S1, S2, entsprechend beispielsweise einem Signal sichtbaren Lichts und einem Fluoreszenzsignal, geteilt und durch einen zwei Teilbereiche 301', 302' aufweisenden einzigen optoelektronischen Wandler C in Form beispielsweise eines Farb-CCD-Chips (beispielsweise eines 16:9 HD-Chips) detektiert wird.
  • Wie in 7 schematisch und in 8A, 8B für eine konkrete Ausgestaltung dargestellt, wird das optische Signal S über ein dichroitisches Prisma 300' geteilt und auf verschiedene Bereiche des optoelektronischen Wandlers C abgebildet, wobei grundlegend zur Strahlteilung auch ein anderes dispersives Element, z. B. eine Spiegelanordnung oder eine andere Prismenanordnung, verwendbar ist.
  • Durch die Verwendung lediglich eines optoelektronischen Wandlers C kann zum einen die Detektorfläche des optoelektronischen Wandlers C effizient genutzt und zum anderen auch die Auswertung der detektierten Signale vereinfacht werden. Insbesondere ist die elektronische Verarbeitungskette für die nachgeschaltete Weiterverarbeitung der Bildinformationen wegen des einzig verwendeten optoelektronischen Wandlers C einsträngig.
  • Zusätzlich ergibt sich ein vorteilhaftes Bearbeitungsverfahren für die Zusammenführung der einzelnen Teilbilder. Denn die einander zugeordneten Pixel im Realbild und im Fluoreszenzbild liegen in derselben Zeile des optoelektronischen Wandlers und sind lediglich um eine bestimmte Pixelanzahl zueinander versetzt. In dem der Detektion eines Bildes folgenden Auslesevorgang unter Verwendung beispielsweise eines so genannten FPGAs oder DSPs können durch Speicherung der zuerst ausgegebenen Halbzeile und durch versetzte Ausgabe der Zeilenhälften pixelkonform die Bildinformationen parallel bearbeitet werden, so dass die Bildverarbeitung mit äußerst geringem Zeitverzug ablaufen kann. Insbesondere bei Echtzeitaufnahmen, die einem Arzt die Nachverfolgung eigener Instrumentenbewegungen ermöglichen sollen, ist dies von Vorteil.
  • 8A und 8B zeigen in einer Seitenansicht (8A) und einer Draufsicht auf den optoelektronischen Wandler C (8B) einen konkreten Aufbau, bei dem ein optoelektronischer Wandler C einem dichroitischen Prisma 300' nachgeschaltet ist und bei dem das dichroitische Prisma 300' das optische Signal S auf die Teilbereiche 301', 302' des optoelektronischen Wandlers C beispielsweise in Form eines CCD-Chips abbildet.
  • Bei der Anordnung gemäß 8A tritt die optische Strahlung S von unten in das dichroitische Prisma 300' ein und wird an einer Trennfläche des dichroitischen Prismas 300' teilweise reflektiert und teilweise transmittiert und damit in einen dem Signal sichtbaren Lichts S2 entsprechenden Anteil und einen dem Fluoreszenzsignal S1 entsprechenden Anteil getrennt. Dieses geschieht durch eine dichroitische Beschichtung der Trennfläche der Teilprismen des dichroitischen Prismas 300'.
  • Zusätzlich können Blockfilter eingesetzt werden, die auf der Eintrittsfläche des dichroitischen Prismas 300' aufgebracht oder in das gleichseitige dichroitische Prisma 300' eingebracht werden.
  • Bei der in 8A und 8B dargestellten Lösung ist eins der beiden Teilbilder gespiegelt, also seitenverkehrt. Durch die Ausführung eines Halbzeilenspeichers als LIFO-Speicher kann dies elegant korrigiert werden (bei einer alternativen Prismenanordnung ohne Spiegeleffekt müsste entsprechend ein FIFO-Speicher verwendet werden).
  • Wird als optoelektronischer Wandler ein Farb-CCD-Chip verwendet, muss die Berechnung der Farbanteile mit dem Überlagerungsvorgang der Halbzeilen in geeigneter Weise verbunden werden.
  • Selbstverständlich kann in diesem Zusammenhang auch ein optoelektronischer Wandler (C) mit drei Teilbereichen verwendet werden zur Umwandlung von drei unterschiedlichen Signalen (z. B. dem Fluoreszenzsignal S1, dem Signal sichtbaren Lichts S2 und dem Fluoreszenzanregungssignal S3).
  • 9 bis 11 zeigen drei unterschiedliche Varianten von Vorrichtungen 6 zur Projektion eines aufgenommenen Fluoreszenzbildes auf die Oberflache eines Objektes 4. Die Grundidee hierbei ist, ein aufgenommenes Fluoreszenzbild unmittelbar auf dem Objekt 4, also beispielsweise auf der Haut- oder Gewebeoberfläche eines Patienten, und damit am Ort seiner Entstehung darzustellen.
  • Herkömmlich wird ein aufgenommenes Fluoreszenzbild, das als Videoausgabesignal V ausgegeben wird, auf einem Monitor dargestellt, auf dem das Fluoreszenzbild beispielsweise in Falschfarbe einem Realbild überlagert wird. Dies hat zur Folge, dass ein begutachtender Arzt das Fluoreszenzbild ausschließlich auf dem Monitor betrachten kann, was bei einer endoskopischen Operationstechnik keine Einschränkung ist, bei einer offenchirurgischen Ausführung einer Operation an einem Patienten jedoch umständlich für den Arzt sein kann.
  • In Abkehr hiervon kann mittels der Vorrichtung 6 ein aufgenommenes Fluoreszenzbild in Echtzeit unmittelbar an dem Ort dargestellt werden, an dem es aufgenommen worden ist. Weitere optische Hilfsmittel, wie z. B. ein Monitor, sind nicht erforderlich.
  • Mittels der Vorrichtung 6 wird ein aufgenommenes Fluoreszenzbild mit Hilfe eines Projektors oder eines Zweiachsenscanners (so genannter X/Y-Scanner) auf das Objekt 4 projiziert. Die in 9 dargestellte Vorrichtung verwendet beispielsweise einen X/Y-Scanner 62, der mit Hilfe von mechanischen Motoren und Spiegelanordnungen einen von einer Lichtquelle 61 (beispielsweise ein Laser) erzeugten Lichtstrahl über ein Objektiv 63 auf das Objekt 4 projiziert, indem mittels des X/Y-Scanners 62 ein intensitätsmodulierter Strahl der Lichtquelle 61 (mit sichtbarem Licht) periodisch über den Untersuchungsbereich des Objektes 4 bewegt wird, so dass dort ein dem Fluoreszenzbild entsprechendes Indikatorbild entsteht.
  • Die Modulationsfunktion der Laserstrahlleistung kann mit dem lokalen Fluoreszenzsignal beispielsweise monoton ansteigend sein. Alternativ kann die Charakteristik der Modulationsfunktion auch zweiwertig (0/1 unter Verwendung eines Schwellwertes), linear proportional oder logarithmisch proportional ausgeführt sein.
  • Zusätzlich kann die exakte Positionierung des Fluoreszenzbildes auf dem Objekt 4, die aufgrund der zumeist unebenen Oberfläche des Objekts 4 gestört sein kann, z. B. durch Rückkopplung verbessert werden und/oder Unterschiede des lokalen Reflektionsvermögens, die das Indikatorbild gegebenenfalls verfälschen, können erfasst und in der Modulationsfunktion korrigiert werden.
  • Eine Ausführungsform einer Vorrichtung 6, bei der nicht nur ein Fluoreszenzbild auf dem Objekt 4 abgebildet, sondern gleichzeitig auch ein Signal aus dem Bereich des Objektes 4 aufgenommen wird, ist in 10 dargestellt. Bauteile gleicher Funktion sind dabei mit gleichen Bezugszeichen wie bisher versehen.
  • Die Vorrichtung gemäß 10 dient einerseits zur Projektion und Darstellung des aufgenommenen Fluoreszenzbildes, andererseits aber auch zur Aufnahme und kann hierzu dem Kamerakopf 30 der Aufnahmeeinheit 3 des Bildgebungssystems 1 gemäß 1 oder 4 vorgeschaltet sein.
  • Bei der Ausführungsform gemäß 10 erzeugt eine Lichtquelle 61' eine Fluoreszenzanregungsstrahlung in einem Wellenlängenbereich zwischen beispielsweise 700 nm und 800 nm, die über einen Strahlkombinierer 601, einen Strahlteiler 602, einen X/Y-Scanner 62 und ein Objektiv 63 zur Anregung eines Fluoreszenzsignals auf das Objekt 4 gestrahlt wird. Hierzu wird mittels des X/Y-Scanners 62 der Strahl über das Objekt 4 geführt und das Objekt 4 damit pixelweise angeregt.
  • Synchron wird das rückgestrahlte Fluoreszenzsignal über das Objektiv 63 und den X/Y-Scanner 62 sowie den Strahlteiler 602 und einen Filter 603 hin zu einem Detektor 64 geleitet. Die Aufnahme erfolgt ebenfalls pixelweise, wobei das Fluoreszenzsignal aus dem von der Lichtquelle 61' gerade angeregten Pixel erfasst wird.
  • Das so empfangene Fluoreszenzsignal wird umgewandelt und in Echtzeit über die Lichtquelle 61 als Falschfarbensignal zur Generierung des Indikatorbildes beziehungsweise des betreffenden Pixels des Indikatorbildes auf dem Objekt 4 ausgestrahlt. Der von der Lichtquelle 61 erzeugte Strahl wird dabei mittels des Strahlkombinierers 601 mit dem Strahl der Lichtquelle 61' kombiniert und ebenfalls über den X/Y-Scanner 62 und das Objektiv 63 auf das Objekt 4 gelenkt. Auf diese Weise wird auf dem Objekt 4 unmittelbar am Ort der Aufnahme in Echtzeit eine sichtbare Indikation des lokalen Fluoreszenzsignals dargestellt. Durch die schnelle Scannbewegung sieht der Betrachter auf der Gewebeoberfläche unmittelbar ein dem Fluoreszenzbild in Falschfarbe entsprechendes Indikatorbild.
  • Folgende Vorteile bestehen bei der Ausführungsform gemäß 10:
    • – es gibt keinen Bildauswertestrang, sondern nur einen einzelnen Signalverarbeitungskanal;
    • – eine Zwischenspeicherung von Bilddaten ist nicht notwendig;
    • – eine Separierung eines Fluoreszenzanregungssignals gegenüber einem Signal sichtbaren Lichts ist nicht notwendig, da ein Realbild nur im Auge des Betrachtes entsteht, das für die Fluoreszenzanregungsstrahlung nicht empfindlich ist;
    • – der Detektor 64 kann in einer bevorzugten Ausführungsform großflächig aufgebaut sein und muss keine Bewegung ausführen, da die Ortsinformation durch die aktuelle Position des X/Y-Scanners 62 vorgegeben ist;
    • – es ergibt sich ein optisch einfacher Aufbau mit hoher Empfindlichkeit im Fluoreszenzkanal, da die Detektorfläche des Detektors 64 groß gewählt werden kann;
    • – als Detektoren können einfache PIN-Dioden mit vorgesetztem Filter gegen unerwünschte Strahlanteile verwendet werden;
    • – X/Y-Scanner sind kostengünstig verfügbar;
    • – als Markierungslaser kann z. B. ein grüner Laser verwendet werden, die ebenfalls kostengünstig verfügbar sind.
  • In einer in 11 dargestellten, anderen Ausgestaltung kann ein resultierendes Fluoreszenzsignal auch über einen Detektor 64 in Form eines flächigen CCD-Chips empfangen werden. Wie vorangehend anhand von 10 beschrieben, wird dabei mittels einer Lichtquelle 61' das Objekt 4 angeregt, indem ein emittierter Strahl mittels des X/Y-Scanners 62 über das Objekt 4 geführt wird. Dadurch wird das Objekt 4 sukzessive angeregt, so dass sich eine flächige Anregung ergibt, aus deren Bereich der Detektor 64 das Fluoreszenzsignal aufnimmt. Das so aufgenommene Fluoreszenzbild kann wiederum über die Lichtquelle 61 und über den Strahlkombinierer 601 sowie den X/Y-Scanner 62 auf das Objekt 4 projiziert werden.
  • Die Vorrichtung 6 gemäß den Ausführungsformen in 9 bis 11 kann vorteilhafterweise als kompaktes, handgehaltenes Gerät ausgeführt werden und ist mit modernen Akkumulatoren auch kabellos betreibbar.
  • Die in 9 bis 11 dargestellten Ausführungsformen einer Vorrichtung zur Projektion sind grundsätzlich auch unabhängig von den in 1 bis 5 beschriebenen Bildgebungssystemen verwendbar und können daher auch als eigenständige Erfindungen betrachtet werden.
  • 1
    Bildgebungssystem
    2
    Beleuchtungseinheit
    21, 22
    Lichtquelle
    23
    Koppelelement
    24
    Lichtleiter
    240, 241
    Anschluss
    3
    Aufnahmeeinheit
    30
    Kamerakopf
    300, 300'
    Dichroitisches Prisma
    301–303
    Optoelektronischer Wandler
    301', 302'
    Teilbereich
    304
    Absorberelement
    305
    Anschluss
    306, 307, 310
    Analog/Digital-Wandler
    308, 309, 311
    Treiber
    31
    Objektiv
    32
    Endoskop
    320, 321
    Kanal
    4
    Objekt
    5
    Steuer- und Verarbeitungseinheit
    501, 502, 504
    Datenkabel
    503
    Anschluss
    511, 512, 516
    Vorverarbeitungseinheit
    513
    Bildverarbeitungseinheit
    514
    Endverarbeitungseinheit
    515
    Anschluss
    52
    Steuereinheit
    6
    Projektoreinheit
    601
    Strahlkombinierer
    602
    Strahlteiler
    603
    Filter
    61, 61'
    Strahlungsquelle
    62
    Zweiachsenscanner
    63
    Objektiv
    64
    Detektor
    A1–A3
    Teilprisma
    A1'–A5'
    Teilprisma
    C
    CCD-Chip
    D1, D2, D3
    Elektronisches Datensignal
    F1, F2
    Dichroitisches Filter
    F'
    Filter
    F1'–F3'
    Dichroitisches Filter
    S
    Optisches Signal
    S1
    Fluoreszenzsignal
    S2
    Signal sichtbaren Lichts
    S3
    Fluoreszenzanregungssignal
    S1'–S4'
    Signal
    V
    Videoausgabesignal
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 2006/0108509 A1 [0004, 0006]
    • - US 6293911 B1 [0005, 0006]

Claims (28)

  1. Bildgebungssystem zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts, mit – einer Beleuchtungseinheit, die ausgebildet und vorgesehen ist, optische Strahlung in einem vorbestimmten Wellenlängenbereich zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes zu emittieren, – einer Aufnahmeeinheit, die ausgebildet und vorgesehen ist, ein optisches Signal aus dem Bereich des Objekts aufzunehmen und das optische Signal in ein Fluoreszenzsignal mit einem ersten Wellenlängenbereich und ein Signal sichtbaren Lichts mit einem zweiten Wellenlängenbereich aufzuteilen, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (3) ein dichroitisches Prisma (30) zur Aufteilung des aufgenommenen optischen Signals (S) in das Fluoreszenzsignal (S1) und das Signal sichtbaren Lichts (S2) aufweist.
  2. Bildgebungssystem nach Anspruch 1, dadurch gekennzeichnet, dass sich der erste Wellenlängenbereich und der zweite Wellenlängenbereich voneinander unterscheiden.
  3. Bildgebungssystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der erste Wellenlängenbereich des Fluoreszenzsignals (S1) Wellenlängen größer als 800 nm enthält.
  4. Bildgebungssystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der zweite Wellenlängenbereich des Signals sichtbaren Lichts (S2) Wellenlängen kleiner als 700 nm enthält.
  5. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das dichroitische Prisma (30) mit zwei optoelektronischen Wandlern (301, 302) verbunden ist, von denen ein erster optoelektronischer Wandler (301) das Fluoreszenzsignal (S1) in ein erstes elektronisches Datensignal (D1) und von denen ein zweiter optoelektronischer Wandler (302) das Signal sichtbaren Lichts (S2) in ein zweites elektronisches Datensignal (D2) umwandelt.
  6. Bildgebungssystem nach Anspruch 5, dadurch gekennzeichnet, dass die optoelektronischen Wandler (301, 302) als CMOS-Chips oder CCD-Chips ausgebildet sind.
  7. Bildgebungssystem nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der erste optoelektronische Wandler (301) als Schwarzweiß-Wandler und der zweite optoelektronische Wandler (302) als Farb-Wandler ausgebildet ist.
  8. Bildgebungssystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das dichroitische Prisma (30) mit einem mehrere Teilbereiche (301', 302') aufweisenden optoelektronischen Wandler (C) verbunden ist, wobei von den Teilbereichen (301', 302') ein erster Teilbereich (301') das Fluoreszenzsignal (S1) in ein erstes elektronisches Datensignal (D1) und ein zweiter Teilbereich (302') das Signal sichtbaren Lichts (S2) in ein zweites elektronisches Datensignal (D2) umwandelt.
  9. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das dichroitische Prisma (30) das aufgenommene optische Signal (S) zusätzlich in ein Fluoreszenzanregungssignal (S3) mit einem dritten Wellenlängenbereich teilt, der von dem ersten Wellenlängenbereich und dem zweiten Wellenlängenbereich unterschiedlich ist.
  10. Bildgebungssystem nach Anspruch 9, dadurch gekennzeichnet, dass das Fluoreszenzanregungssignal (S3) einen Wellenlängenbereich zwischen 700 nm und 800 nm aufweist.
  11. Bildgebungssystem nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass das dichroitische Prisma (30) mit einem Absorberelement (304) verbunden ist, welches das Fluoreszenzanregungssignal (S3) absorbiert.
  12. Bildgebungssystem nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass das dichroitische Prisma (30) mit einem dritten optoelektronischen Wandler (303) verbunden ist, der das Fluoreszenzanregungssignal (S3) in ein drittes elektronisches Datensignal (D3) umwandelt.
  13. Bildgebungssystem nach Anspruch 12, dadurch gekennzeichnet, dass der dritte optoelektronische Wandler (303) als Schwarzweiß-Wandler ausgebildet ist.
  14. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahmeeinheit (3) mit einem Objektiv (31) zur Aufnahme des optischen Signals (S) außerhalb des Objekts (4) und/oder mit einem Aufnahmeeinrichtung (32) zur Aufnahme des optischen Signals (S) aus dem Inneren des Objekts (4) verbindbar ist.
  15. Bildgebungssystem nach Anspruch 14, dadurch gekennzeichnet, dass die Aufnahmeeinrichtung (32) zur Aufnahme des optischen Signals (S) aus dem Inneren des Objekts (4) ein Endoskop, ein Kolposkop, ein in das Objekt invasiv oder nicht-invasiv einführbare oder einbringbare Kamera ist.
  16. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Beleuchtungseinheit (2) zwei Lichtquellen (21, 22) aufweist, von denen eine erste Lichtquelle (21) Fluoreszenzanregungsstrahlung und eine zweite Lichtquelle (22) Strahlung im Bereich sichtbaren Lichts erzeugt.
  17. Bildgebungssystem nach Anspruch 16, dadurch gekennzeichnet, dass die von der ersten Lichtquelle (21) erzeugte Fluoreszenzanregungsstrahlung einen Wellenlängenbereich zwischen 700 nm und 800 nm aufweist.
  18. Bildgebungssystem nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass die Lichtquellen (21, 22) eine oder mehrere Lasereinheiten oder ein oder mehrere LEDs aufweisen.
  19. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Beleuchtungseinheit (2) ein optisches Koppelelement (23) zur Kopplung der Fluoreszenzanregungsstrahlung und der Strahlung im Bereich sichtbaren Lichts aufweist und die so erzeugte, gekoppelte optische Strahlung in einen Lichtleiter (24) zur Beleuchtung des Objekts (4) einkoppelt.
  20. Bildgebungssystem nach Anspruch 19, dadurch gekennzeichnet, dass der Lichtleiter (24) mit einem Element zur Anpassung der Abstrahlungscharakteristik der optischen Strahlung zur Beleuchtung des Objektes (4) von außen oder zur Beleuchtung von Bereichen innerhalb des Objektes (4) verbindbar ist.
  21. Bildgebungssystem nach Anspruch 20, dadurch gekennzeichnet, dass der Lichtleiter (24) zur Anpassung der Abstrahlungscharakteristik mit einem Diffusor und/oder einem Endoskop (32) verbindbar ist.
  22. Bildgebungssystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Bildgebungssystem (1) eine Steuer- und Verarbeitungseinheit (5) zur Steuerung der Beleuchtungseinheit (2) und/oder der Aufnahmeeinheit (3) aufweist.
  23. Bildgebungssystem nach Anspruch 22, dadurch gekennzeichnet, dass die Steuer- und Verarbeitungseinheit (5) ausgebildet ist, aus den erfassten Signalen (S, S1, S2, S3) ein aus dem Signal sichtbaren Lichts (S2) erhaltenes Realbild, ein aus dem Fluoreszenzsignal (S1) erhaltenes Fluoreszenzbild und/oder ein aus einem Fluoreszenzanregungssignal (S3) erhaltenes Infrarotabsorptionsbild zu erzeugen.
  24. Bildgebungssystem nach Anspruch 23, dadurch gekennzeichnet, dass das Fluoreszenzbild und/oder das Infrarotabsorptionsbild dem Realbild überlagert sind oder die einzelnen Bilder nebeneinander angezeigt werden.
  25. Bildgebungssystem nach einem der vorangehenden Ansprüche, gekennzeichnet durch einen Zweiachsenscanner (62) zur Projektion eines erzeugten Fluoreszenzbildes auf das Objekt (4).
  26. Bildgebungssystem nach Anspruch 25, dadurch gekennzeichnet, dass der Zweiachsenscanner (62) ausgebildet ist, einen Lichtstrahl einer Lichtquelle (61) zur Erzeugung eines Fluoreszenzbildes auf dem Objekt (4) periodisch über das Objekt (4) zu lenken.
  27. Bildgebungssystem nach Anspruch 25 oder 26, dadurch gekennzeichnet, dass der Zweiachsenscanner (62) zusätzlich ausgebildet ist, optische Strahlung einer Lichtquelle (61') auf das Objekt (4) zu lenken und/oder optische Signale von dem Objekt (4) hin zu einem Detektor (64) zu lenken.
  28. Verfahren zur fluoreszenz-optischen Visualisierung eines zweidimensionalen oder dreidimensionalen Objekts, bei dem – eine optische Strahlung in einem vorbestimmten Wellenlängenbereich zur Beleuchtung des Objekts und zur Anregung eines in dem Objekt enthaltenen fluoreszierenden Stoffes emittiert wird, – ein optisches Signal aus dem Bereich des Objekts aufgenommen und das optische Signal in ein Fluoreszenzsignal mit einem ersten Wellenlängenbereich und ein Signal sichtbaren Lichts mit einem zweiten Wellenlängenbereich aufgeteilt wird, dadurch gekennzeichnet, dass ein dichroitisches Prisma (30) das aufgenommene optische Signal (S) in das Fluoreszenzsignal (S1) und das Signal sichtbaren Lichts (S2) teilt.
DE102009024943A 2009-06-10 2009-06-10 Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts Ceased DE102009024943A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102009024943A DE102009024943A1 (de) 2009-06-10 2009-06-10 Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts
EP15167414.0A EP2932892A1 (de) 2009-06-10 2010-06-08 Bildgebungssystem und verfahren zur fluoreszenz-optischen visualisierung eines objektes
US13/376,795 US9433350B2 (en) 2009-06-10 2010-06-08 Imaging system and method for the fluorescence-optical visualization of an object
PCT/EP2010/057995 WO2010142672A1 (de) 2009-06-10 2010-06-08 Bildgebungssystem und verfahren zur fluoreszenz-optischen visualisierung eines objekts
ES10734055.6T ES2544804T3 (es) 2009-06-10 2010-06-08 Sistema de gestión de imágenes para la visualización de un objeto por óptica de fluorescencia
EP10734055.6A EP2440119B1 (de) 2009-06-10 2010-06-08 Bildgebungssystem zur fluoreszenz-optischen visualisierung eines objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009024943A DE102009024943A1 (de) 2009-06-10 2009-06-10 Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts

Publications (1)

Publication Number Publication Date
DE102009024943A1 true DE102009024943A1 (de) 2010-12-16

Family

ID=42752983

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009024943A Ceased DE102009024943A1 (de) 2009-06-10 2009-06-10 Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts

Country Status (5)

Country Link
US (1) US9433350B2 (de)
EP (2) EP2932892A1 (de)
DE (1) DE102009024943A1 (de)
ES (1) ES2544804T3 (de)
WO (1) WO2010142672A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525420A (zh) * 2011-12-16 2012-07-04 天津大学 一种多通道时域荧光层析成像系统标定方法
WO2013092498A1 (de) * 2011-12-23 2013-06-27 Osram Gmbh Endoskop
DE102011122602A1 (de) * 2011-12-30 2013-07-04 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
NL2009021C2 (en) * 2012-06-18 2013-12-23 Quest Photonic Devices B V Dichroic prism assembly for use in an endoscope tip, method for making said assembly, and endoscope comprising a said assembly.
NL2009124C2 (en) * 2012-07-05 2014-01-07 Quest Photonic Devices B V Method and device for detecting fluorescence radiation.
DE102013219521A1 (de) * 2013-09-27 2015-04-02 Carl Zeiss Meditec Ag Beleuchtungsvorrichtung für ein Fluoreszenzdiagnosesystem
DE102017108779B4 (de) 2016-05-19 2018-10-11 Panasonic Intellectual Property Management Co., Ltd. Vier-Farbtrennungsprisma, Endoskop und Endoskop-System
US11172826B2 (en) 2016-03-08 2021-11-16 Enspectra Health, Inc. Non-invasive detection of skin disease
EP4298983A1 (de) 2022-06-30 2024-01-03 Karl Storz SE & Co. KG Strahlteilungsvorrichtung für einen distalen endbereich eines endoskops, objektivsystem und endoskop

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5865606B2 (ja) * 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US9155473B2 (en) * 2012-03-21 2015-10-13 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus for skin autofluorescence
US20150201840A1 (en) * 2013-03-18 2015-07-23 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus for skin autofluorescence
US9888855B2 (en) * 2013-03-18 2018-02-13 Korea Electrotechnology Research Institute Reflection detection type measurement apparatus and method for skin autofluorescence
IL291122B2 (en) * 2013-04-23 2024-01-01 Cedars Sinai Medical Center Methods and systems for simultaneous recording of a visible light image and an infrared light image FLUOROPHORES
US9407838B2 (en) 2013-04-23 2016-08-02 Cedars-Sinai Medical Center Systems and methods for recording simultaneously visible light image and infrared light image from fluorophores
KR101514204B1 (ko) * 2013-07-12 2015-04-23 한국전기연구원 감시림프절의 근적외선 형광 검출 장치 및 방법
US9310600B2 (en) * 2013-09-09 2016-04-12 Bio-Rad Laboratories, Inc. Double fold optics
US10420608B2 (en) * 2014-05-20 2019-09-24 Verily Life Sciences Llc System for laser ablation surgery
WO2016042892A1 (ja) * 2014-09-18 2016-03-24 株式会社島津製作所 イメージング装置
CN107205613B (zh) 2015-01-22 2019-02-12 奥林巴斯株式会社 摄像装置
JP6975704B2 (ja) * 2015-02-03 2021-12-01 株式会社日立ハイテク 多色検出装置
DE102015101847B4 (de) * 2015-02-10 2017-11-02 Eyesense Gmbh Strahlteiler und Anordnung zur Untersuchung einer mittels elektromagnetischer Strahlung anregbaren Probe
JP6025130B2 (ja) * 2015-03-23 2016-11-16 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム
DE102015106806B4 (de) * 2015-04-30 2020-03-19 Carl Zeiss Meditec Ag Vorrichtung zum optischen Inspizieren von Objekten
WO2016203572A1 (ja) * 2015-06-17 2016-12-22 オリンパス株式会社 撮像装置
US10579891B2 (en) 2015-08-10 2020-03-03 AI Biomed Corp Optical overlay device
EP3940436A1 (de) * 2016-02-15 2022-01-19 Leica Instruments (Singapore) Pte. Ltd. Beleuchtungsfiltersystem und beobachtungssystem für ein multispektrales fluoreszenzmikroskop, multispektrales fluoreszenzmikroskop und mikroskopieverfahren
US10708478B2 (en) * 2016-03-23 2020-07-07 Karl Storz Imaging, Inc. Image transformation and display for fluorescent and visible imaging
JP6722883B2 (ja) * 2016-04-01 2020-07-15 国立大学法人浜松医科大学 画像取得装置および画像取得方法
JPWO2018008062A1 (ja) * 2016-07-04 2019-04-18 オリンパス株式会社 蛍光観察装置および蛍光観察内視鏡装置
JP6734386B2 (ja) * 2016-09-28 2020-08-05 パナソニック株式会社 表示システム
NL2018494B1 (en) * 2017-03-09 2018-09-21 Quest Photonic Devices B V Method and apparatus using a medical imaging head for fluorescent imaging
JP6747576B2 (ja) * 2017-03-17 2020-08-26 株式会社島津製作所 イメージング装置
JP6939000B2 (ja) * 2017-03-23 2021-09-22 株式会社Jvcケンウッド 撮像装置及び撮像方法
WO2018201082A1 (en) 2017-04-28 2018-11-01 Zebra Medical Technologies, Inc. Systems and methods for imaging and measurement of sarcomeres
EP3658978A4 (de) * 2017-07-27 2021-04-21 Invuity, Inc. Projektionsabtastsystem
JP7219002B2 (ja) * 2017-09-11 2023-02-07 i-PRO株式会社 内視鏡
US9990767B1 (en) 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
CN108209878A (zh) * 2018-03-06 2018-06-29 南京生命源医药实业有限公司 可视化系统及方法
CN108378825A (zh) * 2018-03-23 2018-08-10 张栋 一种黑白单相机实现的医用四色多光谱成像方法和装置
CN108095701B (zh) * 2018-04-25 2018-07-20 上海凯利泰医疗科技股份有限公司 图像处理系统、荧光内窥镜照明成像装置及成像方法
JP7348730B2 (ja) * 2019-02-22 2023-09-21 シスメックス株式会社 試料測定装置および試料測定方法
EP3931550A4 (de) 2019-02-26 2022-11-23 Al Biomed Corp. Gewebedetektionssysteme und verfahren zur verwendung davon
CN110346318B (zh) * 2019-08-19 2023-12-22 大连世有电力科技有限公司 一种远距离无源检测的紫外检测装置
US20210228083A1 (en) * 2020-01-23 2021-07-29 Precision Healing, Inc. Skin diagnostics using optical signatures
CN112099179B (zh) * 2020-09-30 2022-09-02 湖北华中光电科技有限公司 一种基于棱镜分光的双cmos连续变焦电视系统
US11790671B2 (en) * 2020-10-05 2023-10-17 Crazing Lab, Inc. Vision based light detection and ranging system using multi-fields of view
CN114027765B (zh) * 2020-11-20 2023-03-24 上海微觅医疗器械有限公司 荧光内窥镜系统、控制方法和存储介质
CN113143207A (zh) * 2021-03-09 2021-07-23 复旦大学 一种超宽波段双通道的活体光学成像系统
CN116849624B (zh) * 2023-08-31 2023-11-10 南京诺源医疗器械有限公司 基于4cmos的图像传感器荧光成像方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6293911B1 (en) 1996-11-20 2001-09-25 Olympus Optical Co., Ltd. Fluorescent endoscope system enabling simultaneous normal light observation and fluorescence observation in infrared spectrum
US20040186351A1 (en) * 1996-11-20 2004-09-23 Olympus Optical Co., Ltd. (Now Olympus Corporation) Fluorescent endoscope system enabling simultaneous achievement of normal light observation based on reflected light and fluorescence observation based on light with wavelengths in infrared spectrum
WO2005034747A1 (en) * 2003-09-15 2005-04-21 Beth Israel Deaconess Medical Center Medical imaging systems
US20060025692A1 (en) * 2004-07-30 2006-02-02 Olympus Corporation Endoscope apparatus
US20060108509A1 (en) 2004-09-09 2006-05-25 Frangioni John V Systems and methods for multi-modal imaging
WO2007106624A2 (en) * 2006-02-07 2007-09-20 Novadaq Technologies Inc. Near infrared imaging

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4765737A (en) * 1987-03-30 1988-08-23 Cornell Research Foundation Cell size measurements using light in flow cytometry and cell sorting
JPH06210987A (ja) 1993-01-19 1994-08-02 Canon Inc 非可視化情報記録媒体、非可視化情報検出装置並びに記録剤
DE19635038A1 (de) 1996-08-29 1998-03-12 Pulsion Verwaltungs Gmbh & Co Verfahren zur nicht invasiven Bestimmung des zerebralen Blutflusses mittels Nah-Infrarot-Spektroskopie
DE19800312A1 (de) * 1998-01-07 1999-07-08 Wolf Gmbh Richard Diagnosegerät zur bildgebenden Aufnahme fluoreszierender biologischer Gewebebereiche
US5901816A (en) 1998-02-19 1999-05-11 Camilleri; Tony C. Air cylinder-driven wheel chock
JP2000227578A (ja) * 1998-11-12 2000-08-15 Fujitsu Ltd 投写型表示装置
US6473176B2 (en) 1999-01-25 2002-10-29 Amnis Corporation Imaging and analyzing parameters of small moving objects such as cells
DE19954710C1 (de) 1999-11-17 2001-03-15 Pulsion Medical Sys Ag Vorrichtung zur Behandlung von wachsenden, erweiterten oder mißgebildeten Blutgefäßen
GB0004351D0 (en) 2000-02-25 2000-04-12 Secr Defence Illumination and imaging devices and methods
JP4459390B2 (ja) 2000-06-08 2010-04-28 浜松ホトニクス株式会社 蛍光測定方法、蛍光測定装置及びそれを用いた試料評価装置
JP4133319B2 (ja) 2000-07-14 2008-08-13 ノバダック テクノロジーズ インコーポレイテッド コンパクトな蛍光内視鏡映像システム
DE10059070C1 (de) 2000-11-28 2002-02-14 Pulsion Medical Sys Ag Vorrichtung zur Bestimmung von Gewebeperfusion und intraoperative Verwendung
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices
DE10120980B4 (de) 2001-05-01 2009-12-03 Pulsion Medical Systems Ag Verfahren, Vorrichtung und Computerprogramm zur Bestimmung des Blutflusses in einer Gewebe- oder Organregion
US20020186813A1 (en) * 2001-05-08 2002-12-12 Toshikazu Tamura Image sensing apparatus and image sensing method, X-ray photographing system and its control method
US20060241496A1 (en) 2002-01-15 2006-10-26 Xillix Technologies Corp. Filter for use with imaging endoscopes
KR100896477B1 (ko) 2002-03-20 2009-05-08 노바다크 테크놀러지즈 인코포레이티드 관을 통과하는 유체 흐름을 영상화하는 시스템 및 방법
WO2003098264A1 (fr) 2002-05-15 2003-11-27 Hamamatsu Photonics K.K. Systeme de traitement d'images et procede de traitement d'images
JP4285641B2 (ja) * 2002-08-30 2009-06-24 富士フイルム株式会社 撮像装置
US8574925B2 (en) 2002-09-19 2013-11-05 Hamamatsu Photonics K.K. Fluorescence analysis method using fluorescent-activating antibodies
EP1550871B1 (de) 2002-09-19 2009-08-12 Hamamatsu Photonics K. K. Fluoreszenzanalyseverfahren mit verwendung eines fluoreszenzantikörpers
JP4509526B2 (ja) * 2003-10-10 2010-07-21 シスメックス株式会社 細菌分析装置および方法
JP2005147826A (ja) 2003-11-14 2005-06-09 Hamamatsu Photonics Kk 蛍光測定装置
CN100443042C (zh) 2003-11-20 2008-12-17 浜松光子学株式会社 淋巴结检测装置
US8060172B2 (en) * 2004-03-29 2011-11-15 Olympus Corporation In-vivo information measurement apparatus
JP2006014868A (ja) 2004-06-30 2006-01-19 Hamamatsu Photonics Kk リンパ節検出装置
JP4425098B2 (ja) 2004-09-06 2010-03-03 浜松ホトニクス株式会社 蛍光顕微鏡および蛍光相関分光解析装置
US7798955B2 (en) 2004-10-26 2010-09-21 Olympus Corporation Image generating device for generating a fluorescence image
JP2006145501A (ja) 2004-11-24 2006-06-08 Hamamatsu Photonics Kk 赤外線検出装置
US7307774B1 (en) * 2005-01-24 2007-12-11 The Board Of Trustees Of The Leland Standford Junior University Micro-optical analysis system and approach therefor
WO2006088047A1 (ja) * 2005-02-15 2006-08-24 Mitsui Engineering & Shipbuilding Co., Ltd. 蛍光検出装置及び蛍光検出方法
DE102005019143A1 (de) * 2005-04-20 2006-11-02 Karl Storz Gmbh & Co. Kg Kombiniertes diagnose- und therapieunterstützendes System
US8185176B2 (en) 2005-04-26 2012-05-22 Novadaq Technologies, Inc. Method and apparatus for vasculature visualization with applications in neurosurgery and neurology
US20060239921A1 (en) 2005-04-26 2006-10-26 Novadaq Technologies Inc. Real time vascular imaging during solid organ transplant
CA2618443A1 (en) 2005-08-10 2007-02-15 Novadaq Technologies, Inc. Intra-operative head & neck nerve mapping
US8478386B2 (en) 2006-01-10 2013-07-02 Accuvein Inc. Practitioner-mounted micro vein enhancer
US8838210B2 (en) 2006-06-29 2014-09-16 AccuView, Inc. Scanned laser vein contrast enhancer using a single laser
US20080161744A1 (en) 2006-09-07 2008-07-03 University Of Rochester Medical Center Pre-And Intra-Operative Localization of Penile Sentinel Nodes
US20080177140A1 (en) 2007-01-23 2008-07-24 Xillix Technologies Corp. Cameras for fluorescence and reflectance imaging
US8626271B2 (en) * 2007-04-13 2014-01-07 Ethicon Endo-Surgery, Inc. System and method using fluorescence to examine within a patient's anatomy
EP2017591A1 (de) * 2007-07-18 2009-01-21 Fujifilm Corporation Abbildungsvorrichtung
WO2009028062A1 (ja) * 2007-08-30 2009-03-05 Mitsui Engineering & Shipbuilding Co., Ltd. Fret検出方法および装置
US8364246B2 (en) 2007-09-13 2013-01-29 Sure-Shot Medical Device, Inc. Compact feature location and display system
WO2009052466A1 (en) 2007-10-19 2009-04-23 Luminetx Corporation Imaging system using infrared light
ES2430209T3 (es) * 2008-01-16 2013-11-19 Telefonaktiebolaget Lm Ericsson (Publ) Método y dispositivo para detectar la apertura de una cubierta que encierra al dispositivo

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6293911B1 (en) 1996-11-20 2001-09-25 Olympus Optical Co., Ltd. Fluorescent endoscope system enabling simultaneous normal light observation and fluorescence observation in infrared spectrum
US20040186351A1 (en) * 1996-11-20 2004-09-23 Olympus Optical Co., Ltd. (Now Olympus Corporation) Fluorescent endoscope system enabling simultaneous achievement of normal light observation based on reflected light and fluorescence observation based on light with wavelengths in infrared spectrum
WO2005034747A1 (en) * 2003-09-15 2005-04-21 Beth Israel Deaconess Medical Center Medical imaging systems
US20060025692A1 (en) * 2004-07-30 2006-02-02 Olympus Corporation Endoscope apparatus
US20060108509A1 (en) 2004-09-09 2006-05-25 Frangioni John V Systems and methods for multi-modal imaging
WO2007106624A2 (en) * 2006-02-07 2007-09-20 Novadaq Technologies Inc. Near infrared imaging

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525420B (zh) * 2011-12-16 2013-07-10 天津大学 一种多通道时域荧光层析成像系统标定方法
CN102525420A (zh) * 2011-12-16 2012-07-04 天津大学 一种多通道时域荧光层析成像系统标定方法
WO2013092498A1 (de) * 2011-12-23 2013-06-27 Osram Gmbh Endoskop
DE102011122602A8 (de) * 2011-12-30 2014-01-23 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
DE102011122602A1 (de) * 2011-12-30 2013-07-04 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
DE102011122602A9 (de) * 2011-12-30 2013-08-29 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
NL2009021C2 (en) * 2012-06-18 2013-12-23 Quest Photonic Devices B V Dichroic prism assembly for use in an endoscope tip, method for making said assembly, and endoscope comprising a said assembly.
NL2009124C2 (en) * 2012-07-05 2014-01-07 Quest Photonic Devices B V Method and device for detecting fluorescence radiation.
WO2014007625A1 (en) * 2012-07-05 2014-01-09 Quest Photonic Devices B.V. Method and device for detecting fluorescence radiation
DE102013219521A1 (de) * 2013-09-27 2015-04-02 Carl Zeiss Meditec Ag Beleuchtungsvorrichtung für ein Fluoreszenzdiagnosesystem
US11172826B2 (en) 2016-03-08 2021-11-16 Enspectra Health, Inc. Non-invasive detection of skin disease
US11877826B2 (en) 2016-03-08 2024-01-23 Enspectra Health, Inc. Non-invasive detection of skin disease
DE102017108779B4 (de) 2016-05-19 2018-10-11 Panasonic Intellectual Property Management Co., Ltd. Vier-Farbtrennungsprisma, Endoskop und Endoskop-System
US10271024B1 (en) 2016-05-19 2019-04-23 Panasonic Intellectual Property Management Co., Ltd. Four color separation prism
US10560671B2 (en) 2016-05-19 2020-02-11 Panasonic I-Pro Sensing Solutions Co., Ltd. Medical camera
US10244213B2 (en) 2016-05-19 2019-03-26 Panasonic Intellectual Property Management Co., Ltd. Endoscope and endoscope system
US10122975B2 (en) 2016-05-19 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Endoscope and endoscope system
EP4298983A1 (de) 2022-06-30 2024-01-03 Karl Storz SE & Co. KG Strahlteilungsvorrichtung für einen distalen endbereich eines endoskops, objektivsystem und endoskop
DE102022116292A1 (de) 2022-06-30 2024-01-04 Karl Storz Se & Co. Kg Strahlteilungsvorrichtung für einen distalen Endabschnitt eines Endoskops, Objektivsystem und Endoskop

Also Published As

Publication number Publication date
ES2544804T3 (es) 2015-09-04
EP2440119A1 (de) 2012-04-18
US20120268573A1 (en) 2012-10-25
EP2440119B1 (de) 2015-05-13
WO2010142672A1 (de) 2010-12-16
US9433350B2 (en) 2016-09-06
EP2932892A1 (de) 2015-10-21

Similar Documents

Publication Publication Date Title
EP2440119B1 (de) Bildgebungssystem zur fluoreszenz-optischen visualisierung eines objekts
EP2108943B1 (de) Vorrichtung und Verfahren zur Fluoreszenz-Bildgebung
EP3152549B1 (de) Verfahren und mittel für multispektrale bildgebung
DE60122894T2 (de) Kompaktes fluorezenz endoskopisches video system
DE69535270T2 (de) Verfahren und Vorrichtung zur Bilderzeugung von erkranktem Gewebe unter Verwendung der integrierten Autofluoreszenz
DE10362402B3 (de) Mikroskopiesystem und Mikroskopieverfahren
EP0805348B1 (de) Anordnung zur Diagnose von malignem Gewebe durch Fluoreszenzbetrachtung
DE69725361T2 (de) Bildaufnahmesystem zur Erfassung von krankem Gewebe mit nativer Fluoreszenz in Verdauungs- und Atemwegen
DE10141559B4 (de) Videoendoskopsystem und Beleuchtungsoptik
DE102011016138A1 (de) Vorrichtung zur Fluoreszenzdiagnose
DE19626433A1 (de) Endoskopkopf
DE10139009A1 (de) Videoendoskopsystem
DE60014702T2 (de) Tragbares system zur ermittlung von hautanomalien
EP3939488A1 (de) Stereoendoskop
EP3884840A1 (de) Medizinische bildgebungsvorrichtung zur ortsaufgelösten aufnahme multispektraler videodaten
DE19548913A1 (de) Vorrichtung zur photodynamischen Diagnose
DE102017210274A1 (de) Mikroskopiesystem und Mikroskopieverfahren zur Aufnahme von Fluoreszenzlichtbildern und Weißlichtbildern
DE60020986T2 (de) Farbbildaufnahmegerät für schwaches licht
EP1414336A2 (de) System für die fluoreszenzdiagnostik
DE102021133248B4 (de) Endoskopie-Vorrichtung und Endoskopie-System
DE102014224554B4 (de) Verfahren und System zum Erzeugen von digitalen Farbbildern oder Videosequenzen
DE102020132978A1 (de) Erfassung von Bildern eines medizinischen Objekts in Weißlicht und Fluoreszenzlicht
DE102020132982A1 (de) Erfassung von Bildern eines medizinischen Objekts in Weißlicht und Fluoreszenzlicht
WO2024074522A1 (de) Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung
WO2024079275A1 (de) Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R081 Change of applicant/patentee

Owner name: W. O. M. WORLD OF MEDICINE GMBH, DE

Free format text: FORMER OWNER: W.O.M. WORLD OF MEDICINE AG, 10587 BERLIN, DE

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE, DE

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final