WO2024074522A1 - Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung - Google Patents

Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung Download PDF

Info

Publication number
WO2024074522A1
WO2024074522A1 PCT/EP2023/077373 EP2023077373W WO2024074522A1 WO 2024074522 A1 WO2024074522 A1 WO 2024074522A1 EP 2023077373 W EP2023077373 W EP 2023077373W WO 2024074522 A1 WO2024074522 A1 WO 2024074522A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
images
image
imaging device
spectral range
Prior art date
Application number
PCT/EP2023/077373
Other languages
English (en)
French (fr)
Inventor
Werner Göbel
Lukas Buschle
Benedikt Köhler
Original Assignee
Karl Storz Se & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Karl Storz Se & Co. Kg filed Critical Karl Storz Se & Co. Kg
Publication of WO2024074522A1 publication Critical patent/WO2024074522A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/0076Optical details of the image generation arrangements using fluorescence or luminescence
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]

Definitions

  • the invention relates to a medical imaging device, in particular an endoscope device, exoscope device and/or microscope device, a method for medical imaging, associated program code and an associated computer program product.
  • Imaging devices for carrying out fluorescence imaging are known from the state of the art and can record both fluorescence images and white light images.
  • Suitable excitation light is used to specifically excite fluorescent dyes or, where appropriate, natively occurring fluorescent substances and to detect emitted light and use it for imaging.
  • a white light image is often recorded in parallel or sequentially. The user can use the white light image to assess whether the anatomical structure is being imaged. Fluorescence images and white light images can also be superimposed, which means that anatomical information and fluorescence information can be perceived and analyzed by a user at the same time.
  • Imaging devices such as endoscopic or exoscopic devices that generate multispectral or hyperspectral images are also known from the prior art.
  • multispectral or hyperspectral images In addition to two spatial dimensions, such as a conventional image from a camera, multispectral or hyperspectral images have a spectral dimension.
  • the spectral dimension includes several spectral bands (wavelength bands).
  • Multispectral and hyperspectral images differ essentially in the number and width of their spectral bands. Such systems can in principle also be suitable for taking fluorescence images.
  • DE 20 2014 010 558 U1 describes a device for recording a hyperspectral image of an examination area of a body.
  • the device has an input lens for generating an image in an image plane and a slit-shaped aperture in the image plane for masking out a slit-shaped area of the image.
  • the image captured by the aperture The light passing through is spread out by means of a dispersive element and recorded by a camera sensor. This allows the camera sensor to record a large number of spectra, each with an associated spatial coordinate, along the longitudinal direction of the slit-shaped aperture.
  • the device described is also designed to record further spectra along the longitudinal direction of the slit-shaped aperture in a direction different from the longitudinal direction of the slit-shaped aperture.
  • the method underlying this disclosure for generating multispectral or hyperspectral images is also known as the so-called pushbroom method.
  • whiskbroom method the area under investigation or object is scanned point by point and a spectrum is obtained for each point.
  • staring method several images are taken with the same spatial coordinates. Different spectral filters and/or illumination sources are used from image to image to resolve spectral information.
  • a two-dimensional multi-color image is broken down into several individual spectral images using suitable optical elements such as optical slicers, lenses and prisms, which are recorded simultaneously on different detectors or detector areas. This is sometimes referred to as the snapshot approach.
  • multispectral and hyperspectral imaging devices are particularly suitable as endoscopic imaging devices.
  • multispectral and/or hyperspectral imaging is a fundamental field of application, for example for diagnostics and for assessing the success or quality of an intervention.
  • Multimodal imaging devices allow the acquisition of either white light images and/or multispectral images and/or fluorescence images and/or hyperspectral images. Examples of such imaging devices are multimodal endoscopes and multimodal exoscopes.
  • tissue is illuminated in a specific wavelength range to capture fluorescence images in order to specifically excite fluorescent dye molecules introduced into certain entities, such as tissue areas.
  • the light then emitted with red-shifted wavelength can be observed through a suitably selected filter, by means of which excitation light can be blocked out. If the wavelength ranges of the excitation light and the emitted light are in the longer wavelength range relative to white light used for parallel or sequential white light imaging, in particular in the near infrared range, i.e. outside of visible white light, white light imaging is possible through the filter despite these observation filters.
  • white light imaging is possible through the filter despite these observation filters.
  • dyes that can be excited with visible light have been increasingly used.
  • the known method of image generation cannot be implemented here because the filters required for fluorescence imaging impair the white light image by blocking visible light in certain wavelength ranges or usually only or at least primarily transmitting light below a certain wavelength. If fluorescent dyes are used that are to be excited in the visible range, the aforementioned parallel or sequential white light recording cannot be implemented. If the white light image is omitted, however, it is difficult for the user to correctly assess anatomical structures.
  • the invention is based on the object of enabling fluorescence imaging in a wide range of applications.
  • a medical imaging device in particular an endoscope device, exoscope device and/or microscope device, comprises according to the invention an illumination unit with at least one light source, which is designed to provide illumination light for illuminating an object to be imaged.
  • the medical imaging device comprises an image acquisition unit, which comprises at least one image acquisition sensor system and at least one observation filter.
  • the observation filter is designed to block light in a first spectral range, which comprises visible light, and to transmit light in a second spectral range that is different from the first spectral range.
  • the image acquisition unit is designed to record fluorescence images of the object to be imaged through the observation filter, during the recording of which illumination light, the spectrum of which lies at least partially within the first spectral range, is used as excitation light.
  • the image capture unit is set up to record anatomical images of the object to be imaged, during the recording of which illumination light, the spectrum of which lies at least partially within the second spectral range, is used and during the recording of which light remitted by the object to be imaged, the spectrum of which lies at least partially within the second spectral range, is detected by the image capture sensor system.
  • the medical imaging device comprises a representation generation unit which is set up to generate at least one representation from the fluorescence images and the anatomical images.
  • a method according to the invention can be carried out in particular with the medical imaging device according to the invention.
  • the method comprises providing illumination light for illuminating an object to be imaged.
  • the method further comprises recording fluorescence images of the object to be imaged through an observation filter which is designed to block light in a first spectral range which includes visible light and to transmit light in a second spectral range different from the first spectral range, wherein when recording the fluorescence images, illumination light whose spectrum lies at least partially within the first spectral range is used as excitation light and light emitted by the object to be imaged whose spectrum lies at least partially within the second spectral range is detected.
  • the method also includes recording anatomical images of the object to be imaged, wherein, when recording the anatomical images, illumination light whose spectrum lies at least partially within the second spectral range is used and light remitted by the object to be imaged whose spectrum lies at least partially within the second spectral range is detected.
  • the features of the invention allow imaging to be carried out in a wide range of applications.
  • fluorescent dyes that absorb in the visible range can be used and at the same time a user can be provided with a meaningful anatomical image.
  • the features according to the invention mean that a fluorescence image and an anatomical image can be recorded even when fluorescence is excited in the visible range, without having to swing filters in and out of the beam path between the individual recordings.
  • anatomical images do not have to be completely dispensed with, even if fluorescence is to be excited in the visible range.
  • the imaging device can be a microscopic, macroscopic and/or exoscopic imaging device.
  • the imaging device can be designed as a microscope, macroscope and/or exoscope and/or comprise such a device.
  • the imaging device can be an endoscopic imaging device.
  • the imaging device can be an endoscope device. It can comprise an endoscope and/or an endoscope system and/or be designed as such and/or form at least a part and preferably at least a major part and/or main component of an endoscope and/or an endoscope system.
  • At least a major part can mean at least 55%, preferably at least 65%, preferably at least 75%, particularly preferably at least 85% and most preferably at least 95%, in particular with reference to a volume and/or a mass of an object.
  • the imaging device is designed to be insertable into a cavity for assessment and/or observation, for example into an artificial and/or natural cavity, such as into the interior of a body, into a body organ, into tissue or the like.
  • the imaging device can also be designed to be insertable into a housing, casing, shaft, pipe or other, in particular artificial, structure for assessment and/or observation.
  • the imaging device can be configured to record tissue parameters, images of wounds, images of body parts, etc.
  • the imaging device can be configured to image a surgical field.
  • the image capture sensor system can be configured to detect light in both the visible range and the near-infrared range.
  • a smallest detectable wavelength can be at most 500 nm, at most 450 nm, or even at most 400 nm.
  • a largest detectable wavelength can be at least 800 nm, at least 900 nm, or even at least 1000 nm.
  • the image capture sensor system can, for example, comprise at least one white light image sensor and at least one near-infrared image sensor.
  • the imaging device comprises a white light camera and/or sensors for white light image capture.
  • the imaging device can be configured for white light imaging.
  • the anatomical images can be recorded using the white light camera and/or the sensors for white light image capture.
  • the image capture unit can have a filter unit with optical observation filters.
  • the filter unit can define several fluorescence modes that are defined by different observation filters. For example, different edge filters can be used that absorb/block the respective spectrum of the associated light element used for excitation and at least essentially only transmit fluorescent light.
  • the observation filter that blocks light in the first spectral range is then part of the filter unit.
  • the observation filters can also be switchable between a multispectral mode and a fluorescence mode.
  • the imaging device and in particular an optics and/or the image capture sensor system can be set up for multispectral and/or hyperspectral imaging, in particular for capturing and/or generating multispectral and/or hyperspectral image data.
  • Multispectral imaging or multispectral image data can refer in particular to such imaging in which at least two, in particular at least three, and in some cases at least five spectral bands can be and/or are captured independently of one another.
  • Hyperspectral imaging or hyperspectral image data can refer in particular to such imaging in which at least 20, at least 50 or even at least 100 spectral bands can be and/or are captured independently of one another.
  • the imaging device can be set up according to the pushbroom method and/or according to the Whiskbroom method and/or the staring method and/or a snapshot principle.
  • hyperspectral imaging is a good option.
  • This can be combined with white light imaging. This enables real-time observation via a white light image, even if the acquisition of spectrally resolved image data only takes place essentially in real time, i.e., for example, several seconds are needed to create a spectrally resolved image.
  • Spectrally resolved image data that is acquired in real time or delivers several images per second can also be used for surveillance purposes, whereby it is not necessarily necessary to create an image for a user to display, but the image data can also be processed in the background.
  • the medical imaging device can have at least one proximal section, one distal section and/or one intermediate section.
  • the distal section is designed in particular to be introduced into and/or located in a cavity to be examined in an operating state, for example during the diagnostic and/or therapeutic action.
  • the proximal section is designed in particular to be arranged outside the cavity to be examined in an operating state, for example during the diagnostic and/or therapeutic action.
  • “Distal” is to be understood as facing a patient and/or facing away from a user in particular during use.
  • Proximal is to be understood as facing away from a patient and/or facing away from a user in particular during use.
  • proximal is the opposite of distal.
  • the medical imaging device has in particular at least one, preferably flexible, shaft.
  • the shaft can be an elongated object. Furthermore, the shaft can at least partially and preferably at least to a large extent cover the distal section.
  • An "elongated object” is to be understood in particular as an object whose main extension is at least a factor of five, preferably at least a factor of ten and particularly preferably at least a factor of twenty larger than a largest extension of the object perpendicular to its main extension, i.e. in particular a diameter of the object.
  • a "main extension” of an object is to be understood in particular as its longest extension along its main extension direction.
  • a “main extension direction” of a component is to be understood in particular as a direction which runs parallel to a longest edge of a smallest imaginary cuboid which just completely encloses the component.
  • the image capture unit can be arranged at least partially and preferably at least for the most part in the area of the proximal section and/or form this. In other embodiments, the image capture unit can be arranged at least partially and preferably at least for the most part in the distal section and/or form this. Furthermore, the image capture unit can be arranged at least partially distributed over the proximal section and the distal section.
  • the image capture sensor system has in particular at least one image sensor. Furthermore, the image capture sensor system can also have at least two and preferably several image sensors, which can be arranged one behind the other.
  • the two and preferably several image capture sensors can have spectral detection sensitivities that are different from one another, so that, for example, a first sensor in a red spectral range, a second sensor in a blue spectral range and a third sensor in a green spectral range is particularly sensitive or comparatively more sensitive than the other sensors.
  • the image sensor can be designed as a CCD sensor and/or a CMOS sensor.
  • An optics of the image capture unit can comprise suitable optical elements such as lenses, mirrors, gratings, prisms, optical fibers, etc.
  • the optics can be configured to guide object light coming from an imaged object to the image capture sensor system, for example to focus and/or project it.
  • the image acquisition unit is in particular designed to generate at least two-dimensional spatial image data.
  • the image acquisition unit can be spatially resolving in such a way that it can be divided into at least two different Spatial directions each provide a resolution of at least 100 pixels, preferably of at least 200 pixels, preferably of at least 300 pixels and advantageously of at least 400 pixels.
  • the image data are preferably at least three-dimensional, with at least two dimensions being spatial dimensions and/or with at least one dimension being a spectral dimension.
  • Several spatially resolved images of the image area can be obtained from the image data, each of which is assigned to different spectral bands.
  • the spatial and spectral information of the image data can be such that an associated spectrum can be obtained from it for several spatial pixels.
  • the image acquisition unit is configured to generate continuously updated image data.
  • the image acquisition unit can, for example, be configured to generate the image data substantially in real time, which includes, for example, generating updated image data at least every 30 seconds, in some cases at least every 20 seconds, and in some cases even at least every 10 seconds or at least every 5 seconds.
  • the image acquisition unit is configured to generate at least the anatomical images and the fluorescence images as well as the representation based thereon in real time, for example with a frame rate of at least 5 fps, at least 10 fps, at least 20 fps, or even at least 30 fps.
  • the lighting unit can be multimodal and comprise a plurality of independently selectable activatable lighting elements which are designed to emit light according to different emission spectra in order to provide the illumination light.
  • visible light can refer here in particular to light with a wavelength between 400 nm and 750 nm. In general, this means light that is perceptible to the human eye.
  • the first spectral range in particular only comprises a partial range of visible light.
  • the second spectral range can also comprise visible light.
  • the observation filter can be an edge filter, in particular a high-pass filter. The edge of the observation filter or, in general terms, the first spectral range can be selected to match the fluorescent dye used. If, for example, fluorescein or Cy5 is used as the dye, excitation takes place in the middle of the visible range, in particular at a distance from its edges, for example at about 430 nm for fluorescein or at about 660 nm for Cy5.
  • the excitation light In order to In order not to distort fluorescence images by excitation light, the excitation light must be blocked accordingly.
  • the first spectral range must then be selected such that the excitation light is blocked at least.
  • an edge filter with an edge at about 450 nm could be selected.
  • Cy5 for example, an edge filter with an edge at about 680 nm could be selected.
  • the first spectral range and the second spectral range preferably border on one another at least substantially. A spacing between the spectral ranges can, for example, be defined only by a width of the filter edge.
  • the first spectral range and/or the second spectral range can comprise several sub-ranges that can be spaced apart from one another.
  • the second spectral range extends into the near-infrared range beyond the visible range.
  • the light detected when recording the anatomical images can also be at least in the near-infrared range, for example in a wavelength range beyond 800 nm, beyond 850 nm, or even beyond 900 nm.
  • the fluorescence images and the anatomical images can be recorded in parallel or sequentially.
  • both the fluorescence images and the anatomical images are moving images.
  • Images can be recorded particularly easily and at short time intervals if the image capture unit is set up to record the anatomical images of the object to be imaged through the observation filter.
  • the observation filter can therefore be permanently located in the beam path for both the anatomical images and the fluorescence images during the recording and display of a superimposed anatomical and fluorescence image. It can be changed, for example, if a different excitation wavelength and/or a different imaging mode is selected.
  • the observation filter is located in particular in front of an optical input of an image capture sensor system of the imaging device. As mentioned, this can comprise sensors that respond in different spectral ranges; the observation filter is nevertheless expediently located in front of the All of these sensors are arranged in front of the image capture sensors. This means that different filters can be used easily without the filters having to be integrated directly into the sensors.
  • the observation filter can be integrated into the image capture sensor system.
  • different image sensors can be equipped with different observation filters.
  • the anatomical images and the fluorescence images can then be captured using disjoint groups of image sensors. Images can be recorded in parallel. In this case, the observation spectral range used for fluorescence image capture is not available for anatomical image capture.
  • a smallest wavelength of the first spectral range can be greater than 430 nm and in particular greater than 500 nm.
  • a largest wavelength of the first spectral range can be less than 800 nm and in particular less than 700 nm.
  • the illumination light used as excitation light for fluorescence imaging is narrow-band.
  • the illumination light can originate from at least one colored LED, laser diode or another light element that emits at least substantially monochromatically.
  • the medical imaging device comprises a lighting device which comprises the lighting unit.
  • the lighting device can comprise an optical interface for optically connecting an imaging device.
  • the lighting unit can be configured to supply lighting light to the optical interface.
  • the lighting unit can be multimodal and comprise a plurality of independently selectably activatable lighting elements which are configured to emit light according to different emission spectra in order to supply the lighting light.
  • the lighting unit can be operable in at least one multispectral mode in which a first group of the lighting elements is at least temporarily activated and in which the lighting unit supplies lighting light for multispectral imaging.
  • the lighting unit can be operable in at least one fluorescence mode in which a second group of the lighting elements is at least temporarily activated and in which the lighting unit supplies lighting light for fluorescence imaging.
  • the Lighting elements may comprise at least one lighting element included in both the first group and the second group.
  • the illumination device comprises an optical interface for optically connecting an imaging device and an illumination unit which is designed to supply illumination light to the optical interface, wherein the illumination unit comprises a plurality of independently selectably activatable lighting elements which are designed to emit light according to different emission spectra in order to supply the illumination light.
  • the method comprises the step of at least temporarily activating a first group of the lighting elements in order to supply illumination light for multispectral imaging and the step of at least temporarily activating a second group of the lighting elements in order to supply illumination light for fluorescence imaging. At least one of the lighting elements is at least temporarily activated both when the first group of the lighting elements is at least temporarily activated and when the second group of the lighting elements is at least temporarily activated.
  • the optical interface can be either detachable or connectable.
  • the optical interface can be combined with a mechanical interface so that an optical connection is automatically established, for example, when the imaging device is mechanically coupled.
  • the lighting elements can comprise single-color LEDs (light-emitting diodes) and/or laser diodes. Furthermore, at least one of the lighting elements can be a white light LED or another white light source. In some embodiments, the lighting unit comprises at least one blue lighting element, at least one red lighting element, at least one dark red lighting element and at least one near-IR lighting element (near-infrared lighting element), in particular LEDs or laser diodes. In addition, the lighting unit can comprise at least one white light LED or another white light source.
  • the first group may comprise at least two light elements that emit spectrally differently.
  • a high degree of efficiency in multispectral imaging can be achieved if the multispectral mode comprises different states in each of which a specific light element or a certain type of light element is activated at least temporarily. This allows targeted illumination in a certain spectral range, whereby different spectral images can be captured.
  • Different light elements that are activated in different states can serve as different support points for the multispectral imaging. At least one of these support points can be selected such that it is adapted to characteristic points of absorption spectra of physiologically relevant components, for example to an isosbestic point of the hemoglobin oxygenation curve.
  • the multispectral imaging can additionally include the use of suitable observation filters.
  • the second group can comprise at least two light elements that emit spectrally differently.
  • the fluorescence mode can comprise different sub-modes and/or states in each of which a specific light element or a specific type of light element is activated at least temporarily. This allows targeted excitation in a specific spectral range so that fluorescence imaging can be carried out, for example, for a specifically selected dye.
  • the at least one light element that is contained in both the first group and the second group can be used for both the multispectral mode and the fluorescence mode.
  • the first group comprises only some but not all of the light elements.
  • the second group comprises only some but not all of the light elements.
  • the multispectral mode in particular, only light elements of the first group are activated at least temporarily, whereas light elements that do not belong to the first group are deactivated.
  • the fluorescence mode in particular, only light elements of the second group are activated at least temporarily, whereas light elements that do not belong to the second group are deactivated.
  • the light elements can comprise different light element types and that, in particular, exactly one light element can be present in each of the different light element types. It is understood that mixed operating modes can also occur according to the invention, in which the modes mentioned are used sequentially.
  • multispectral imaging and fluorescence imaging can be carried out sequentially. Synergy with regard to the use of a light element for different modes and associated efficiency gains can be achieved in particular if at least one light element contained in both the first group and the second group emits light in the red spectral range, in particular in a spectral range between 600 nm and 680 nm, for example between 610 nm and 650 nm or between 620 and 660 nm or between 630 and 670 nm.
  • the spectral range can be narrowband and include the wavelength 660 nm.
  • “Narrowband” can include a spectral width of at most 80 nm, in particular of at most 40 nm or even of at most 20 nm.
  • This at least one light element can be designed to excite dyes absorbing in the red spectral range and to contribute to the illumination in the red spectral range for multispectral imaging.
  • the illumination unit can be operated in at least one white light mode in which the illumination unit supplies illumination light for white light imaging.
  • the illumination light for white light imaging can be broadband white light.
  • the illumination light for white light imaging can comprise several narrow wavelength bands that are separated from one another, for example a blue, a red and a dark red band. "Dark red” is to be understood in the sense of "longer wavelength than red” and refers to the spectral position, not the light intensity.
  • the illumination light for white light imaging can be mixed from light from different lighting elements.
  • a third group of the lighting elements can be activated at least temporarily to provide the illumination light for the white light imaging.
  • the lighting elements can comprise at least one lighting element that is contained in both the first group and/or the second group and the third group.
  • the third group can comprise only some but not all of the lighting elements.
  • the lighting unit can comprise lighting elements that serve one, two or all three of the aforementioned lighting modes. This allows multiple lighting elements to be used multiple times.
  • At least one light element contained in both the first group and/or the second group and the third group can emit light in the red spectral range, in particular in a spectral range between 600 nm and 680 nm, for example between 610 nm and 650 nm or between 620 and 660 nm or between 630 and 670 nm.
  • the advantages of using light elements together are particularly evident when at least one red light element can be used for all three modes.
  • At least one light-emitting element contained in both the first group and/or in the second group and in the third group can emit light in the blue spectral range, in particular in a spectral range between 440 and 480 nm.
  • At least one blue light-emitting element can expediently be used both in fluorescence mode and in white light mode.
  • the lighting elements can comprise at least one, in particular blue, lighting element that emits light in a spectral range between 440 and 480 nm.
  • the lighting elements can comprise at least one, in particular red, lighting element that emits light in a spectral range between 600 and 680 nm, for example between 610 nm and 650 nm or between 620 and 660 nm or between 630 and 670 nm.
  • the lighting elements can comprise at least one, in particular dark red, lighting element that emits light in a spectral range between 750 and 790 nm.
  • the lighting elements can comprise at least one, in particular near-IR emitting, lighting element that emits light in a spectral range between 920 and 960 nm.
  • the lighting elements can comprise a white light lighting element.
  • a compact and versatile lighting unit can be provided in particular if at least one lighting element of each of the above-mentioned lighting element types is present.
  • the blue and red lighting elements can be used, and in the case of suitable dyes, the dark red lighting element can also be used.
  • the dark red and near-IR emitting lighting elements can be used.
  • white light mode the white light lighting element can be used.
  • the blue lighting element and, if necessary, the red lighting element can be supplemented by the blue lighting element and, if necessary, the red lighting element.
  • the white light lighting element delivers a reduced intensity, for example due to its construction but in particular due to filters and optical elements of the lighting unit.
  • the colored lighting elements can be used to set a color temperature for white light imaging.
  • the second group comprises a single light element and/or a single type of light element.
  • a white light light element, a red light element and an IR-emitting light element can be provided, with particular reference being made to the above values with regard to possible spectral ranges.
  • the first group can then comprise, for example, the red and the IR-emitting light element.
  • the second group can comprise the IR-emitting light element, in particular as the only light element or as the only type of light element.
  • the lighting unit comprises at least one crossed beam splitter, by means of which light can be deflected from opposite input sides to an output side, with at least one of the lighting elements being arranged on the opposite input sides of the crossed beam splitter.
  • two or more crossed beam splitters can be provided, which are optically arranged one behind the other.
  • the at least one crossed beam splitter can comprise two beam splitter elements, the permeability of which is adapted to the respectively assigned lighting element.
  • the beam splitter elements each comprise in particular a notch filter, so that they each reflect in a narrow spectral band, but otherwise transmit.
  • the spectral position and/or width of the corresponding notch can be adapted to the spectral range of the respectively assigned lighting element, so that its light is deflected, but light from other lighting elements is at least largely transmitted.
  • the lighting elements can comprise at least four narrow-band emitting single-color lighting elements, each with different spectral ranges, and at least one broadband emitting white light lighting element.
  • the colored lighting elements can comprise at least four narrow-band emitting single-color lighting elements, each with different spectral ranges, and at least one broadband emitting white light lighting element.
  • a wide range of functions in combination with a compact design and the exploitation of synergy effects when using lighting elements can be achieved in particular if the lighting unit can be operated in at least one hyperspectral mode in which several lighting elements are activated, the emission spectra of which together cover at least a spectral range from 450 nm to 850 nm, and in which the lighting unit provides illumination light for Hyperspectral imaging. This can include all of the light elements.
  • suitable polarization filters can be used for the optical filters mentioned here.
  • at least one crossed beam splitter can be used, the beam splitter elements of which are provided with polarization filters. Selective permeability can then be achieved by combining different polarizations.
  • the representation generated by the representation generation unit from the fluorescence images and the anatomy images can comprise a combination representation, in particular an overlay representation based on a combination of fluorescence images and anatomy images.
  • a user can then particularly easily assign fluorescence information to anatomy information.
  • the fluorescence images and the anatomy images can be directed at the same object, in particular the same anatomy.
  • Image sections can differ from one another.
  • the imaging device can comprise a display and/or be provided for connection to a display.
  • a corresponding interface can be present for this purpose.
  • the representation generation unit can be set up to generate the representations for the display.
  • the display can, for example, comprise a screen on which the representation is made available to a user.
  • the image capture unit is configured to record the fluorescence images and the anatomy images in real time.
  • the representation generation unit can be configured to generate the at least one representation in real time. In this way, an anatomical and a fluorescence-based moving image can be made available to a user, even if excitation occurs in the visible range.
  • the image acquisition unit can be configured to record the fluorescence images and the anatomy images sequentially. It can then be advantageous if the representation generation unit is configured to assign sequentially recorded fluorescence images and anatomy images to one another, in particular in terms of time, and to assign the at least one To generate a representation based on assigned fluorescence images and anatomical images.
  • the assignment can be frame-synchronous. “Frame-synchronous” means that assigned fluorescence images and anatomical images are temporally correlated. This does not necessarily mean simultaneity in the narrow sense.
  • the term “frame-synchronous” also includes situations in which a first number of fluorescence images and a second number of anatomical images that differ from them are recorded alternately.
  • the invention can provide that an update rate for anatomical images is greater than an update rate for fluorescence images.
  • the recording is then nevertheless frame-synchronous within the meaning of this disclosure if the assignment is made in such a way that there is a temporal connection between the images displayed.
  • the combination representation can be based on at least one fluorescence image and at least one anatomical image that were recorded within a predetermined period of time, for example within a period of at most 1000 ms, at most 500 ms, at most 100 ms or even at most 50 ms.
  • the image capture sensor system comprises at least one first image capture sensor, which is set up to capture image information for the fluorescence images, and that the image capture sensor system also comprises at least one second image capture sensor, which is set up to capture image information for the anatomical images.
  • the image capture sensors can be combined by means of at least one optical element in such a way that detected light always or at least selectively falls on several or all image capture sensors at the same time.
  • the first image capture sensor can comprise at least one near-infrared image sensor.
  • the second image capture sensor can comprise a white light image capture chip. Alternatively or additionally, the second image capture sensor can comprise different color channels, for example a red, a green and a blue color channel.
  • a fluorescence image can be additionally or alternatively generated by means of the first image acquisition sensor and/or that an anatomical image can be additionally or alternatively generated by means of the second image acquisition sensor.
  • the anatomical images can, for example, comprise a plurality of anatomical images and/or be based on a plurality of individual images that are assigned to different color channels, such as images from a red color channel, a green color channel, a blue color channel and/or a near-infrared color channel.
  • a single anatomical image can comprise a plurality of color channels, such as a red color channel, a green color channel, a blue color channel and/or a near-infrared color channel.
  • the image capture sensor system comprises a single image capture sensor, in particular a single-chip image capture sensor and/or a single-chip camera head that images both in the visible range and in the near-infrared range.
  • the image capture sensor system can be configured to record fluorescence images and anatomical images simultaneously.
  • “Simultaneously” here means in particular a temporal simultaneity, which differs, for example, from a sequential recording of fluorescence images and anatomical images.
  • the recording of an anatomical image and at the same time the recording of a fluorescence image can be triggered within a period of at most 500 ms, at most 100 ms or even at most 20 ms.
  • “Simultaneously”, however, can include that the recording of the corresponding images takes different lengths of time, for example if different exposure times are used.
  • Available image information can be used in a targeted manner and to generate a meaningful anatomical image, in particular if the representation generation unit is set up to generate at least one anatomical image from several, in particular single-colored, individual images and/or from several color channels of anatomical images.
  • the anatomical image can be synthesized in this way from several color channels, whereby the loss of a certain color channel and/or a certain spectral range due to the observation filter can be at least partially compensated.
  • individual image sensors can also provide individual images, for example single-colored individual images, such as a blue, green, red and/or near-infrared individual image, or also different and possibly partially multi-colored individual images, such as an RGB individual image and a near-infrared individual image.
  • the anatomical image corresponds to a white light image with multiple color channels, in which at least one color channel from the visible range is replaced by at least one color channel that lies outside the visible range, in particular in the near-infrared range. This makes it possible to generate an almost natural anatomical image, even if spectral information is lost due to the observation filter.
  • the invention also relates to program code which, when executed in a processor, is designed to effect implementation of a method according to the invention.
  • the invention relates to a program code comprising a computer-readable medium on which the program code according to the invention is stored.
  • Fig. 1 is a schematic representation of an imaging device with an illumination device
  • Fig. 2 is a schematic representation of the lighting device
  • Fig. 3 schematic transmission curves of beam splitter elements of the lighting device
  • Fig. 4 is a schematic representation of the imaging device
  • Fig. 5 is a schematic representation of another embodiment of the
  • Fig. 6 is a schematic representation of yet another embodiment of the imaging device.
  • Fig. 7 is a schematic perspective view of another embodiment of the imaging device.
  • Fig. 8 is a schematic flow diagram of a method for generating illumination light for an imaging device by means of an illumination device
  • Fig. 9 is a schematic flow diagram of a method for operating an imaging device
  • Fig. 10 is a schematic flow diagram of a method for operating an imaging device
  • Fig. 11 is a schematic representation of a medical imaging device
  • Fig. 12 schematic spectra of a fluorescent dye and a transmission curve of an associated observation filter
  • Fig. 13 schematic spectra of the fluorescent dye and a transmission curve of an alternative corresponding observation filter
  • Fig. 14 schematic representations of a series of fluorescence images and anatomical images
  • Fig. 15 is a schematic representation of color channels of an anatomical image
  • Fig. 16 is a schematic diagram illustrating a first example of calculating fluorescence images and anatomical images
  • Fig. 17 is a schematic diagram illustrating a second example of calculating fluorescence images and anatomical images
  • Fig. 18 is a schematic diagram illustrating a third example of calculating fluorescence images and anatomical images
  • Fig. 19 is a schematic diagram illustrating a fourth example of calculating fluorescence images and anatomical images
  • Fig. 20 is a schematic flow diagram of a method for medical imaging.
  • Fig. 21 is a schematic representation of a computer program product.
  • Fig. 1 shows a schematic representation of an imaging device 10.
  • the imaging device 10 is an endoscopic imaging device, specifically an endoscope device.
  • the imaging device 10 could be an exoscopic, a microscopic or a macroscopic imaging device.
  • the imaging device 10 is shown as an example as a medical imaging device.
  • the imaging device 10 is intended for examining a cavity, for example.
  • the imaging device 10 has a medical imaging device 14. In the case shown, this is an endoscope.
  • the imaging device 10 further comprises an illumination device 12 with an optical interface 16 and an illumination unit 18.
  • the imaging device 14 can be optically connected to the optical interface 16.
  • the optical interface 16 can be part of an optical-mechanical interface that can be optionally connected and detachable.
  • the illumination device 14 can optionally be decoupled from the illumination device 12.
  • the illumination unit 18 is designed to supply illumination light to the optical interface 16. When imaging using the imaging device 14, the illumination unit 18 can accordingly provide the required illumination light, which is guided to the illumination device 14 and from there coupled out onto an object to be imaged, such as a site.
  • the imaging device 10 further comprises a display unit on which images can be displayed that are based on image data that were captured by means of the imaging device 14. These can be video images, still images, overlays of different images, partial images, image sequences, etc.
  • the imaging device 10 is multimodal.
  • the imaging device can be operated in three basic modes, a multispectral mode, a fluorescence mode and a white light mode.
  • the imaging device 10 can be operated in a hyperspectral mode in addition to or as an alternative to the multispectral mode.
  • the illumination device 12 is multimodal.
  • the illumination device 12 can be operated in different illumination modes in which it provides light for different imaging modes.
  • the illumination device 12 can be operated in three basic modes, a multispectral mode, a fluorescence mode and a white light mode.
  • the imaging device 14 can also be operated in different operating modes, specifically also in at least one Multispectral mode, a fluorescence mode and a white light mode. In the corresponding operating mode of the imaging device 10, the modes of the illumination device 12 are coordinated with one another.
  • Fig. 2 shows a schematic representation of the lighting device 12.
  • the lighting unit 18 comprises several independently activatable lighting elements 20, 22, 24, 26, 28. These are designed to emit light according to different emission spectra in order to provide illumination light, i.e. the respective emission spectrum differs from lighting element to lighting element.
  • the light elements 20, 22, 24, 26, 28 are designed as LEDs.
  • a first light element 20 is designed as a red LED
  • a second light element 22 as a dark red LED
  • a third light element 24 as a blue LED
  • a fourth light element 26 as a near-IR LED.
  • the colored light elements 20, 22, 24, 26 each emit in a narrow band, for example with an emission peak at wavelengths of around 660 nm (first light element 20), 770 nm (second light element 22), 460 nm (third light element 24) and 940 nm (fourth light element 26).
  • a fifth light element 28 is provided, which in the present case is a white light element, for example a white light LED.
  • the fifth light element 28 emits, for example, in a spectral range of approximately 400 to 700 nm.
  • laser diodes can also be used, in particular as colored light elements.
  • some of the lighting elements 20, 22, 24, 26, 28 are activated at least temporarily, whereas other lighting elements 20, 22, 24, 26, 28 may not be used in the lighting mode in question.
  • a first group comprises the first light element 20 and the fourth light element 26.
  • the first group can additionally comprise the light element 22 and/or the light element 24.
  • the first group is used for multispectral imaging, with the light elements 20, 26 and possibly 22 and 24 serving as support points.
  • multispectral mode for example, the first light element 20 is first illuminated and an image is taken.
  • the fourth light element 26 is then illuminated and an image is taken.
  • the images are each based on remission, ie the light from the object to be imaged is backscattered light is considered.
  • Spectral information about the object being imaged can be obtained through the two different support points. For example, this can be used to assess certain types of tissue, a perfusion state, a tissue condition or the like.
  • a second group also includes the first light element 20, the second light element 22 and the third light element 24.
  • the second group is used for illumination in fluorescence imaging.
  • objects colored with suitably selected dyes can be viewed in a targeted manner. Different dyes can also be introduced into different types of tissue or the like, which are viewed at the same time.
  • By specifically exciting a certain dye it is excited to fluoresce.
  • the fluorescent light is then imaged.
  • the first light element 20 is suitable, for example, for exciting the dye cyanine 5.5 (Cy 5.5).
  • the second light element 22 is suitable for exciting the dye indocyanine green (ICG).
  • the third light element 24 is suitable for exciting the dye fluorescein.
  • a third group comprises the fifth light element 28.
  • the third group also comprises the first light element 20 and the third light element 24.
  • the third group serves to provide illumination light for white light imaging.
  • white light from the fifth light element 28 can be mixed with light from certain colored light elements, whereby spectral losses can be compensated and/or a color temperature can be set in a targeted manner.
  • some of the light elements 20, 22, 24, 26, 28 are assigned to several groups, for example the first light element 20 to all three groups and the third light element 24 and possibly also the second light element 22 to the second and third groups.
  • the imaging device 14 can comprise a pushbroom arrangement as a hyperspectral detector for this purpose. In other embodiments, a Whiskbroom arrangement, a staring arrangement and/or a snapshot arrangement are used.
  • the imaging device 14 can be a hyperspectral imaging device.
  • the lighting unit 18 comprises two crossed beam splitters 30, 32. These each comprise an output side 42, 44, an input side 37, 41 opposite the output side 42, 44 and two input sides 34, 36, 38, 40 opposite each other. All input sides 34, 36, 37, 38, 40, 41 guide incident light to the corresponding output side 42, 44.
  • the output side 42 of a first crossed beam splitter 30 faces an input side 41 of the second crossed beam splitter 32.
  • the output side 44 of the second crossed beam splitter 32 faces the optical interface 16.
  • the two crossed beam splitters 30, 32 are preferably arranged coaxially to each other and/or to the optical interface.
  • the lighting unit 18 can comprise suitable optical elements such as lenses and/or mirrors (not shown). Several lenses 78, 80, 82, 84, 86, 88 are shown as examples in Fig. 2. A lens 78 is assigned to the optical interface 16 and couples light coming from the output side 44 of the second crossed beam splitter 32 into the optical interface 16. Furthermore, a lens 80, 82, 84, 86, 88 can be assigned to each of the lighting elements 20, 22, 24, 26, 28. A particularly high degree of compactness can be achieved in particular when the lighting elements 20, 22, 24, 26, 28 are each arranged on the input sides 34, 36, 37, 38, 40 of the at least one crossed beam splitter 30, 32 without an intermediate mirror. The lighting elements 20, 22, 24, 26, 28 can then be moved very close to at least one crossed beam splitter 30, 32.
  • suitable optical elements such as lenses and/or mirrors (not shown).
  • Several lenses 78, 80, 82, 84, 86, 88 are shown as examples in Fig. 2.
  • a lens 78 is assigned to the optical interface 16
  • the crossed beam splitters 30, 32 each comprise two beam splitter elements 90, 92, 94, 96. These can in principle be partially transparent, so that light from all input sides 34, 36, 37, 38, 40, 41 is redirected to the respective output side 42, 44.
  • the beam splitter elements 90, 92, 94, 96 selectively transmit light. This is illustrated with further reference to Fig. 3.
  • the beam splitter elements 90, 92, 94, 96 can be filters that only reflect in a defined area, but otherwise have a high transmission. In Fig. 3, transmission curves 98, 100, 102, 104 of the beam splitter elements 90, 92, 94, 96 of the two crossed beam splitters 30, 32 are shown.
  • Each of the colored light elements 20, 22, 24, 26 or each of the opposite input sides 34, 36, 38, 40 is assigned one of the beam splitter elements 90, 92, 94, 96.
  • the beam splitter elements 90, 92, 94, 96 are selected in such a way that they each reflect in the wavelength range in which the associated light element 20, 22, 24, 26 emits, but also largely transmit.
  • notch filters can be used in the middle wavelength range, which can have, for example, the transmission spectra 100 and 102.
  • high-pass or low-pass filters can also be used instead of notch filters, see transmission spectra 98 and 104.
  • light from the fifth light element 28 is spectrally clipped. It can therefore be expedient, in the manner already mentioned, to supplement the light blocked by the beam splitters 30, 32 in a targeted manner using the light elements 20 and 24, possibly also 22 and/or 26. This can be supplemented specifically in those spectral ranges in which the beam splitters 30, 32 absorb and/or reflect light from the fifth light element 28, but in any case do not transmit it to the optical interface 16.
  • the additionally used light elements 20, 24 and possibly 22 are preferably operated with reduced power or with adjusted power. The aim here can be to at least largely restore the original spectrum of the fifth light element 28.
  • the fifth light element 28 can alternatively be a green light element or, more generally, a colored light element that emits primarily in the spectral range that the at least one beam splitter 30, 32 transmits.
  • the fifth light element 26 in such embodiments can be an LED with an emission peak at approximately 530 nm.
  • a green laser diode is also possible for this. It can be provided that color mixing takes place in white light mode and in particular no individual white light source such as a white light LED is used, but rather white light from separate light elements is specifically mixed. It is understood that in the case of suitable dyes, such a green light element can also be used in fluorescence mode. Alternatively or additionally, it could be used in multispectral mode.
  • the lighting unit 18 defines a common optical path 54 into which emitted light from the lighting elements 20, 22, 24, 26, 28 can be coupled.
  • the common optical path 54 extends from the output side 44 of the second crossed beam splitter 32 to the optical interface.
  • the common optical path 54 is arranged coaxially with the fifth lighting element 26.
  • the lighting elements 20, 26 of the first group are arranged such that light emitted by the lighting elements 20, 26 travels a light path of at least substantially the same length from the respective lighting element 20, 26 to the optical interface 16.
  • the lighting elements 20, 26 of the first group each have a light-emitting surface 56, 58.
  • the light-emitting surfaces 56, 62 are arranged equidistantly with respect to the common optical path 54. In the present case, this is achieved in that the two lighting elements 20, 26 are arranged at the same distance from the beam splitter 32 assigned to them (in the present case, the second beam splitter 32 by way of example), in particular from its opposite input sides 38, 40.
  • the light is coupled into the common optical path 54 by the crossed beam splitter 32.
  • the beam splitters 30, 32 are in particular arranged such that light-emitting surfaces 56, 58, 60, 62, 64 of the lighting elements 20, 22, 24, 26, 28 are each arranged equidistantly with respect to their associated crossed beam splitter 30, 32.
  • the lighting unit 18 or the lighting device 12 has a high degree of compactness.
  • the equidistant arrangement makes it possible to ensure that no spectral shifts occur when the imaging device 14 or its light guide is rotated relative to the optical interface 16.
  • crossed beam splitters 30, 32 it is understood that a different number of light elements 20, 22, 24, 26, 28 and/or a different number of crossed beam splitters 30, 32 can be used.
  • the use of crossed beam splitters 30, 32 has proven to be particularly useful However, in other embodiments, other types of beam splitters and/or other optical elements may be used to couple light from the light elements 20, 22, 24, 26, 28 into the optical interface 16.
  • Fig. 4 shows a schematic representation of the imaging device 10.
  • the imaging device 14 is optically coupled to the optical interface 16, for example via a light guide 106 such as at least one optical fiber.
  • the imaging device 10 has a controller 66 that is designed to automatically coordinate an operating state of the imaging device 14 and a lighting mode of the lighting unit 18.
  • a user can specify the operating mode of the imaging device 14 through a user action.
  • the controller 66 then sets the appropriate lighting mode of the lighting unit 18.
  • the user can set a specific lighting mode of the lighting unit 18 through a user action.
  • the controller 66 can then set an appropriate operating mode of the imaging device 14.
  • the lighting device 12 and/or the imaging device 10 has, for example, a user interface via which the user can enter corresponding commands.
  • the imaging device 14 comprises a camera unit 68 and a distal shaft 76.
  • the distal shaft 76 is optically coupled to the camera unit 68.
  • the camera unit 68 can have a connection for the distal shaft 76, wherein the distal shaft 76 can be selectively coupled and decoupled.
  • the distal shaft 76 can also be permanently optically and/or mechanically coupled to the camera unit 68.
  • the camera unit 68 is arranged proximally with respect to the shaft 76.
  • the camera unit 68 comprises imaging sensors 108, in the present case, for example, a white light sensor 110 and a near-IR sensor 112.
  • the imaging sensors 108 can generally have one or more light sensors/image sensors with at least spatial resolution, for example at least one CMOS sensor and/or at least one CCD sensor.
  • the shaft 76 comprises optical elements (not shown) by means of which light can be guided to the camera unit 68 in order to be able to optically capture the object to be imaged.
  • the shaft 76 comprises at least one light path 114, for example defined by a light guide such as an optical fiber, which leads to a distal section 116 of the shaft 76 and by means of which the light from the optical Illumination light originating from the interface 16 of the illumination device 12 can be coupled out to the object to be imaged.
  • the camera unit 68 has different operating states, specifically for example at least one multispectral operating state and one fluorescence operating state and, in the present embodiment, also a white light operating state and possibly a hyperspectral operating state.
  • the controller 66 automatically adapts the lighting mode of the lighting unit 18 to the current operating state of the camera unit 68.
  • the controller 66 can make settings to the image recording behavior of the camera unit 68.
  • the controller 66 can set the exposure time, sensitivity/amplification/gain and/or other operating parameters of the camera unit 68 or, in particular, its image capture sensor system 108 and, if applicable, its optics and thereby define different operating states of the imaging device 14.
  • the controller 66 triggers the lighting unit 18 synchronously with the camera.
  • the imaging device 14 comprises a filter unit 46 with optical filters 48, 50, 52. Three optical filters are shown as an example, but it is understood that a different number can be used.
  • the filter unit 46 can be switched between a multispectral mode and a fluorescence mode. Furthermore, the filter unit 46 can also be switched to a white light mode and/or a hyperspectral mode.
  • the optical filters 48, 50, 52 can optionally be introduced into an observation beam path 70 of the camera unit 68, thereby defining different observation modes. In the present case, these define the operating states of the camera unit 68.
  • a basic imaging mode can be assigned several optical filters 48, 50, 52.
  • a different suitable optical filter can be used for fluorescence imaging, depending on the light element 20, 22, 24, 26, 28 used for excitation.
  • the first light element 20 red
  • an optical filter that transmits wavelengths greater than 730 nm, but blocks shorter wavelengths. This can in particular ensure that only fluorescent light and not the excitation light itself is detected.
  • this optical filter can absorb at least in the range 600 nm to 730 nm.
  • the second light element 22 dark red
  • the user can select a specific filter 48, 50, 52 and thereby immediately selects an associated observation mode or operating state of the camera unit 68.
  • the camera unit 68 has a filter sensor 72 that can automatically detect an optical filter currently inserted into the observation beam path 70.
  • the user can thus manually insert a selected filter 48, 50, 52 into the observation beam path 70.
  • the optical filters 48, 50, 52 are attached to a filter carrier 118. This can be moved into different positions, whereby one of the optical filters 48, 50, 52 can be selected at a time.
  • the filter sensor 72 then detects the currently selected optical filter 48, 50, 52.
  • the control can then determine the current operating state of the camera unit 68 and thus of the imaging device 14 based on a sensor signal from the filter sensor 72 and automatically adapt the lighting mode of the lighting unit 18 accordingly.
  • the user thus puts the entire imaging device 10 into the desired mode by a simple user action such as manually selecting an optical filter 48, 50, 52.
  • a user can combine different filters with different lighting modes and thereby generate different types of contrast.
  • the imaging device 14 and in particular the shaft 76 comprises a broadband transmitting optic 77, which can be used uniformly in the different illumination modes.
  • the broadband optic 77 is designed for a spectral range of at least 400 nm to 1000 nm. It can be used uniformly for different illumination and/or observation spectral ranges.
  • the imaging device 14 can be designed as a stereo endoscope that includes a stereoscopic eyepiece with two sides. Different optical filters can be connected to these sides independently of one another, whereby different contrast images can be superimposed on one another.
  • Fig. 5 shows a schematic representation of another embodiment of the imaging device 10.
  • the imaging device 10 comprises an illumination device 12 with an optical interface 16 and an illumination unit 18 as well as an imaging device 14 that is connected to the optical interface 16.
  • the imaging device 14 comprises a camera unit 68 with an automated filter unit 210.
  • the automated filter unit 210 comprises a plurality of optical filters 48, 50, 52 that can be automatically introduced into an observation beam path 70 of the camera unit 68 in accordance with an observation mode specified by a user.
  • the automated filter unit 210 comprises a filter drive 212, which is designed to automatically move the optical filters 48, 50, 52 into the observation beam path 70 or out of the observation beam path 70.
  • the optical filters 48, 50, 52 can be mounted on a filter carrier 118, which is connected to the filter drive 212.
  • the filter drive 212 can be designed to move the filter carrier 118, for example to shift and/or rotate and/or pivot it.
  • the imaging device 14 has a user interface 214 by means of which the user can set a desired observation mode.
  • a desired position of the filter carrier 118 can be specified by means of the user interface 214.
  • the imaging device 14 also has a controller 66.
  • the controller 66 is coupled to the filter drive 212 and the user interface 214.
  • the controller 66 is particularly designed to process a user specification of an observation mode and to control both the filter unit 210 and the lighting unit 18 in accordance with this user specification.
  • the controller 66 can thus set an operating state of the imaging device 14 and a lighting mode of the lighting unit 18 that is coordinated with this in accordance with an observation mode selected by the user.
  • Fig. 6 shows a schematic representation of yet another embodiment of the imaging device 10.
  • the imaging device 10 comprises an illumination device 12 with an optical interface 16 and a Illumination unit 18 and an imaging device 14 that is connected to the optical interface 16.
  • the imaging device 14 includes a proximal base unit 310.
  • the proximal base unit 310 is connected to the optical interface 16 of the illumination device 12. Illumination light generated by the illumination device 12 can thus be fed to the proximal base unit 310.
  • the imaging device 14 also includes a controller 66 that can be integrated into the base unit 310 in some embodiments.
  • Different interchangeable shafts 312, 314 can optionally be optically or electronically coupled to the proximal base unit 310.
  • the base unit 310 has an interface 316 for coupling different interchangeable shafts 312, 314.
  • This interface 316 supplies the illumination light coming from the illumination device 12 to a coupled interchangeable shaft 312, 314.
  • the interface 316 is designed to electrically supply a coupled interchangeable shaft 312, 314 and/or to connect it electronically to the controller 66 of the imaging device 14.
  • the interchangeable shafts 312, 314 each have an integrated camera 318, 320 and integrated optical filters 322, 324.
  • the integrated cameras 318, 320 are designed as tipcams.
  • the integrated camera 318 of a first interchangeable shaft 312 is set up for multispectral imaging.
  • the integrated camera 310 of a second interchangeable shaft 314 is set up for fluorescence imaging.
  • the optionally available optical filters 322, 324 can be adapted to this.
  • interchangeable shafts can also be used that only contain optical filters but no integrated camera. These can then be coupled to a proximal camera unit. The proximal camera unit can then in some cases be designed without an additional filter unit. The selection of a specific optical filter or a specific observation mode can be made by choosing a suitably equipped interchangeable shaft.
  • the controller 66 is designed to detect a coupled interchangeable shaft 312, 314. This can be done software-based, mechanically and/or by sensor detection. Depending on the interchangeable shaft 312, 314 detected, the controller 66 can then determine in which operating state or in which observation mode the imaging device 14 should be operated.
  • the control unit 66 is also designed to select an illumination mode of the Illumination unit 18. The control unit 66 is thus configured to set an illumination mode of the illumination unit 18 depending on the observation mode defined by a currently coupled interchangeable shaft 312, 314.
  • the interchangeable shafts 312, 314 and the imaging device 10 are part of a medical imaging system 316.
  • the medical imaging system 316 allows a user to select a suitable interchangeable shaft 312, 314, to couple it to the base unit 310, and thus to set a mode for the entire imaging device 10.
  • the illumination device 18 is automatically adapted to the image acquisition mode to be used.
  • Fig. 7 shows a schematic perspective view of another embodiment of an imaging device 10'.
  • the reference numerals of this embodiment are provided with inverted commas for differentiation.
  • the imaging device 10' is designed as an exoscopic imaging device. It comprises an illumination device 12' and an imaging device 14'. Their basic functionality corresponds to that described above, but the imaging device 14' in this embodiment is designed as an exoscope.
  • Fig. 8 shows a schematic flow diagram of a method for generating illumination light for an imaging device 14 by means of an illumination device 12.
  • the sequence of the method also emerges from the above explanations.
  • the illumination device 12 comprises an optical interface 16 for optically connecting an imaging device 14 and an illumination unit 18 which is configured to supply illumination light to the optical interface 16, wherein the illumination unit 18 comprises a plurality of independently selectively activatable light elements 20, 22, 24, 26, 28 which are configured to emit light according to different emission spectra in order to supply the illumination light.
  • the method comprises a step S11 of at least temporarily activating a first group of the light elements 20, 22, 24, 26, 28 to provide illumination light for multispectral imaging.
  • the method further comprises a step S12 at least temporarily activating a second group of the light elements 20, 22, 24, 26, 28 to provide illumination light for fluorescence imaging.
  • One of the light elements 20, 22, 24, 26, 28 is at least temporarily activated both during the at least temporary activation of the first group of the light elements 20, 22, 24, 26, 28 and during the at least temporary activation of the second group of the light elements 20, 22, 24, 26, 28.
  • Fig. 9 shows a schematic flow diagram of a method for operating an imaging device 10. The sequence of the method also follows from the above explanations.
  • a step S21 an imaging device 10 with an imaging device 14 is provided.
  • a step S22 illumination light is supplied to the imaging device 14. The supply of the illumination light to the imaging device 14 takes place according to a method as described with reference to Fig. 8.
  • Fig. 10 shows a schematic flow diagram of a method for operating an imaging device 10.
  • the sequence of the method also follows from the above explanations.
  • the method comprises a step S31 of providing a lighting device 12 for providing illumination light for an imaging device 14.
  • the imaging device 14 comprises an optical interface 16 for optically connecting an imaging device 14 and a lighting unit 18 which is designed to supply illumination light to the optical interface 16.
  • the lighting unit 18 is multimodal and can be operated in several different lighting modes.
  • the method further comprises a step S32 of providing an imaging device 14 which can be connected to the optical interface 16 of the lighting device 12.
  • the method also comprises a step S33 of automatically coordinating an operating state of the imaging device 14 and a lighting mode of the lighting unit 18.
  • FIG. 11 shows a schematic representation of a medical imaging device 410 according to this aspect.
  • the medical imaging device 410 can basically be constructed and/or designed like the imaging device 10 described above or also like the above imaging device 10'.
  • Fig. 11 which is to be understood purely schematically, and the other figures.
  • the imaging device 410 is an endoscope device, but can also be an exoscope device and/or a microscope device.
  • the imaging device 410 comprises an illumination unit 412 with at least one light source 414.
  • the illumination unit 412 can be designed, for example, as described above with reference to the illumination device 12. For the following description, it is assumed that the illumination unit 412 is designed in this way. However, this is to be understood purely as an example. Basically, the illumination unit 412 is designed to provide illumination light 432, 438, by means of which an object 418 to be imaged can be illuminated. This will be discussed in more detail below.
  • the imaging device 410 further comprises an image capture unit 420 with suitable image capture sensor system 422.
  • the image capture sensor system 422 is configured in the present case to be able to capture images in both the visible range and the near infrared range.
  • the image capture sensor system 422 is sensitive at least in a range between 450 nm and 950 nm, in some embodiments in a range between 400 nm and 1000 nm.
  • the object 418 to be imaged is, for example, an anatomical structure, for example in a patient's cavity.
  • the anatomical structure comprises an area 454 marked with a fluorescent dye.
  • a user can view the anatomical structure and the marked area 454 and use the fluorescence of the marked area 454 to distinguish it from the surrounding tissue.
  • the marked area 454 is marked with a fluorescent dye that absorbs light in the visible range and also fluoresces at least partially or exclusively in the visible range.
  • An example absorption spectrum and an example emission spectrum are shown in the upper part of Fig. 12 as a solid or dash-dotted line in a diagram in which an intensity is plotted against the wavelength.
  • To excite the dye light is irradiated with a wavelength that is in the absorption range of the dye. This is shown in Fig. 12 by a dashed line, with the relevant wavelength marked as a point on the x-axis. This is the illumination light 432, which is shown as an arrow in Fig. 11.
  • the dye is, for example, fluorescein. This dye can be conveniently excited at a wavelength of 430 nm or 460 nm. In particular, this can be done using the third light element 24 described above. Another example of the dye is Cy5. This dye can be conveniently excited at a wavelength of 660 nm. In particular, this can be done using the first light element 20 described above.
  • the image acquisition unit 420 comprises an observation filter 424. This is mounted in front of the image acquisition sensor system 422 and/or integrated into it and ensures that the illumination light 432 is not remitted to the image acquisition sensor system 422 or at least not to individual sensors thereof, but exclusively or at least primarily light 434 that is emitted by the object 418 due to the fluorescence excitation of the dye.
  • a suitable transmission spectrum of the observation filter 424 is shown, which allows such fluorescence imaging.
  • the observation filter 424 is designed to block light in a first spectral range 426 and to transmit it in a second spectral range 428 that is different from the first spectral range 426.
  • the observation filter 420 is suitable for selection depending on the dye used or the absorption spectrum and emission spectrum.
  • the imaging device 410 can comprise a plurality of optical filters that can be used selectively as observation filters. As a result, fluorescence imaging for different fluorescent dyes can be carried out using the imaging device 410.
  • the observation filter 424 with the transmission shown in Fig. 12 is a high-pass edge filter.
  • the transmission behavior of the observation filter 424 changes abruptly, whereby the corresponding edge can have a certain width.
  • the area of the edge may not fall into either of the two spectral ranges 426, 428.
  • an observation filter with two edges can be used instead of an observation filter 424 with a single edge. This is illustrated as an example in Fig. 13.
  • the first spectral range 426' lies here between two sub-ranges of the second spectral range 428'. Light is therefore transmitted both above and below the first spectral range 426'. In this case, the observation filter only masks out a sub-range from the observable spectral range that lies in the visible range.
  • the image capture unit 420 is further configured to operate in a white light mode or an anatomy mode in which the object 418 is illuminated by means of illumination light 438 which lies at least partially within the second spectral range 428 and in which light 440 remitted by the object 418 is detected. As shown schematically in Fig. 11, part of the remitted light 440 is blocked by the observation filter 424 and the part which lies outside the first spectral range 426 or in the second spectral range 428 is passed through to the image capture sensor 422. If the first spectral range 426 is selected to lie in the visible range due to the dye used, a complete white light image cannot be recorded even if white light is irradiated. This can be done, for example, by means of a white light luminous element as described above.
  • the image acquisition unit 420 is set up to record fluorescence images 430 of the object to be imaged through the observation filter 424 in the manner described. Furthermore, the image acquisition unit 420 is set up to record anatomical images 436 of the object 418 to be imaged in the manner described.
  • the anatomical images 436 are images in which broadband illumination light is irradiated and remitted light is detected.
  • Fig. 14 shows the case in which several anatomical images 436 and several fluorescence images 430 are recorded over time or obtained from corresponding image data.
  • these are either recorded sequentially by alternately recording one or more anatomical images 436 and then one or more fluorescence images 430 (or vice versa) according to a specific logic, or by recording anatomical images 436 and fluorescence images 430 simultaneously. This depends on the design and operating mode of the image acquisition sensor 422.
  • the anatomical images 436 are not true white light images due to the recording through the observation filter 424. Rather, they are obtained by processing individual images and/or color channels according to one or more of the principles described below.
  • the imaging device 410 further comprises a representation generation unit 442, which is set up to generate a representation 444 from the fluorescence images 430 and the anatomical images 436. In the present case, this comprises a combination representation and/or an overlay representation, which is based on a combination or overlay of one or more anatomical images 436 and one or more fluorescence images 430.
  • the representation generation unit 442 is set up to assign recorded fluorescence images 430 and recorded anatomy images 436 to one another. This can be done both in the case of sequential image recording and in the case of simultaneous image recording. In the case shown, this is a temporal assignment. The assignment is based on the information about the time at which the images were recorded, so that the representation 444 contains temporally related anatomy information and fluorescence information. For example, a moving image is made available to a user in real time.
  • the imaging device 410 comprises a display 452, via which the generated representation 444 can be displayed to a user.
  • a display can be connected to the imaging device 410 only via an interface but is not necessarily part of the same.
  • image information from the near-infrared range will also be used to To generate anatomical image 436. This allows the information that may not be available due to the observation filter 424 to be provided elsewhere.
  • Fig. 15 for four color channels of an image, as would result from illumination with white light and near-infrared light.
  • B blue
  • G green
  • R red
  • a correct white light image of the object 418 would be created.
  • the image information from the blue color channel and/or blue individual image is missing. If only the green and red color channels and/or the green and red individual images were combined, an incomplete image would result.
  • the present aspect provides for the additional addition of a near-infrared color channel (NIR) and/or a near-infrared individual image.
  • NIR near-infrared color channel
  • This may make it possible to identify details of the anatomical structure that would be visible in the unavailable spectral range (here, for example, in blue). If this additional image information is now combined with the available color channels and/or individual images, an anatomical image 436 can be obtained that correctly represents the anatomy, even though it is not a true white light image.
  • Anatomical images 436 obtained in this way are then combined with fluorescence images 34 in the manner described to generate the representation 444 which contains information regarding both an anatomy of the object 418 and fluorescence of the marked region 454.
  • anatomical images 436 can be obtained for different configurations of the image acquisition sensor system 422 and/or different approaches to the utilization of available information. It is assumed in each case that a multimodal lighting unit is used. This has, for example, and in accordance with the embodiment described above, a white light image lighting element and a blue lighting element that emits, for example, at 430 nm or 460 nm, a red lighting element that emits, for example, at 660 nm, a dark red lighting element that emits, for example, at 765 nm or 770 nm, and a near-infrared lighting element that emits, for example, at 940 nm. As already mentioned, this is primarily for understanding purposes, and other lighting units can also be used.
  • Fig. 16 illustrates a first example in which the image capture sensor system 422 comprises a two-chip image sensor. Imaging light is distributed between two sensors, as already described above by way of example.
  • a first image sensor (VIS) operates in the visible range, for example at wavelengths up to about 700 nm
  • a second image sensor operates in the near-infrared range, for example at wavelengths from about 700 nm.
  • fluorescein is used as the dye. This is excited using the blue light element. Due to the observation filter 424, blue light cannot be detected.
  • illumination is provided, for example, using the dark-red light element and/or the near-infrared light element.
  • Fluorescence images 430 are obtained using the VIS image sensor.
  • Anatomy images 436 are obtained using the NIR image sensor.
  • the anatomy image 436 is output as a grayscale image, so that the capture in the near infrared range, which is not perceptible to the user, does not represent an obstacle.
  • the representation generation unit 442 thus generates a representation 444 that superimposes a grayscale anatomy image 436 and a fluorescence image 434 on one another.
  • Both the fluorescence images 430 and the anatomy images 436 can be recorded in real time, for example at at least 24 fps, at least 30 fps or even at least 60 fps. Since different image sensors are used to capture the fluorescence image 430 and the anatomy image 436, they can also be captured simultaneously. Sequential recording is not required.
  • Fig. 17 illustrates a second example in which the image capture sensor system 422 also comprises a 2-chip image sensor.
  • a fluorescence image 430 is recorded using the VIS image sensor.
  • anatomy images 436 and fluorescence images 430 are recorded sequentially. This makes it possible to use not only the NIR image sensor but also the VIS image sensor for the anatomy image 436.
  • the VIS image sensor provides three color channels 436B, 436G, 436R, which can basically be used for the anatomical image 436. Due to the observation filter 424, the blue color channel 436B is hardly or not at all usable, since little to no light remitted by the object 418 in the corresponding spectral range reaches the Observation filter 424 passes. The blue color channel 436B is therefore not taken into account here. In contrast, both the green color channel 436G and the red color channel 436R of the VIS image sensor image data as well as a near-infrared single image 436NIR of the NIR image sensor are used to obtain the anatomical image 436.
  • the anatomical image 36 is therefore reconstructed by replacing the blue channel with the near-infrared channel or the near-infrared single image.
  • a colored anatomical image can thus be generated. Due to the sequential recording of anatomical images 436 and fluorescence images 430, however, the frame rate is halved in this example.
  • a lower frame rate may be acceptable for the fluorescence information than for the anatomy information.
  • several anatomy images such as two or three or five, can always be recorded one after the other before a fluorescence image is recorded.
  • the representation generation unit assigns the most recently recorded fluorescence image to each of the several anatomy images. For example, with this approach, 50 anatomy images and 10 fluorescence images can be recorded per second.
  • the actual frame rate of the fluorescence information in this example is then only 10 fps, but this may not be noticeable to the user due to the higher frame rate of the anatomy information.
  • Fig. 18 illustrates a third example.
  • the image capture sensor system 422 comprises a one-chip image sensor (OC). This uses a red, a green and a blue channel and is also able to detect near-infrared light on all three channels.
  • the dye Cy5 is excited. This is done, for example, by means of a red light-emitting element.
  • Anatomical images 436 and fluorescence images 430 are recorded sequentially.
  • the image data of the image sensor can be used unchanged for the fluorescence image 430.
  • the observation filter 424 blocks out a first spectral range 426 that extends from approximately 600 nm to approximately 700 nm.
  • the second spectral range 428 lies both above and below the first spectral range 426 (cf. the exemplary illustration in Fig. 13).
  • Light in the first spectral range 28 is not detected due to the observation filter 424.
  • the red channel still supplies a signal because near-infrared light is detected by all three channels of the image sensor.
  • the anatomical image 436 is calculated in this example by combining the three channels in a suitable manner.
  • any other combinations in particular linear combinations, can be used. These can also be weighted if necessary depending on the response behavior of the image sensor in question and/or depending on the observation filter 424 used.
  • Fig. 19 illustrates a fourth example.
  • the image capture sensor system 422 comprises a four-chip image sensor with separate image sensors for a blue channel (B), a green channel (G), a red channel (R) and a near infrared channel (NIR). Light coming from the object 418 is divided between these four sensors.
  • an illumination unit can also be used which, instead of a white light illumination element, comprises a combination of three or more illumination elements by means of which light is mixed in such a way that it can be used instead of white light. For example, a combination of a red, green and blue illumination element can be used.
  • illumination can be provided for recording a red, green and blue image, so that an image can be obtained that is perceived by a user as a white light image.
  • the single-colored illumination elements mentioned above are present and in addition the mentioned combination of colored illumination elements that are used instead of the white light illumination element.
  • this configuration can be operated analogously to the first and second example described above.
  • the observation filter 424 is arranged in front of the four-chip image sensor.
  • another variant that can be implemented using the system according to the fourth example.
  • Fluorescein for example, is again used as a dye.
  • light is irradiated using a blue light element. Remitted light is in the green range and is detected by the green image sensor.
  • the image of the green image sensor can thus be used as a fluorescence image 430, since the blue excitation light does not fall on the green image sensor.
  • illumination is provided by a near-infrared light element.
  • the object thus remits light in both the blue and near-infrared ranges.
  • the dye used also does not fluoresce.
  • the dye fluorescein emits predominantly in the green range, and its emission spectrum also extends into the red with a low intensity.
  • the green and red image sensors are therefore not used for the anatomical image 436.
  • the anatomical image 436 is thus obtained by combining a blue individual image 436B recorded by the blue image sensor and a near-infrared individual image 436NIR recorded by the near-infrared image sensor.
  • Fig. 20 shows a schematic flow diagram of a method for medical imaging. The flow of the method also follows from the above explanations.
  • illumination light 438 is provided for illuminating an object 418 to be imaged.
  • fluorescence images 430 of the object 480 to be imaged are recorded through an observation filter 424, which is designed to block light in a first spectral range 426, which includes visible light, and to transmit light in a second spectral range 428 that is different from the first spectral range 426, wherein when recording the fluorescence images 430, illumination light 432, the spectrum of which lies at least partially within the first spectral range 426, is used as excitation light and light 434 emitted by the object 418 to be imaged, the spectrum of which at least partially within the second spectral range 428 is detected.
  • the method comprises a step S43 in which anatomical images 436 of the object 418 to be imaged are recorded, wherein when recording the anatomical images 436, illumination light 438 whose spectrum lies at least partially within the second spectral range 428 is used and light 440 remitted by the object 418 to be imaged, whose spectrum lies at least partially within the second spectral range 428, is detected.
  • Fig. 21 shows a schematic representation of a computer program product 448 with a computer-readable medium 450.
  • the computer-readable medium has program code stored thereon that is configured to cause one and/or all of the described methods to be carried out when executed in a processor.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Astronomy & Astrophysics (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

Die Erfindung betrifft eine medizinische Bildgebungsvorrichtung (410), umfassend: eine Beleuchtungseinheit (412) mit zumindest einer Lichtquelle (414), die dazu eingerichtet ist, Beleuchtungslicht (416) zur Beleuchtung eines abzubildenden Objekts (418) bereitzustellen; und eine Bilderfassungseinheit (420), die zumindest eine Bilderfassungssensorik (422) und zumindest einen Beobachtungsfilter (424) umfasst. Der Beobachtungsfilter (424) ist dazu eingerichtet, Licht in einem ersten Spektralbereich (426) zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich (426) verschiedenen zweiten Spektralbereich (428) zu transmittieren. Die Bilderfassungseinheit (430) ist dazu eingerichtet, Fluoreszenzbilder (430) des abzubildenden Objekts (418) durch den Beobachtungsfilter (424) hindurch aufzunehmen, bei deren Aufnahme Beleuchtungslicht (432), dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs (426) liegt, als Anregungslicht verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt (418) emittiertes Licht (434), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, von der Bilderfassungssensorik (422) detektiert wird. Zudem ist die Bilderfassungseinheit (430) dazu eingerichtet, Anatomiebilder (436) des abzubildenden Objekts (418) aufzunehmen, bei deren Aufnahme Beleuchtungslicht (438), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt (418) remittiertes Licht (440), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, von der Bilderfassungssensorik (422) detektiert wird. Die Bildgebungsvorrichtung umfasst ferner eine Darstellungserzeugungseinheit (442), die dazu eingerichtet ist, aus den Fluoreszenzbildern (430) und den Anatomiebildern (436) zumindest eine Darstellung (444) zu erzeugen. Die Erfindung betrifft auch ein Verfahren zur medizinischen Bildgebung, Programmcode und ein computerlesbares Medium (448).

Description

Medizinische Bildgebungsvorrichtung und Verfahren zur medizinischen Bildgebung
Die Erfindung betrifft eine medizinische Bildgebungsvorrichtung, insbesondere eine Endoskopvorrichtung, Exoskopvorrichtung und/oder Mikroskopvorrichtung, ein Verfahren zur medizinischen Bildgebung, zugehörigen Programmcode sowie ein zugehöriges Computerprogrammprodukt.
Aus dem Stand der Technik sind Bildgebungsvorrichtungen zur Durchführung von Fluoreszenzbildgebung bekannt, die sowohl Fluoreszenzbilder als auch Weißlichtbilder aufzunehmen können. Geeignetes Anregungslicht wird dazu verwendet, Fluoreszenzfarbstoffe oder gegebenenfalls nativ vorkommende fluoreszierende Stoffe gezielt anzuregen und emittiertes Licht zu detektieren und zur Bildgebung heranzuziehen. Um einem Anwender gleichzeitig anatomische Strukturen im Bildbereich darstellen zu können, wird häufig parallel oder sequenziell ein Weißlichtbild aufgenommen. Anhand des Weißlichtbilds kann der Benutzer beurteilen, ob die anatomische Struktur abgebildet wird. Fluoreszenzbilder und Weißlichtbilder können zudem überlagert werden, wodurch anatomische Information und Fluoreszenzinformation gleichzeitig für einen Benutzer wahrnehmbar und analysierbar sind.
Aus dem Stand der Technik sind außerdem Bildgebungsvorrichtungen wie beispielsweise endoskopische oder exoskopische Vorrichtungen bekannt, die Multispektral- oder Hyperspektralbilder erzeugen. Multispektral- oder Hyperspektralbilder weisen neben zwei räumlichen Dimensionen, wie sie etwa ein herkömmliches Bild einer Kamera hat, eine spektrale Dimension auf. Die spektrale Dimension umfasst mehrere Spektralbänder (Wellenlängenbänder). Multispektrale und hyperspektrale Bilder unterscheiden sich im Wesentlichen in der Anzahl an und der Breite von ihren spektralen Bändern. Solche Systeme können grundsätzlich ebenfalls dazu geeignet sein, Fluoreszenzaufnahmen durchzuführen.
Es sind einige Bildgebungsvorrichtungen zur Erzeugung solcher Multispektral- oder Hyperspektralbilder, insbesondere im Kontext medizinischer Anwendungen, bekannt. In DE 20 2014 010 558 U1 ist beispielsweise eine Vorrichtung zur Aufnahme eines Hyperspektralbilds eines Untersuchungsgebietes eines Körpers beschrieben. In der Vorrichtung sind ein Eingangsobjektiv zur Erzeugung eines Bilds in einer Bildebene sowie eine schlitzförmige Blende in der Bildebene zur Ausblendung eines schlitzförmigen Bereichs des Bilds angeordnet. Das durch die Blende hindurchtretende Licht wird mittels eines dispersiven Elements aufgefächert und mittels eines Kamerasensors aufgenommen. Dadurch kann von dem Kamerasensor eine Vielzahl von Spektren mit jeweils zugeordneter räumlicher Koordinate entlang der Längsrichtung der schlitzförmigen Blende aufgenommen werden. Die beschriebene Vorrichtung ist weiterhin dazu eingerichtet, in einer von der Längsrichtung der schlitzförmigen Blende verschiedenen Richtung weitere Spektren entlang der Längsrichtung der schlitzförmigen Blende aufzunehmen. Das dieser Offenbarung zugrunde liegende Verfahren zur Erzeugung von Multispektral- oder Hyperspektralbildern ist auch als sogenanntes Pushbroom-Verfahren bekannt.
Neben dem Pushbroom-Verfahren gibt es weitere Verfahren zur Erzeugung von Multispektral- oder Hyperspektralbildern. Beim sogenannten Whiskbroom-Verfahren wird das Untersuchungsgebiet oder auch Objekt punktweise abgefahren und für jeden Punkt ein Spektrum gewonnen. Im Gegensatz dazu, werden bei dem Staring- Verfahren mehrere Bilder mit denselben räumlichen Koordinaten aufgenommen. Dabei werden von Bild zu Bild verschiedene Spektralfilter und/oder Beleuchtungsquellen verwendet, um spektrale Information aufzulösen. Ferner gibt es Verfahren, gemäß denen durch geeignete optische Elemente wie optische Slicer, Linsen und Prismen ein zweidimensionales Mehrfarbenbild in mehrere spektrale Einzelbilder zerlegt wird, die gleichzeitig auf unterschiedlichen Detektoren oder Detektorbereichen erfasst werden. Dies wird bisweilen als Schnappschuss-Ansatz bezeichnet.
Wie in DE 10 2020 105 458 A1 beschrieben, eignen sich multispektrale und hyperspektrale Bildgebungsvorrichtungen insbesondere als endoskopische Bildgebungsvorrichtung. In dem Zusammenhang ist multispektrale und/oder hyperspektrale Bildgebung ein fundamentales Einsatzfeld beispielsweise zur Diagnostik sowie zur Beurteilung eines Erfolgs bzw. einer Qualität eines Eingriffs.
Multimodale Bildgebungsvorrichtungen gestatten es, wahlweise Weißlichtbilder und/oder Multispektralbilder und/oder Fluoreszenzbilder und/oder Hyperspektralbilder aufzunehmen. Beispiele für derartige Bildgebungsvorrichtungen sind multimodale Endoskope und multimodale Exoskope.
Unabhängig von der genauen Ausgestaltung wird für die Aufnahme von Fluoreszenzbildern Gewebe in einem bestimmten Wellenlängenbereich beleuchtet, um gezielt in bestimmte Entitäten wie beispielsweise Gewebebereiche eingebrachte fluoreszierende Farbstoffmoleküle anzuregen. Das daraufhin emittierte Licht mit rotverschobener Wellenlänge kann durch einen geeignet gewählten Filter beobachtet werden, mittels dessen Anregungslicht ausgeblendet werden kann. Liegen die Wellenlängenbereiche des Anregungslicht sowie des emittierten Lichts relativ zu Weißlicht, das für eine parallele oder sequenzielle Weißlichtbildgebung verwendet wird, im langwelligeren Bereich, insbesondere im Nahinfrarot-Bereich, also außerhalb des sichtbaren Weißlichts, ist trotz dieser Beobachtungsfilter durch den Filter hindurch Weißlichtbildgebung möglich. In jüngerer Zeit werden jedoch vermehrt Farbstoffe eingesetzt, die mit sichtbarem Licht anregbar sind. Die bekannte Art und Weise der Bilderzeugung ist hier nicht durchführbar, weil die für die Fluoreszenzbildgebung erforderlichen Filter des Weißlichtbild beeinträchtigen, indem sie sichtbares Licht in bestimmten Wellenlängenbereiche blockieren bzw. üblicherweise lediglich oder zumindest vorrangig Licht unterhalb einer bestimmten Wellenlänge transmittieren. Werden Fluoreszenzfarbstoffe verwendet, die im sichtbaren Bereich angeregt werden sollen, ist daher die erwähnte parallele oder sequenzielle Weißlichtaufnahme nicht durchführbar. Entfällt das Weißlichtbild, ist es jedoch für den Benutzer schwierig, anatomische Strukturen korrekt zu beurteilen.
Ausgehend vom Stand der Technik liegt der Erfindung die Aufgabe zugrunde, Fluoreszenzbildgebung in einem breiten Anwendungsbereich zu ermöglichen.
Diese Aufgabe wird erfindungsgemäß gelöst durch eine Bildgebungsvorrichtung, ein Verfahren zur medizinischen Bildgebung, Programmcode und ein Computerprogrammprodukt, wie sie hierin beschrieben und in den Ansprüchen definiert sind.
Eine medizinische Bildgebungsvorrichtung, insbesondere eine Endoskopvorrichtung, Exoskopvorrichtung und/oder Mikroskopvorrichtung, umfasst erfindungsgemäß eine Beleuchtungseinheit mit zumindest einer Lichtquelle, die dazu eingerichtet ist, Beleuchtungslicht zur Beleuchtung eines abzubildenden Objekts bereitzustellen. Ferner umfasst die medizinische Bildgebungsvorrichtung eine Bilderfassungseinheit, die zumindest eine Bilderfassungssensorik und zumindest einen Beobachtungsfilter umfasst. Der Beobachtungsfilter ist dazu eingerichtet, Licht in einem ersten Spektralbereich zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich verschiedenen zweiten Spektralbereich zu transmittieren. Zudem ist die Bilderfassungseinheit dazu eingerichtet, Fluoreszenzbilder des abzubildenden Objekts durch den Beobachtungsfilter hindurch aufzunehmen, bei deren Aufnahme Beleuchtungslicht, dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs liegt, als Anregungslicht verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt emittiertes Licht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, von der Bilderfassungssensorik detektiert wird. Außerdem ist die Bilderfassungseinheit dazu eingerichtet, Anatomiebilder des abzubildenden Objekts aufzunehmen, bei deren Aufnahme Beleuchtungslicht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt remittiertes Licht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, von der Bilderfassungssensorik detektiert wird. Des Weiteren umfasst die medizinische Bildgebungsvorrichtung eine Darstellungserzeugungseinheit, die dazu eingerichtet ist, aus den Fluoreszenzbildern und den Anatomiebildern zumindest eine Darstellung zu erzeugen.
Ein erfindungsgemäßes Verfahren kann insbesondere mit der erfindungsgemäßen medizinischen Bildgebungsvorrichtung durchgeführt werden. Das Verfahren umfasst ein Bereitstellen von Beleuchtungslicht zur Beleuchtung eines abzubildenden Objekts. Ferner umfasst das Verfahren ein Aufnehmen von Fluoreszenzbildern des abzubildenden Objekts durch einen Beobachtungsfilter hindurch, der dazu eingerichtet ist, Licht in einem ersten Spektralbereich zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich verschiedenen zweiten Spektralbereich zu transmittieren, wobei bei dem Aufnehmen der Fluoreszenzbilder Beleuchtungslicht, dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs liegt, als Anregungslicht verwendet wird und von dem abzubildenden Objekt emittiertes Licht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, detektiert wird. Außerdem umfasst das Verfahren ein Aufnehmen von Anatomiebildern des abzubildenden Objekts, wobei bei dem Aufnehmen der Anatomiebilder Beleuchtungslicht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, verwendet wird und von dem abzubildenden Objekt remittiertes Licht, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs liegt, detektiert wird.
Die erfindungsgemäßen Merkmale gestatten es, Bildgebung in einem breiten Anwendungsbereich durchzuführen. Im Speziellen können Fluoreszenzfarbstoffe verwendet werden, die im sichtbaren Bereich absorbieren, und zugleich kann einem Benutzer ein aussagekräftiges anatomisches Bild zur Verfügung gestellt werden. Hierdurch können unterschiedliche Fluoreszenzfarbstoffe gleichermaßen verwendet werden, ohne dass Einschränkungen bei der Erstellung eines anatomischen Bildes in Kauf genommen werden müssen. Durch die erfindungsgemäßen Merkmale kann auch bei einer Fluoreszenzanregung im sichtbaren Bereich ein Fluoreszenzbild und ein Anatomiebild aufgenommen werden, ohne dass zwischen den einzelnen Aufnahmen Filter in den Strahlengang ein- und ausgeschwenkt werden müssen. Zudem muss nicht vollständig auf Anatomiebilder verzichtet werden, auch wenn im sichtbaren Bereich Fluoreszenz angeregt werden soll. Grundsätzlich denkbar wäre es auch, Weißlicht und Fluoreszenz-Anregungslicht parallel einzustrahlen und Fluoreszenz sowie Weißlicht über das Bayer-Pattern eines Detektors zu trennen. Dies erfordert jedoch aufgrund des damit verbundenen und zu erwartenden Sensor-Crosstalks erheblichen Aufwand bei der Auswertung und die zu erwartende Bildqualität kann gering sein.
Die Bildgebungsvorrichtung kann eine mikroskopische, makroskopische und/oder exoskopische Bildgebungsvorrichtung sein. Die Bildgebungsvorrichtung kann als Mikroskop, Makroskop und/oder Exoskop ausgebildet sein und/oder ein solches umfassen. In einigen Ausführungsformen kann die Bildgebungsvorrichtung eine endoskopische Bildgebungsvorrichtung sein. Die Bildgebungsvorrichtung kann eine Endoskopvorrichtung sein. Sie kann ein Endoskop und/oder ein Endoskopsystem umfassen und/oder als ein solches ausgebildet sein und/oder zumindest einen Teil und bevorzugt zumindest einen Großteil und/oder Hauptbestandteil eines Endoskops und/oder eines Endoskopsystems ausbilden. „Zumindest ein Großteil“ kann zumindest 55 %, vorzugsweise zumindest 65 %, bevorzugt zumindest 75 %, besonders bevorzugt zumindest 85 % und ganz besonders bevorzugt zumindest 95 % bedeuten, und zwar insbesondere mit Bezug auf ein Volumen und/oder eine Masse eines Objekts.
Die Bildgebungsvorrichtung ist in einigen Ausführungsformen dazu eingerichtet, zur Begutachtung und/oder Beobachtung in einen Hohlraum einführbar zu sein, beispielsweise in eine künstliche und/oder natürliche Kavität, etwa in ein Inneres eines Körpers, in ein Körperorgan, in Gewebe oder dergleichen. Die Bildgebungsvorrichtung kann auch dazu eingerichtet sein, zur Begutachtung und/der Beobachtung in ein Gehäuse, eine Verschalung, einen Schacht, ein Rohr oder eine andere, insbesondere künstliche, Struktur einführbar zu sein.
Insbesondere wenn die Bildgebungsvorrichtung eine exoskopische Bildgebungsvorrichtung ist, kann sie dazu eingerichtet sein, Gewebeparameter, Bilder von Wunden, Bilder von Körperteilen etc. aufzunehmen. Beispielsweise kann die Bildgebungsvorrichtung dazu eingerichtet sein, ein Operationsfeld abzubilden. Die Bilderfassungssensorik kann dazu eingerichtet sein, Licht sowohl im sichtbaren Bereich als auch im Nahinfrarotbereich zu detektieren. Eine kleinste detektierbare Wellenlänge kann in einigen Ausführungsformen höchstens 500 nm, höchstens 450 nm oder sogar höchstens 400 nm betragen. Eine größte detektierbar Wellenlänge kann in einigen Ausführungsformen zumindest 800 nm, zumindest 900 nm oder sogar zumindest 1000 nm betragen. Die Bilderfassungssensorik kann beispielsweise zumindest einen Weißlicht-Bildsensor und zumindest einen Nahinfrarot-Bildsensor umfassen. In einigen Ausführungsformen umfasst die Bildgebungsvorrichtung eine Weißlichtkamera und/oder Sensorik zur Weißlichtbilderfassung. Die Bildgebungsvorrichtung kann zur Weißlichtbildgebung eingerichtet sein. Die Anatomiebilder können mittels der Weißlichtkamera und/oder der Sensorik zur Weißlichtbilderfassung aufnehmbar sein.
Die Bilderfassungseinheit kann eine Filtereinheit mit optischen Beobachtungsfiltern aufweisen. Die Filtereinheit kann mehrere Fluoreszenzmodi definieren, die durch unterschiedliche Beobachtungsfilter definiert sind. Beispielsweise können unterschiedliche Kantenfilter verwendet werden, die das jeweils verwendete Spektrum des zugehörigen zur Anregung verwendeten Leuchtelements absorbieren/blockieren und zumindest im Wesentlichen nur Fluoreszenzlicht transmittieren. Der Beobachtungsfilter, der Licht im ersten Spektralbereich blockiert, ist dann Teil der Filtereinheit. Die Beobachtungsfilter können in einigen Ausführungsformen zudem zwischen einem Multispektralmodus und einem Fluoreszenzmodus umschaltbar sein.
Die Bildgebungsvorrichtung und insbesondere eine Optik und/oder die Bilderfassungssensorik kann/können zur multispektralen und/oder hyperspektralen Bildgebung eingerichtet sein, im Speziellen dazu, multispektrale und/oder hyperspektrale Bilddaten zu erfassen und/oder zu erzeugen. Multispektrale Bildgebung bzw. multispektrale Bilddaten kann sich dabei insbesondere auf solche Bildgebung beziehen, bei der wenigstens zwei, insbesondere wenigstens drei, und in einigen Fällen wenigstens fünf Spektralbänder voneinander unabhängig erfassbar sind und/oder erfasst werden. Hyperspektrale Bildgebung bzw. hyperspektrale Bilddaten kann sich dabei insbesondere auf solche Bildgebung beziehen, bei der wenigstens 20, wenigstens 50 oder sogar wenigstens 100 Spektralbänder voneinander unabhängig erfassbar sind und/oder erfasst werden. Die Bildgebungsvorrichtung kann nach dem Pushbroom-Verfahren und/oder nach dem Whiskbroom- Verfahren und/oder nach dem Staring- Verfahren und/oder nach einem Schnappschussprinzip arbeiten.
Für einige Anwendungen kann es vorteilhaft sein, eine große spektrale Auflösung verwenden zu können. Es bietet sich dann eine hyperspektrale Bildgebung an. Diese kann mit einer Weißlichtbildgebung kombiniert sein. Hierdurch ist eine Beobachtung in Echtzeit über ein Weißlichtbild möglich, auch wenn die Erfassung spektral aufgelöster Bilddaten nur im Wesentlichen in Echtzeit erfolgt, also beispielsweise mehrere Sekunden zur Erstellung eines spektral aufgelösten Bilds benötigt werden. Für einige Anwendungen kann es vorteilhaft sein, spektrale Bilddaten in Echtzeit zu erzeugen. Dies beinhaltet beispielsweise die Erzeugung eines spektral aufgelösten Bilds in weniger als einer Sekunde oder sogar mehrmals pro Sekunde. Hierbei kann es zweckmäßig sein, auf multispektrale Bildgebung zurückzugreifen. Einer ggf. geringeren spektralen Auflösung steht dann eine höhere Bildwiederholrate gegenüber. Je nach Anwendung kann es hinreichend sein, nur wenige verschiedene Spektralbereiche und/oder Wellenlängen zu berücksichtigen, beispielsweise zwei oder drei oder vier oder generell weniger als zehn. Hierbei kann wahlweise auf eine zusätzliche Weißlichtbildgebung verzichtet werden. Spektral aufgelöste Bilddaten, die in Echtzeit gewonnen werden bzw. mehrere Bilder pro Sekunde liefern, können auch zu Überwachungszwecken eingesetzt werden, wobei nicht zwingend ein wiederzugebendes Bild für einen Benutzer erstellt werden muss, sondern die Bilddaten auch im Hintergrund verarbeitet werden können.
Die medizinische Bildgebungsvorrichtung kann wenigstens einen proximalen Abschnitt, einen distalen Abschnitt und/oder einen Zwischenabschnitt aufweisen. Der distale Abschnitt ist insbesondere dazu ausgebildet, in einem Betriebszustand, etwa während der diagnostischen und/oder therapeutischen Aktion, in eine zu untersuchende Kavität eingeführt zu werden und/oder darin befindlich zu sein. Der proximale Abschnitt ist insbesondere dazu ausgebildet, in einem Betriebszustand, etwa während der diagnostischen und/oder therapeutischen Aktion, außerhalb der zu untersuchenden Kavität angeordnet zu sein. Unter „distal“ soll insbesondere bei einer Benutzung einem Patienten zugewandt und/oder einem Benutzer abgewandt verstanden werden. Unter „proximal“ soll insbesondere bei einer Benutzung einem Patienten abgewandt und/oder einem Benutzer zugewandt verstanden werden. Insbesondere ist proximal das Gegenteil von distal. Die medizinische Bildgebungsvorrichtung weist insbesondere zumindest einen, vorzugsweise flexiblen, Schaft auf. Der Schaft kann ein längliches Objekt sein. Ferner kann der Schaft zumindest teilweise und vorzugsweise zumindest zu einem Großteil den distalen Abschnitt ausbilden. Unter einem „länglichen Objekt“ soll insbesondere ein Objekt verstanden werden, dessen Haupterstreckung zumindest um einen Faktor fünf, vorzugsweise zumindest um einen Faktor zehn und besonders bevorzugt zumindest um einen Faktor zwanzig größer ist als eine größte Erstreckung des Objekts senkrecht zu dessen Haupterstreckung, also insbesondere einem Durchmesser des Objekts. Unter einer „Haupterstreckung“ eines Objekts, soll insbesondere dessen längste Erstreckung entlang dessen Haupterstreckungsrichtung verstanden werden. Unter einer „Haupterstreckungsrichtung“ eines Bauteils soll dabei insbesondere eine Richtung verstanden werden, welche parallel zu einer längsten Kante eines kleinsten gedachten Quaders verläuft, welcher das Bauteil gerade noch vollständig umschließt.
Die Bilderfassungseinheit kann zumindest teilweise und vorzugsweise zumindest zu einem Großteil im Bereich des proximalen Abschnitts angeordnet sein und/oder diesen ausbilden. In anderen Ausführungsformen kann die Bilderfassungseinheit zumindest teilweise und vorzugsweise zumindest zu einem Großteil im distalen Abschnitt angeordnet sein und/oder diesen ausbilden. Ferner kann die Bilderfassungseinheit zumindest teilweise auf den proximalen Abschnitt und den distalen Abschnitt verteilt angeordnet sein. Die Bilderfassungssensorik weist insbesondere zumindest einen Bildsensor auf. Ferner kann die Bilderfassungssensorik auch über zumindest zwei und vorzugsweise mehrere Bildsensoren verfügen, welche hintereinander angeordnet sein können. Ferner können die zwei und vorzugsweise mehreren Bilderfassungssensoren über voneinander verschieden ausgebildete spektrale Erfassungsempfindlichkeiten verfügen, sodass beispielsweise ein erster Sensor in einem roten Spektralbereich, ein zweiter Sensor in einem blauen Spektralbereich und ein dritter Sensor in einem grünen Spektralbereich besonders empfindlich bzw. vergleichsweise empfindlicher als die anderen Sensoren ist. Der Bildsensor kann etwa als ein CCD-Sensor und/oder ein CMOS-Sensor ausgebildet sein.
Eine Optik der Bilderfassungseinheit kann geeignete optische Elemente wie Linsen, Spiegel, Gitter, Prismen, Lichtwellenleiter etc. umfassen. Die Optik kann dazu eingerichtet sein, von einem abgebildeten Objekt kommendes Objektlicht zu der Bilderfassungssensorik zu führen, beispielsweise es zu fokussieren und/oder zu projizieren.
Die Bilderfassungseinheit ist insbesondere dazu eingerichtet, zumindest zweidimensionale räumliche Bilddaten zu erzeugen. Die Bilderfassungseinheit kann dahingehend räumlich auflösend sein, dass sie in zumindest zwei unterschiedliche Raumrichtungen jeweils eine Auflösung von zumindest 100 Bildpunkten, vorzugsweise von zumindest 200 Bildpunkten, bevorzugt von zumindest 300 Bildpunkten und vorteilhaft von zumindest 400 Bildpunkten liefert. Die Bilddaten sind vorzugsweise zumindest dreidimensional, wobei zumindest zwei Dimensionen räumliche Dimensionen sind und/oder wobei zumindest eine Dimension eine spektrale Dimension ist. Aus den Bilddaten können mehrere räumlich aufgelöste Bilder des Bildbereichs gewinnbar sein, die jeweils unterschiedlichen Spektralbändern zugeordnet sind. Die räumliche und spektrale Information der Bilddaten kann derart beschaffen sein, dass daraus für mehrere räumliche Bildpunkte jeweils ein zugehöriges Spektrum gewinnbar ist.
In einigen Ausführungsformen ist die Bilderfassungseinheit dazu eingerichtet, laufend aktualisierte Bilddaten zu erzeugen. Die Bilderfassungseinheit kann beispielsweise dazu eingerichtet sein, die Bilddaten im Wesentlichen in Echtzeit zu erzeugen, was beispielsweise eine Erzeugung aktualisierter Bilddaten wenigstens als 30 Sekunden, in einigen Fällen wenigstens als 20 Sekunden und in manchen Fällen sogar wenigstens alle 10 Sekunden oder wenigstens alle 5 Sekunden umfasst. Vorzugsweise ist die Bilderfassungseinheit dazu eingerichtet, zumindest die Anatomiebilder und die Fluoreszenzbilder sowie die darauf beruhende Darstellung in Echtzeit zu erzeugen, beispielsweise mit einer Bildrate von wenigstens 5 fps, wenigstens 10 fps, wenigstens 20 fps oder sogar wenigstens 30 fps.
Die Beleuchtungseinheit kann multimodal ausgebildet sein und mehrere unabhängig voneinander wahlweise aktivierbare Leuchtelemente umfassen, die dazu eingerichtet sind, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um das Beleuchtungslicht zu liefern.
Der Begriff „sichtbares Licht“ kann sich hierin insbesondere auf Licht mit einer Wellenlänge zwischen 400 nm und 750 nm beziehen. Generell ist damit Licht gemeint, das vom menschlichen Auge wahrnehmbar ist. Der erste Spektralbereich umfasst insbesondere lediglich einen Teilbereich des sichtbaren Lichts. Der zweite Spektralbereich kann ebenfalls sichtbares Licht umfassen. Der Beobachtungsfilter kann ein Kantenfilter sein, insbesondere ein Hochpass-Filter. Die Kante des Beobachtungsfilters bzw. allgemein ausgedrückt der erste Spektralbereich kann passend zum verwendeten Fluoreszenz-Farbstoff gewählt werden. Wird beispielsweise als Farbstoff Fluoreszin oder Cy5 verwendet, erfolgt eine Anregung mitten im sichtbaren Bereich, insbesondere von dessen Rändern beabstandet, beispielsweise bei etwa 430 nm für Fluoreszin oder bei etwa 660 nm für Cy5. Um Fluoreszenzbilder nicht durch Anregungslicht zu verfälschen, ist das Anregungslicht entsprechend zu blockieren. Der erste Spektralbereich ist dann derart zu wählen, dass jedenfalls das Anregungslicht blockiert wird. Im Fall von Fluoreszin könnte beispielsweise ein Kantenfilter mit einer Kante bei etwa 450 nm gewählt werden. Im Fall von Cy5 könnte beispielsweise ein Kantenfilter mit einer Kante bei etwa 680 nm gewählt werden. Der erste Spektralbereich und der zweite Spektralbereich grenzen vorzugsweise zumindest im Wesentlichen aneinander an. Eine Beabstandung zwischen den Spektralbereichen kann beispielsweise lediglich durch eine Breite der Filterkante definiert sein. Es kann ein dritter Spektralbereich vorhanden sein, der zwischen dem ersten Spektralbereich und dem zweiten Spektralbereichs liegt und in dem der Beobachtungsfilter und in dem sich insbesondere die Durchlässigkeit des Beobachtungsfilters wellenlängenabhängig stark verändert. Hierbei kann es sich, wie erwähnt, um die Filterkante handeln. Der erste Spektralbereich und/oder der zweite Spektralbereich können mehrere Teilbereiche umfassen, die voneinander beabstandet sein können.
Der zweite Spektralbereich erstreckt sich in einigen Ausführungsformen in den Nahinfrarotbereich über den sichtbaren Bereich hinaus. Insbesondere kann das bei der Aufnahme der Anatomiebilder detektiert Licht zumindest auch im Nahinfrarotbereich liegen, beispielsweise in einem Wellenlängenbereich jenseits von 800 nm, jenseits von 850 nm, oder sogar jenseits von 900 nm.
Die Fluoreszenzbilder und die Anatomiebilder können parallel oder sequenziell aufgenommen werden. Vorzugsweise sind sowohl die Fluoreszenzbilder als auch die Anatomiebilder Bewegtbilder.
Bilder können insbesondere dann besonders einfach und in kurzen Zeitabständen aufgenommen werden, wenn die Bilderfassungseinheit dazu eingerichtet ist, die Anatomiebilder des abzubildenden Objekts durch den Beobachtungsfilter hindurch aufzunehmen. Der Beobachtungsfilter kann sich demnach während einer Aufnahme und Darstellung eines überlagerten Anatomie- und Fluoreszenzbilds dauerhaft im Strahlengang sowohl für die Anatomieaufnahmen als auch für die Fluoreszenzaufnahmen befinden. Er kann beispielsweise gewechselt werden, wenn eine andere Anregungswellenlänge und/oder eine andere Abbildungsmodus ausgewählt wird. Der Beobachtungsfilter befindet sich dabei insbesondere vor einem optischen Eingang einer Bilderfassungssensorik der Bildgebungsvorrichtung. Diese kann, wie erwähnt, Sensoren umfassen, die in unterschiedlichen Spektralbereichen ansprechen; der Beobachtungsfilter ist zweckmäßigerweise dennoch vor der Gesamtheit dieser Sensoren angeordnet, also vor der Bilderfassungssensorik. Hierdurch können unterschiedliche Filter auf einfache Weise verwendet werden, ohne dass die Filter direkt in die Sensorik integriert werden müssen.
In anderen Ausführungsformen kann der Beobachtungsfilter in die Bilderfassungssensorik integriert sein. Insbesondere für Mehr-Chip-Bildsensoren können unterschiedliche Bildsensoren mit unterschiedlichen Beobachtungsfiltern ausgestattet sein. Die Erfassung der Anatomiebilder und die Erfassung der Fluoreszenzbilder kann dann mit disjunkten Gruppen von Bildsensoren erfolgen. Bilder können parallel aufgenommen werden. In diesem Fall steht jedenfalls der für die Fluoreszenz-Bilderfassung herangezogene Beobachtungs-Spektralbereich für die Anatomie-Bilderfassung nicht zur Verfügung.
Eine kleinste Wellenlänge des ersten Spektralbereichs kann größer als 430 nm und insbesondere größer als 500 nm sein. Eine größte Wellenlänge des ersten Spektralbereichs kann kleiner als 800 nm und insbesondere kleiner als 700 nm sein. In einigen Ausführungsformen ist das Beleuchtungslicht, dass als Anregungslicht für die Fluoreszenzbildgebung verwendet wird, schmalbandig. Beispielsweise kann das Beleuchtungslicht von zumindest einer farbigen LED, Laserdiode oder einem anderen zumindest im Wesentlichen monochromatisch abstrahlenden Leuchtelement stammen.
In einigen Ausführungsformen umfasst die medizinische Bildgebungsvorrichtung eine Beleuchtungsvorrichtung, welche die Beleuchtungseinheit umfasst. Die Beleuchtungsvorrichtung kann eine optische Schnittstelle zur optischen Anbindung eines Bildgebungsgeräts umfassen. Die Beleuchtungseinheit kann dazu eingerichtet sein, Beleuchtungslicht an die optische Schnittstelle zu liefern. Die Beleuchtungseinheit kann multimodal ausgebildet sein und mehrere unabhängig voneinander wahlweise aktivierbare Leuchtelemente umfassen, die dazu eingerichtet sind, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um das Beleuchtungslicht zu liefern. Die Beleuchtungseinheit kann in zumindest einem Multispektralmodus betreibbar sein, in dem eine erste Gruppe der Leuchtelemente zumindest zeitweise aktiviert ist und in dem die Beleuchtungseinheit Beleuchtungslicht für Multispektralbildgebung liefert. Ferner kann die Beleuchtungseinheit in zumindest einem Fluoreszenzmodus betreibbar sein, in dem eine zweite Gruppe der Leuchtelemente zumindest zeitweise aktiviert ist und in dem die Beleuchtungseinheit Beleuchtungslicht für Fluoreszenzbildgebung liefert. Die Leuchtelemente können zumindest ein Leuchtelement umfassen, das sowohl in der ersten Gruppe als auch in der zweiten Gruppe enthalten ist.
Zudem kann ein Verfahren zur Erzeugung von Beleuchtungslicht für ein Bildgebungsgerät mittels einer Beleuchtungsvorrichtung vorgesehen sein. Die Beleuchtungsvorrichtung umfasst dabei eine optische Schnittstelle zur optischen Anbindung eines Bildgebungsgeräts und eine Beleuchtungseinheit, die dazu eingerichtet ist, Beleuchtungslicht an die optische Schnittstelle zu liefern, wobei die Beleuchtungseinheit mehrere unabhängig voneinander wahlweise aktivierbare Leuchtelemente umfasst, die dazu eingerichtet sind, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um das Beleuchtungslicht zu liefern. Das Verfahren umfasst den Schritt eines zumindest zeitweisen Aktivierens einer ersten Gruppe der Leuchtelemente, um Beleuchtungslicht für Multispektralbildgebung zu liefern und den Schritt eines zumindest zeitweisen Aktivierens einer zweiten Gruppe der Leuchtelemente, um Beleuchtungslicht für Fluoreszenzbildgebung zu liefern. Zumindest eines der Leuchtelemente wird sowohl beim zumindest zeitweisen Aktivieren der ersten Gruppe der Leuchtelemente als auch beim zumindest zeitweisen Aktivieren der zweiten Gruppe der Leuchtelemente zumindest zeitweise aktiviert.
Die optische Schnittstelle kann wahlweise lösbar und verbindbar sein. Zudem kann die optische Schnittstelle mit einer mechanischen Schnittstelle kombiniert sein, sodass eine optische Verbindung beispielsweise automatisch dann hergestellt wird, wenn das Bildgebungsgerät mechanisch angekoppelt wird.
Die Leuchtelemente können einfarbige LEDs (Leuchtdioden) und/oder Laserdioden umfassen. Ferner kann zumindest eines der Leuchtelemente eine Weißlicht-LED oder eine andere Weißlichtquelle sein. In einigen Ausführungsformen umfasst die Beleuchtungseinheit zumindest ein blaues Leuchtelement, zumindest ein rotes Leuchtelement, zumindest ein dunkelrotes Leuchtelement und zumindest ein Nah-IR- Leuchtelement (Nahinfrarot-Leuchtelement), insbesondere jeweils LEDs oder Laserdioden. Zusätzlich kann die Beleuchtungseinheit zumindest eine Weißlicht-LED oder eine andere Weißlichtquelle umfassen.
Die erste Gruppe kann zumindest zwei Leuchtelemente umfassen, die spektral unterschiedlich emittieren. Ein hoher Grad an Effizienz bei einer Multispektralbildgebung kann erzielt werden, wenn der Multispektralmodus unterschiedliche Zustände umfasst, in denen jeweils ein bestimmtes Leuchtelement bzw. ein bestimmter Leuchtelementtyp zumindest zeitweise aktiviert ist. Hierdurch kann gezielt in einem bestimmten Spektralbereich beleuchtet werden, wodurch unterschiedliche Spektralbilder erfasst werden können. Unterschiedliche Leuchtelemente, die in unterschiedlichen Zuständen aktiviert sind, können als unterschiedliche Stützstellen für die Multispektralbildgebung dienen. Zumindest eine dieser Stützstellen kann derart gewählt sein, dass sie an charakteristische Punkte von Absorptionsspektren physiologisch relevanter Komponenten angepasst ist, beispielsweise an einen isosbestischen Punkt der Hämoglobin-Oxygenierungskurve. Die Multispektralbildgebung kann zusätzlich die Verwendung geeigneter Beobachtungsfilter umfassen.
Ferner kann die zweite Gruppe zumindest zwei Leuchtelemente umfassen, die spektral unterschiedlich emittieren. Der Fluoreszenzmodus kann unterschiedliche Untermodi und/oder Zustände umfassen, in denen jeweils ein bestimmtes Leuchtelement bzw. ein bestimmter Leuchtelementtyp zumindest zeitweise aktiviert ist. Hierdurch kann gezielt in einem bestimmten Spektralbereich angeregt werden, sodass Fluoreszenzbildgebung etwa für einen konkret ausgewählten Farbstoff erfolgen kann. Das zumindest eine Leuchtelement, das sowohl in der ersten Gruppe als auch in der zweiten Gruppe enthalten ist, ist in anderen Worten sowohl für den Multispektralmodus als auch für den Fluoreszenzmodus einsetzbar.
Die erste Gruppe umfasst in einigen Ausführungsformen lediglich einige aber nicht alle der Leuchtelemente. Alternativ oder zusätzlich umfasst in einigen Ausführungsformen die zweite Gruppe lediglich einige aber nicht alle der Leuchtelemente. In dem Multispektralmodus sind insbesondere ausschließlich Leuchtelemente der ersten Gruppe zumindest zeitweise aktiviert, wohingegen Leuchtelemente, die nicht zur ersten Gruppe gehören, deaktiviert sind. In dem Fluoreszenzmodus sind insbesondere ausschließlich Leuchtelemente der zweiten Gruppe zumindest zeitweise aktiviert, wohingegen Leuchtelemente, die nicht zur zweiten Gruppe gehören, deaktiviert sind. Generell versteht sich, dass die Leuchtelemente unterschiedliche Leuchtelementtypen umfassen können und dass von den unterschiedlichen Leuchtelementtypen insbesondere jeweils genau ein Leuchtelement vorhanden sein kann. Es versteht sich, dass auch gemischte Betriebsmodi erfindungsgemäß vorkommen können, in denen die genannten Modi sequenziell verwendet werden. Beispielsweise kann sequenziell Multispektralbildgebung und Fluoreszenzbildgebung durchgeführt werden. Synergie hinsichtlich der Verwendung eines Leuchtelements für unterschiedliche Modi und damit verbundene Effizienzzugewinne können insbesondere dann erzielt werden, wenn zumindest ein Leuchtelement, das sowohl in der ersten Gruppe als auch in der zweiten Gruppe enthalten ist, Licht im roten Spektral be re ich emittiert, insbesondere in einem Spektralbereich zwischen 600 nm und 680 nm, beispielsweise zwischen 610 nm und 650 nm oder zwischen 620 und 660 nm oder zwischen 630 und 670 nm. Der Spektralbereich kann schmalbandig sein und die Wellenlänge 660 nm umfassen. „Schmalbandig“ kann eine spektrale Breite von höchstens 80 nm, insbesondere von höchstens 40 nm oder sogar von höchstens 20 nm umfassen. Dieses zumindest eine Leuchtelement kann dazu eingerichtet sein, im roten Spektralbereich absorbierende Farbstoffe anzuregen und einen Beitrag zur Beleuchtung im roten Spektralbereich für eine Multispektralbildgebung zu liefern.
Die Beleuchtungseinheit kann in einigen Ausführungsformen in zumindest einem Weißlichtmodus betreibbar sein, in dem die Beleuchtungseinheit Beleuchtungslicht für Weißlichtbildgebung liefert. Das Beleuchtungslicht für Weißlichtbildgebung kann breitbandiges Weißlicht sein. Alternativ kann das Beleuchtungslicht für Weißlichtbildgebung mehrere schmale Wellenlängenbänder umfassen, die voneinander separiert sind, beispielsweise ein blaues, ein roten und ein dunkelrotes Band. „Dunkelrot“ ist dabei im Sinne von „langwellige als rot“ zu verstehen und bezieht sich auf die Spektralposition, nicht die Lichtintensität. Das Beleuchtungslicht für Weißlichtbildgebung kann aus Licht unterschiedlicher Leuchtelemente gemischt sein.
In dem Weißlichtmodus kann eine dritte Gruppe der Leuchtelemente zumindest zeitweise aktiviert sein, um das Beleuchtungslicht für die Weißlichtbildgebung zu liefern. Dabei können die Leuchtelemente zumindest ein Leuchtelement umfassen, das sowohl in der ersten Gruppe und/oder in der zweiten Gruppe als auch in der dritten Gruppe enthalten ist. In einigen Fällen kann die dritte Gruppe lediglich einige aber nicht alle der Leuchtelemente umfassen. In dem Weißlichtmodus sind insbesondere ausschließlich Leuchtelemente der dritten Gruppe zumindest zeitweise aktiviert, wohingegen Leuchtelemente, die nicht zur dritten Gruppe gehören, deaktiviert sind. In anderen Worten kann die Beleuchtungseinheit Leuchtelemente umfassen, die einem, zwei oder allen drei der genannten Beleuchtungsmodi dienen. Hierdurch können mehrere Leuchtelemente mehrfach eingesetzt werden.
Zumindest ein Leuchtelement, das sowohl in der ersten Gruppe und/oder in der zweiten Gruppe als auch in der dritten Gruppe enthalten ist, kann Licht im roten Spektralbereich emittieren, insbesondere in einem Spektralbereich zwischen 600 nm und 680 nm, beispielsweise zwischen 610 nm und 650 nm oder zwischen 620 und 660 nm oder zwischen 630 und 670 nm. Die Vorteile der gemeinsamen Verwendung von Leuchtelementen kommen besonders zum Tragen, wenn zumindest ein rotes Leuchtelement für alle drei Modi verwendbar ist.
Zumindest ein Leuchtelement, das sowohl in der ersten Gruppe und/oder in der zweiten Gruppe als auch in der dritten Gruppe enthalten ist, kann Licht im blauen Spektralbereich emittieren, insbesondere in einem Spektralbereich zwischen 440 und 480 nm. Zumindest ein blaues Leuchtelement kann zweckmäßigerweise sowohl im Fluoreszenzmodus als auch im Weißlichtmodus verwendet werden.
Allgemein ausgedrückt können die Leuchtelemente wie erwähnt zumindest ein, insbesondere blaues, Leuchtelement umfassen, das Licht in einem Spektralbereich zwischen 440 und 480 nm emittiert. Zudem können die Leuchtelemente wie erwähnt zumindest ein, insbesondere rotes, Leuchtelement umfassen, das Licht in einem Spektralbereich zwischen 600 und 680 nm emittiert, beispielsweise zwischen 610 nm und 650 nm oder zwischen 620 und 660 nm oder zwischen 630 und 670 nm. Alternativ oder zusätzlich können die Leuchtelemente zumindest ein, insbesondere dunkelrotes, Leuchtelement umfassen, das Licht in einem Spektralbereich zwischen 750 und 790 nm emittiert. Alternativ oder zusätzlich können Leuchtelemente zumindest ein, insbesondere nah-IR-emittierendes, Leuchtelement umfassen, das Licht in einem Spektralbereich zwischen 920 und 960 nm emittiert. Daneben können die Leuchtelemente ein Weißlichtleuchtelement umfassen. Eine kompakte und vielseitig verwendbare Beleuchtungseinheit kann insbesondere dann bereitgestellt werden, wenn von jedem der genannten Leuchtelementtypen jeweils zumindest ein Leuchtelement vorhanden ist. Beispielsweise können im Fluoreszenzmodus das blaue und das rote, im Fall geeigneter Farbstoffe ggf. auch das dunkelrote Leuchtelement verwendbar sein. Im Multispektralmodus können das dunkelrote und das nah-IR-emittierende Leuchtelement verwendbar sein. Im Weißlichtmodus kann das Weißlichtleuchtelement verwendbar sein. Dieses kann im Weißlichtmodus ergänzt werden durch das blaue Leuchtelement und ggf. ferner das rote Leuchtelement. Hierdurch können Wellenlängenbereiche mittels farbiger Leuchtelemente ergänzt werden, in denen das Weißlichtleuchtelement, beispielsweise aufgrund seiner Konstruktion aber insbesondere aufgrund von Filtern und optischen Elementen der Beleuchtungseinheit, eine reduzierte Intensität liefert. Zudem können die farbigen Leuchtelemente dazu eingesetzt werden, eine Farbtemperatur bei der Weißlichtbildgebung einzustellen. In einigen Ausführungsformen umfasst die zweite Gruppe ein einzelnes Leuchtelement und/oder eine einzelne Art von Leuchtelementen. Beispielsweise kann ein Weißlichtleuchtelement, ein rotes Leuchtelement und ein IR-emittierendes Leuchtelement vorgesehen sein, wobei bzgl. möglicher Spektralbereiche insbesondere auf die obigen Werte verwiesen wird. Die erste Gruppe kann dann beispielsweise das rote und das IR-emittierende Leuchtelement umfassen. Die zweite Gruppe kann das IR-emittierende Leuchtelement umfassen, insbesondere als einziges Leuchtelement bzw. als einzige Art von Leuchtelement.
Eine günstige Anordnung von Leuchtelementen wird insbesondere dann ermöglicht, wenn die Beleuchtungseinheit zumindest einen gekreuzten Strahlteiler umfasst, mittels dessen Licht von gegenüberliegenden Eingangsseiten zu einer Ausgangsseite ablenkbar ist, wobei auf den gegenüberliegenden Eingangsseiten des gekreuzten Strahlteilers jeweils zumindest eines der Leuchtelemente angeordnet ist. In einigen Ausführungsformen können zwei oder auch mehr gekreuzte Strahlteiler vorgesehen sein, die optisch hintereinander angeordnet sind. Der zumindest eine gekreuzte Strahlteiler kann zwei Strahlteilerelemente umfassen, deren Durchlässigkeit an das jeweils zugeordnete Leuchtelement angepasst ist. Die Strahlteilerelemente umfassen insbesondere jeweils einen Kerbfilter (notch filter), sodass sie jeweils in einem schmalen Spektralband reflektieren, ansonsten aber transmittieren. Die spektrale Position und/oder Breite der entsprechenden Kerbe kann an den Spektralbereich des jeweils zugeordneten Leuchtelements angepasst sein, sodass dessen Licht umgelenkt, Licht anderer Leuchtelemente aber zumindest weitgehend transmittiert wird.
In einigen Ausführungsformen können die Leuchtelemente wenigstens vier schmalbandig emittierende Einzelfarbleuchtelemente mit jeweils unterschiedlichen Spektralbereichen und zumindest ein breitbandig emittierendes Weißlichtleuchtelement umfassen. Diesbezüglich wird auch auf die obigen Ausführungen zu den farbigen Leuchtelementen verwiesen.
Ein großer Funktionsumfang in Kombination mit einer kompakten Bauweise und der Ausnutzung von Synergieeffekten bei der Verwendung von Leuchtelementen kann insbesondere dann erzielt werden, wenn die Beleuchtungseinheit in zumindest einem Hyperspektral mod us betreibbar ist, in dem mehrere Leuchtelemente aktiviert sind, deren Emissionsspektren gemeinsam zumindest einen Spektralbereich von 450 nm bis 850 nm abdecken, und in dem die Beleuchtungseinheit Beleuchtungslicht für Hyperspektralbildgebung liefert. Hierbei kann es sich insbesondere um sämtliche der Leuchtelemente handeln.
Es versteht sich, dass insbesondere im Fall der Verwendung von Laserdioden für die hierin genannten optischen Filter geeignete Polarisationsfilter verwendet werden können. Ferner kann insbesondere im Fall der Verwendung von Laserdioden zumindest ein gekreuzter Strahlteiler verwendet werden, dessen Strahlteilerelemente mit Polarisationsfiltern versehen sind. Eine selektive Durchlässigkeit kann dann durch Kombination unterschiedlicher Polarisationen erzielt werden.
Die von der Darstellungserzeugungseinheit aus den Fluoreszenzbildern und den Anatomiebildern erzeugte Darstellung kann eine Kombinationsdarstellung umfassen, insbesondere eine Überlagerungsdarstellung, die auf einer Kombination von Fluoreszenzbildern und Anatomiebildern beruht. Ein Benutzer kann dann besonders einfach Fluoreszenzinformation anatomischer Information zuordnen. Insbesondere können die Fluoreszenzbilder und die Anatomiebilder auf dasselbe Objekt, insbesondere dieselbe Anatomie gerichtet sein. Bildausschnitte können sich dabei voneinander unterscheiden.
Die Bildgebungsvorrichtung kann eine Anzeige umfassen und/oder zur Verbindung mit einer Anzeige vorgesehen sein. Hierfür kann eine entsprechende Schnittstelle vorhanden sein. Die Darstellungserzeugungseinheit kann dazu eingerichtet sein, die Darstellungen für die Anzeige zu erzeugen. Die Anzeige kann beispielsweise einen Bildschirm umfassen, auf dem die Darstellung einem Benutzer zur Verfügung gestellt wird.
In einigen Ausführungsformen ist die Bilderfassungseinheit dazu eingerichtet ist, die Fluoreszenzbilder und die Anatomiebilder in Echtzeit aufzunehmen. Ferner kann die Darstellungserzeugungseinheit dazu eingerichtet sein, die zumindest eine Darstellung in Echtzeit zu erzeugen. Für einen Benutzer kann auf diese Weise ein anatomisches und ein fluoreszenzbasiertes Bewegtbild verfügbar gemacht werden, auch wenn eine Anregung im sichtbaren Bereich erfolgt.
Wie erwähnt, kann in einigen Ausführungsformen die Bilderfassungseinheit dazu eingerichtet sein, die Fluoreszenzbilder und die Anatomiebilder sequenziell aufzunehmen. Es kann dann vorteilhaft sein, wenn die Darstellungserzeugungseinheit dazu eingerichtet ist, sequenziell aufgenommene Fluoreszenzbilder und Anatomiebilder einander, insbesondere zeitlich, zuzuordnen und die zumindest eine Darstellung anhand zugeordneter Fluoreszenzbilder und Anatomiebilder zu erzeugen. Die Zuordnung kann framesynchron erfolgen. Unter „framesynchron“ ist dabei zu verstehen, dass einander zugeordnete Fluoreszenzbilder und Anatomiebilder zeitlich korreliert sind. Es ist darunter nicht zwingend eine Gleichzeitigkeit im engen Sinn zu verstehen. Zudem umfasst der Begriff „framesynchron“ auch solche Situationen, in denen abwechselnd eine erste Anzahl von Fluoreszenzbildern und eine davon abweichende zweite Anzahl von Anatomiebildern aufgenommen werden. Beispielsweise kann erfindungsgemäß vorgesehen sein, dass eine Aktualisierungsrate für Anatomiebilder größer ist als eine Aktualisierungsrate für Fluoreszenzbilder. Die Aufnahme ist dann dennoch im Sinne dieser Offenbarung framesynchron, wenn die Zuordnung derart erfolgt, dass ein zeitlicher Zusammenhang zwischen den dargestellten Bildern besteht. In anderen Worten kann die Kombinationsdarstellung zumindest einem Fluoreszenzbild und zumindest einem Anatomiebild beruhen, die innerhalb eines vorgegebenen Zeitraums aufgenommen wurden, beispielsweise innerhalb eines Zeitraums von höchstens 1000 ms, höchstens 500 ms, höchstens 100 ms oder sogar höchstens 50 ms.
In Ergänzung zu den obigen Ausführungen zur Bilderfassungssensorik kann allgemein vorgesehen sein, dass die Bilderfassungssensorik zumindest einen ersten Bilderfassungssensor umfasst, der dazu eingerichtet ist, Bildinformation für die Fluoreszenzbilder zu erfassen, und dass ferner die Bilderfassungssensorik zumindest einen zweiten Bilderfassungssensor umfasst, der dazu eingerichtet ist, Bildinformation für die Anatomiebilder zu erfassen. Die Bilderfassungssensoren können mittels zumindest eines optischen Elements derart kombiniert sein, das detektiertes Licht stets oder zumindest wahlweise auf mehrere oder alle Bilderfassungssensoren gleichzeitig fällt. Der erste Bilderfassungssensor kann zumindest einen Nahinfrarot-Bildsensor umfassen. Der zweite Bilderfassungssensor kann einen Weißlicht-Bilderfassungs-Chip umfassen. Alternativ oder zusätzlich kann der zweite Bilderfassungssensor unterschiedliche Farbkanäle umfassen, beispielsweise einen roten, einen grünen und einen blauen Farbkanal. Dies kann beispielsweise durch die Verwendung eines Farbfilters mit geeignetem Pattern erfolgen. In einigen Ausführungsformen wird beispielsweise ein Bayer-Sensor verwendet, es sind aber auch andere Anordnungen erfindungsgemäß möglich. Ferner kann vorgesehen sein, dass für jeden Farbkanal ein eigener zweidimensional auflösender separater Bildsensor verwendet wird. Es versteht sich, dass in einigen Ausführungsformen ein Fluoreszenzbild zusätzlich oder alternativ auch mittels des ersten Bilderfassungssensors erzeugt werden kann und/oder dass ein Anatomiebild zusätzlich oder alternativ auch mittels des zweiten Bilderfassungssensors erzeugt werden kann. Die Anatomiebilder können beispielsweise mehrere Anatomiebilder umfassen und/oder auf mehreren Einzelbildern beruhen, die unterschiedlichen Farbkanälen zugeordnet sind, etwa Bilder aus einem roten Farbkanal, einem grünen Farbkanal, einem blauen Farbkanal und/oder einem Nahinfrarot-Farbkanal. Alternativ oder zusätzlich kann ein einzelnes Anatomiebild mehrere Farbkanäle umfassen, beispielsweise einen roten Farbkanal, einen grünen Farbkanal, einen blauen Farbkanal und/oder einen Nahinfrarot-Farbkanal.
In anderen Ausführungsformen umfasst die Bilderfassungssensorik einen einzelnen Bilderfassungssensor, insbesondere einen Ein-Chip-Bilderfassungssensor und/oder einen Ein-Chip-Kamerakopf, der sowohl im sichtbaren Bereich als auch im Nahinfrarotbereich abbildet.
In einigen Ausführungsformen kann die Bilderfassungssensorik dazu eingerichtet sein, Fluoreszenzbilder und Anatomiebilder gleichzeitig aufzunehmen. Unter „gleichzeitig“ ist hierbei insbesondere eine zeitliche Gleichzeitigkeit gemeint, die sich beispielsweise von einer sequenziellen Aufnahme von Fluoreszenzbildern und Anatomiebildern unterscheidet. In diesem Fall kann beispielsweise die Aufnahme eines Anatomiebilds und zugleich die Aufnahme eines Fluoreszenzbilds innerhalb eines Zeitraums von höchstens 500 ms, höchstens 100 ms oder sogar höchstens 20 ms ausgelöst werden. „Gleichzeitig“ kann jedoch umfassen, dass die Aufnahme der entsprechenden Bilder unterschiedlich lange dauert, beispielsweise wenn unterschiedliche Belichtungsdauern verwendet werden.
Verfügbare Bildinformation kann insbesondere dann zielgerichtet und zur Erzeugung eines aussagekräftigen Anatomiebilds verwendet werden, wenn die Darstellungserzeugungseinheit dazu eingerichtet ist, zumindest ein Anatomiebild aus mehreren, insbesondere einzelfarbigen, Einzelbildern und/oder aus mehreren Farbkanälen von Anatomiebildern zu erzeugen. Das Anatomiebild kann auf diese Weise aus mehreren Farbkanälen synthetisiert werden, wodurch gegebenenfalls ein Wegfall eines bestimmten Farbkanals und/oder eines bestimmten Spektralbereich aufgrund des Beobachtungsfilters zumindest teilweise kompensiert werden kann. Je nach verwendeter Bilderfassungssensorik können auch einzelne Bildsensoren Einzelbilder liefern, beispielsweise einzelfarbige Einzelbilder, wie etwa ein blaues, grünes, rotes und/oder Nahinfrarot-Einzelbild, oder auch unterschiedlich und ggf. teilweise mehrfarbige Einzelbilder, wie beispielsweise ein RGB-Einzelbild und ein Nahinfrarot-Einzelbild. In einigen Ausführungsformen entspricht das Anatomiebild einem Weißlichtbild mit mehreren Farbkanälen, bei dem zumindest ein Farbkanal aus dem sichtbaren Bereich durch zumindest einen Farbkanal ersetzt ist, der außerhalb des sichtbaren Bereichs, insbesondere im Nahinfrarotbereich, liegt. Hierdurch kann ein nahezu natürliches Anatomiebild erzeugt werden, auch wenn Spektralinformation aufgrund des Beobachtungsfilters verloren geht.
Die Erfindung betrifft außerdem Programmcode, der dazu eingerichtet ist, dann, wenn er in einem Prozessor ausgeführt wird, eine Durchführung eines erfindungsgemäßen Verfahrens zu bewirken.
Ferner betrifft die Erfindung ein Programmcode, umfassend ein computerlesbares Medium, auf dem erfindungsgemäße Programmcode gespeichert ist.
Die erfindungsgemäßen Vorrichtungen und Systeme sowie die erfindungsgemäßen Verfahren sollen hierbei nicht auf die oben beschriebene Anwendung und Ausführungsform beschränkt sein. Insbesondere können diese zu einer Erfüllung einer hierin beschriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzelnen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen. Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als offenbart und als beliebig einsetzbar gelten.
Es wird insbesondere darauf hingewiesen, dass alle in Bezug auf eine Vorrichtung beschriebenen Merkmale und Eigenschaften, aber auch Verfahrensweisen, sinngemäß auf Verfahren übertragbar und im Sinne der Erfindung einsetzbar und als mitoffenbart gelten. Gleiches gilt auch in umgekehrter Richtung. Das bedeutet, dass auch in Bezug auf Verfahren genannte, bauliche also vorrichtungsgemäße Merkmale im Rahmen der Vorrichtungsansprüche berücksichtigt, beansprucht und ebenfalls zur Offenbarung gezählt werden können.
Im Folgenden wird die vorliegende Erfindung anhand der beigefügten Figuren beispielhaft beschrieben. Die Zeichnung, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und im Rahmen der Ansprüche sinnvoll in Kombination verwenden. Falls von einem bestimmten Objekt mehr als ein Exemplar vorhanden ist, ist ggf. nur eines davon in den Figuren und in der Beschreibung mit einem Bezugszeichen versehen. Die Beschreibung dieses Exemplars kann entsprechend auf die anderen Exemplare von dem Objekt übertragen werden. Sind Objekte insbesondere mittels Zahlenwörtern, wie beispielsweise erstes, zweites, drittes Objekt etc. benannt, dienen diese der Benennung und/oder Zuordnung von Objekten. Demnach können beispielsweise ein erstes Objekt und ein drittes Objekt, jedoch kein zweites Objekt umfasst sein. Allerdings könnten anhand von Zahlenwörtern zusätzlich auch eine Anzahl und/oder eine Reihenfolge von Objekten ableitbar sein.
Es zeigen:
Fig. 1 eine schematische Darstellung einer Bildgebungsvorrichtung mit einer Beleuchtungsvorrichtung;
Fig. 2 eine schematische Darstellung der Beleuchtungsvorrichtung;
Fig. 3 schematische Transmissionskurven von Strahlteilerelementen der Beleuchtungsvorrichtung;
Fig. 4 eine schematische Darstellung der Bildgebungsvorrichtung;
Fig. 5 eine schematische Darstellung einer weiteren Ausführungsform der
Bildgebungsvorrichtung;
Fig. 6 eine schematische Darstellung noch einer weiteren Ausführungsform der Bildgebungsvorrichtung;
Fig. 7 eine schematische perspektivische Darstellung einer weiteren Ausführungsform der Bildgebungsvorrichtung;
Fig. 8 ein schematisches Ablaufdiagramm eines Verfahrens zur Erzeugung von Beleuchtungslicht für ein Bildgebungsgerät mittels einer Beleuchtungsvorrichtung;
Fig. 9 ein schematisches Ablaufdiagramm eines Verfahrens zum Betrieb einer Bildgebungsvorrichtung; Fig. 10 ein schematisches Ablaufdiagramm eines Verfahrens zum Betrieb einer Bildgebungsvorrichtung;
Fig. 11 eine schematische Darstellung einer medizinischen Bildgebungsvorrichtung;
Fig. 12 schematische Spektren eines Fluoreszenzfarbstoffs sowie eine Transmissionskurve eines zugehörigen Beobachtungsfilters;
Fig. 13 schematische Spektren des Fluoreszenzfarbstoffs sowie eine Transmissionskurve eines alternativen zugehörigen Beobachtungsfilters;
Fig. 14 schematische Darstellungen einer Reihe von Fluoreszenzbildern und Anatomiebildern;
Fig. 15 eine schematische Darstellung von Farbkanälen eines Anatomiebilds;
Fig. 16 ein schematisches Diagramm zur Veranschaulichung eines ersten Beispiels zur Berechnung von Fluoreszenzbildern und Anatomiebilder;
Fig. 17 ein schematisches Diagramm zur Veranschaulichung eines zweiten Beispiels zur Berechnung von Fluoreszenzbildern und Anatomiebilder;
Fig. 18 ein schematisches Diagramm zur Veranschaulichung eines dritten Beispiels zur Berechnung von Fluoreszenzbildern und Anatomiebilder;
Fig. 19 ein schematisches Diagramm zur Veranschaulichung eines vierten Beispiels zur Berechnung von Fluoreszenzbildern und Anatomiebilder;
Fig. 20 ein schematisches Ablaufdiagramm eines Verfahrens zur medizinischen Bildgebung; und
Fig. 21 eine schematische Darstellung eines Computerprogrammprodukts.
Fig. 1 zeigt eine schematische Darstellung einer Bildgebungsvorrichtung 10. Im exemplarisch dargestellten Fall ist die Bildgebungsvorrichtung 10 eine endoskopische Bildgebungsvorrichtung, konkret eine Endoskopvorrichtung. Alternativ könnte es sich bei der Bildgebungsvorrichtung 10 um eine exoskopische, eine mikroskopische oder eine makroskopische Bildgebungsvorrichtung handeln. Die Bildgebungsvorrichtung 10 ist beispielhaft als medizinische Bildgebungsvorrichtung gezeigt. Die Bildgebungsvorrichtung 10 ist beispielsweise zu einer Untersuchung einer Kavität vorgesehen.
Die Bildgebungsvorrichtung 10 weist ein medizinisches Bildgebungsgerät 14 auf. Im dargestellten Fall handelt es sich hierbei um ein Endoskop.
Ferner umfasst die Bildgebungsvorrichtung 10 eine Beleuchtungsvorrichtung 12 mit einer optischen Schnittstelle 16 und eine Beleuchtungseinheit 18. Das Bildgebungsgerät 14 ist optisch an die optische Schnittstelle 16 anbindbar. Die optische Schnittstelle 16 kann Teil einer optisch-mechanischen Schnittstelle sein, die wahlweise lösbar und verbindbar ist. Das Beleuchtungsgerät 14 kann wahlweise von der Beleuchtungsvorrichtung 12 abkoppelbar sein. Die Beleuchtungseinheit 18 ist dazu eingerichtet, Beleuchtungslicht an die optische Schnittstelle 16 zu liefern. Bei einer Bildgebung mittels des Bildgebungsgeräts 14 kann entsprechend die Beleuchtungseinheit 18 das erforderliche Beleuchtungslicht bereitstellen, das zum Beleuchtungsgerät 14 geführt und von dort auf ein abzubildendes Objekt wie beispielsweise einen Situs ausgekoppelt wird.
Die Bildgebungsvorrichtung 10 umfasst im dargestellten Fall ferner eine Anzeigeeinheit, auf der Bilder angezeigt werden können, die auf Bilddaten beruhen, die mittels des Bildgebungsgeräts 14 erfasst wurden. Hierbei kann es sich um Videobilder, Standbilder, Überlagerungen unterschiedlicher Bilder, Teilbilder, Bildsequenzen etc. handeln.
Die Bildgebungsvorrichtung 10 ist multimodal. Exemplarisch ist die Bildgebungsvorrichtung in drei grundlegenden Modi betreibbar, einem Multispektralmodus, einem Fluoreszenzmodus und einem Weißlichtmodus. Ferner kann vorgesehen sein, dass die Bildgebungsvorrichtung 10 zusätzlich oder alternativ zum Multispektralmodus in einem Hyperspektralmodus betreibbar ist.
Die Beleuchtungsvorrichtung 12 ist multimodal. Die Beleuchtungsvorrichtung 12 ist in unterschiedlichen Beleuchtungsmodi betreibbar, in denen sie Licht für unterschiedliche Bildgebungsmodi liefert. Vorliegend ist die Beleuchtungsvorrichtung 12 in drei grundlegenden Modi betreibbar, einem Multispektralmodus, einem Fluoreszenzmodus und einem Weißlichtmodus. Ebenso ist das Bildgebungsgerät 14 in unterschiedlichen Betriebsmodi betreibbar, konkret ebenfalls zumindest in einem Multispektralmodus, einem Fluoreszenzmodus und einem Weißlichtmodus. Im entsprechenden Betriebsmodus der Bildgebungsvorrichtung 10 werden die Modi der Beleuchtungsvorrichtung 12 aufeinander abgestimmt.
Fig. 2 zeigt eine schematische Darstellung der Beleuchtungsvorrichtung 12. Die Beleuchtungseinheit 18 umfasst mehrere unabhängig voneinander aktivierbare Leuchtelemente 20, 22, 24, 26, 28. Diese sind dazu eingerichtet, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um Beleuchtungslicht zu liefern, d. h. das jeweilige Emissionsspektrum unterscheidet sich von Leuchtelement zu Leuchtelement.
Beispielhaft sind die Leuchtelemente 20, 22, 24, 26, 28 als LEDs ausgebildet. Konkret ist ein erstes Leuchtelement 20 als rote LED, ein zweites Leuchtelement 22 als dunkelrote LED, ein drittes Leuchtelement 24 als blaue LED und ein viertes Leuchtelement 26 als Nah-IR-LED ausgebildet. Die farbigen Leuchtelemente 20, 22, 24, 26 emittieren jeweils schmalbandig, beispielsweise mit Emissionspeak etwa bei den Wellenlängen 660 nm (erstes Leuchtelement 20), 770 nm (zweites Leuchtelement 22), 460 nm (drittes Leuchtelement 24) und 940 nm (viertes Leuchtelement 26).
Ferner ist ein fünftes Leuchtelement 28 vorgesehen, das vorliegend ein Weißlichtleuchtelement ist, etwa eine Weißlicht-LED. Das fünfte Leuchtelement 28 emittiert beispielsweise in einem Spektralbereich von etwa 400 bis 700 nm. In anderen Ausführungsformen können auch Laserdioden verwendet werden, insbesondere als farbige Leuchtelemente.
Je nach Beleuchtungsmodus werden einige der Leuchtelemente 20, 22, 24, 26, 28 zumindest zeitweise aktiviert, wohingegen ggf. andere Leuchtelemente 20, 22, 24, 26, 28 in dem betreffenden Beleuchtungsmodus nicht verwendet werden.
Vorliegend umfasst eine erste Gruppe erste Leuchtelement 20 und das vierte Leuchtelement 26. Die erste Gruppe kann zusätzlich das Leuchtelement 22 und/oder das Leuchtelement 24 umfassen. Die erste Gruppe wird zur Multispektralbildgebung verwendet, wobei die enthaltenen Leuchtelemente 20, 26 sowie ggf. 22 und 24 jeweils als Stützstelle dienen. Im Multispektralmodus wird beispielsweise zunächst mit dem ersten Leuchtelement 20 beleuchtet und ein Bild aufgenommen. Anschließend wird mit dem vierten Leuchtelement 26 beleuchtet und ein Bild aufgenommen. Die Bilder beruhen jeweils auf Remission, d. h. es wird das vom abzubildenden Objekt zurückgestreute Licht betrachtet. Durch die beiden unterschiedlichen Stützstellen kann spektrale Information über das abzubildende Objekt gewonnen werden. Beispielsweise können hierdurch bestimmte Gewebearten, ein Perfusionszustand, eine Gewebebeschaffenheit oder dergleichen beurteilt werden.
Ferner umfasst eine zweite Gruppe das erste Leuchtelement 20, das zweite Leuchtelement 22 und das dritte Leuchtelement 24. Die zweite Gruppe wird zur Beleuchtung bei Fluoreszenzbildgebung verwendet. Hierbei können zum Beispiel gezielt mit geeignet gewählten Farbstoffen eingefärbte Objekte betrachtet werden. Auch können unterschiedliche Farbstoffe in unterschiedliche Gewebearten oder dergleichen eingebracht werden, die gleichzeitig betrachtet werden. Durch gezielte Anregung eines bestimmten Farbstoffs wird dieser zur Fluoreszenz angeregt. Abgebildet wird dann das Fluoreszenzlicht. Das erste Leuchtelement 20 ist beispielsweise dazu geeignet, den Farbstoff Cyanin 5.5 (Cy 5.5) anzuregen. Das zweite Leuchtelement 22 ist dazu geeignet, den Farbstoff Indocyaningrün (ICG) anzuregen. Das dritte Leuchtelement 24 ist dazu geeignet, den Farbstoff Fluoreszin anzuregen.
Des Weiteren umfasst eine dritte Gruppe das fünfte Leuchtelement 28. In der vorliegenden Ausführungsform umfasst die dritte Gruppe zudem das erste Leuchtelement 20 und das dritte Leuchtelement 24. Die dritte Gruppe dient dazu, Beleuchtungslicht für Weißlichtbildgebung bereitzustellen. Hierfür kann Weißlicht des fünften Leuchtelements 28 mit Licht bestimmter farbiger Leuchtelemente gemischt werden, wodurch spektrale Verluste ausgeglichen und/oder eine Farbtemperatur gezielt eingestellt werden kann.
Erkennbar sind einige der Leuchtelemente 20, 22, 24, 26, 28 mehreren Gruppen zugeordnet, beispielhaft das erste Leuchtelement 20 allen drei Gruppen sowie das dritte Leuchtelement 24 und ggf. auch das zweite Leuchtelement 22 der zweiten und der dritten Gruppe.
Alternativ oder zusätzlich kann auch vorgesehen sein, dass einige oder sämtliche der Leuchtelement 20, 22, 24, 26, 28 in einem Hyperspektral modus eingesetzt werden. Es wird dann ein breites Anregungsspektrum erzeugt. In Kombination mit einem geeigneten Hyperspektraldetektor kann dann über das gesamte sichtbare und Nah- IR-Spektrum spektrale Information bzgl. des abzubildenden Objekt erfasst werden. Das Bildgebungsgeräts 14 kann zu diesem Zweck eine Pushbroom-Anordnung als Hyperspektraldetektor umfassen. In anderen Ausführungsformen wird eine Whiskbroom-Anordnung, eine Staring-Anordnung und/oder eine Schnappschuss- Anordnung verwendet. Das Bildgebungsgerät 14 kann ein hyperspektrales Bildgebungsgerät sein. Bezüglich unterschiedlicher Methoden einer hyperspektralen Bildgebung sowie hierfür erforderlicher Komponenten wird auf den Fachartikel „Review of spectral imaging technology in biomedical engineering: achievements and challenges“ von Quingli Li et al. Erschienen in Journal of Biomedical Optics 18(10), 100901 , Oktober 2013, sowie auf den Fachartikel „Medical hyperspectral imaging: a review“ von Guolan Lu und Baowei Fei, erschienen in Journal of Biomedical Optics 19(1), 010901 , Januar 2014, verwiesen.
Die Beleuchtungseinheit 18 umfasst zwei gekreuzte Strahlteiler 30, 32. Diese umfassen jeweils eine Ausgangsseite 42, 44, jeweils eine der Ausgangsseite 42, 44 gegenüberliegende Eingangsseite 37, 41 und jeweils zwei einander gegenüberliegende Eingangsseiten 34, 36, 38, 40. Sämtliche Eingangsseiten 34, 36, 37, 38, 40, 41 führen einfallendes Licht zur entsprechenden Ausgangsseite 42, 44. Die Ausgangsseite 42 eines ersten gekreuzten Strahlteilers 30 ist eine Eingangsseite 41 des zweiten gekreuzten Strahlteilers 32 zugewandt. Die Ausgangsseite 44 des zweiten gekreuzten Strahlteilers 32 ist der optischen Schnittstelle 16 zugewandt. Die beiden gekreuzten Strahlteiler 30, 32 sind vorzugsweise zueinander und/oder zur optischen Schnittstelle koaxial angeordnet.
Die Beleuchtungseinheit 18 kann geeignete optische Elemente wie Linsen und/oder nicht dargestellte Spiegel umfassen. Exemplarisch sind in Fig. 2 mehrere Linsen 78, 80, 82, 84, 86, 88 dargestellt. Eine Linse 78 ist etwa der optischen Schnittstelle 16 zugeordnet und koppelt von der Ausgangsseite 44 des zweiten gekreuzten Strahlteilers 32 kommendes Licht in die optische Schnittstelle 16 ein. Ferner kann jedem der Leuchtelemente 20, 22, 24, 26, 28 jeweils eine Linse 80, 82, 84, 86, 88 zugeordnet sein. Ein besonders hoher Grad an Kompaktheit kann insbesondere dann erzielt werden, wenn die Leuchtelemente 20, 22, 24, 26, 28 jeweils ohne zwischengeordneten Spiegel an Eingangsseiten 34, 36, 37, 38, 40 des zumindest einen gekreuzten Strahlteilers 30, 32 angeordnet sind. Die Leuchtelemente 20, 22, 24, 26, 28 können dann sehr nah an den zumindest einen gekreuzten Strahlteiler 30, 32 herangerückt werden.
Die gekreuzten Strahlteiler 30, 32 umfassen jeweils zwei Strahlteilerelemente 90, 92, 94, 96. Diese können grundsätzlich teildurchlässig sein, sodass Licht von allen Eingangsseiten 34, 36, 37, 38, 40, 41 zur jeweiligen Ausgangsseite 42, 44 umgelenkt wird. In der vorliegenden Ausführungsform sind die Strahlteilerelemente 90, 92, 94, 96 selektiv lichtdurchlässig. Dies ist mit weiterer Bezugnahme auf Fig. 3 veranschaulicht. Die Strahlteilerelemente 90, 92, 94, 96 können Filter sein, die lediglich in einem definierten Bereich reflektieren, ansonsten aber eine hohe Transmission aufweisen. In Fig. 3 sind Transmissionskurven 98, 100, 102, 104 der Strahlteilerelemente 90, 92, 94, 96 der beiden gekreuzten Strahlteiler 30, 32 dargestellt. Jedem der farbigen Leuchtelemente 20, 22, 24, 26 bzw. jeder der gegenüberliegenden Eingangsseiten 34, 36, 38, 40 ist eines der Strahlteilerelemente 90, 92, 94, 96 zugeordnet. Die Strahlteilerelemente 90, 92, 94, 96 sind dabei derart gewählt, dass diese jeweils in demjenigen Wellenlängenbereich reflektieren, in dem das zugeordnete Leuchtelement 20, 22, 24, 26 emittiert, daneben aber weitgehend transmittieren. Hierfür können im mittleren Wellenlängenbereich Kerbfilter verwendet werden, die beispielhaft die Transmissionsspektren 100 und 102 aufweisen können. An spektralen Rändern können anstelle von Kerbfiltern auch Hochpass- oder Tiefpass-Filter verwendet werden, vgl. Transmissionsspektren 98 und 104.
Aufgrund der spezifischen Transmissionsspektren 98, 100, 102, 104 der gekreuzten Strahlteiler 30, 32 wird Licht des fünften Leuchtelements 28 spektral beschnitten. Es kann daher in der bereits erwähnten Weise zweckmäßig sein, das durch die Strahlteiler 30, 32 geblockte Licht gezielt mittels der Leuchtelemente 20 und 24, ggf. auch 22 und/oder 26 zu ergänzen. Hierdurch kann speziell in denjenigen Spektralbereichen ergänzt werden, in denen die Strahlteiler 30, 32 Licht des fünften Leuchtelements 28 absorbieren und/oder reflektieren, jedenfalls aber nicht zur optischen Schnittstelle 16 transmittieren. Die ergänzend eingesetzten Leuchtelemente 20, 24 und ggf. 22 werden dabei vorzugsweise mit verringerter Leistung bzw. mit angepasster Leistung betrieben. Hierbei kann darauf abgezielt werden, das ursprüngliche Spektrum des fünften Leuchtelements 28 zumindest weitgehend wiederherzustellen.
In einigen Ausführungsformen kann das fünfte Leuchtelement 28 alternativ ein grünes Leuchtelement sein, bzw. allgemein ausgedrückt ein farbiges Leuchtelement, das vorrangig in demjenigen Spektral be re ich emittiert, den der zumindest eine Strahlteiler 30, 32 transmittiert. Beispielsweise kann das fünfte Leuchtelement 26 in solchen Ausführungsformen eine LED mit einem Emissionspeak bei etwa 530 nm sein. Infrage kommt hierfür auch eine grüne Laserdiode. Dabei kann vorgesehen sein, dass im Weißlichtmodus eine Farbmischung erfolgt und insbesondere keine individuelle Weißlichtquelle wie eine Weißlicht-LED zum Einsatz kommt, sondern Weißlicht aus separaten Leuchtelementen gezielt gemischt wird. Es versteht sich, dass im Fall geeigneter Farbstoffe ein solches grünes Leuchtelement ebenfalls im Fluoreszenzmodus verwendbar sein kann. Alternativ oder zusätzlich könnte es im Multispektralmodus verwendbar sein.
Die Beleuchtungseinheit 18 definiert einen gemeinsamen optischen Pfad 54, in den emittiertes Licht der Leuchtelemente 20, 22, 24, 26, 28 einkoppelbar ist. Der gemeinsame optische Pfad 54 erstreckt sich ausgehend von der Ausgangsseite 44 des zweiten gekreuzten Strahlteilers 32 zur optischen Schnittstelle. Der gemeinsame optische Pfad 54 ist vorliegend koaxial mit dem fünften Leuchtelement 26 angeordnet.
In der gezeigten Ausführungsform sind die Leuchtelemente 20, 26 der ersten Gruppe derart angeordnet, dass von den Leuchtelementen 20, 26 emittiertes Licht ausgehend vom jeweiligen Leuchtelement 20, 26 bis zur optischen Schnittstelle 16 jeweils einen zumindest im Wesentlichen gleich langen Lichtweg durchläuft. Die Leuchtelemente 20, 26 der ersten Gruppe weisen jeweils eine lichtemittierende Fläche 56, 58 auf. Die lichtemittierenden Flächen 56, 62 sind bezüglich des gemeinsamen optischen Pfads 54 äquidistant angeordnet. Dies ist vorliegend dadurch erreicht, dass die beiden Leuchtelemente 20, 26 im gleichen Abstand von dem ihnen zugeordneten Strahlteiler 32 (vorliegend exemplarisch der zweite Strahlteiler 32), im Speziellen von dessen gegenüberliegenden Eingangsseiten 38, 40, angeordnet sind. Das Licht wird dabei vom gekreuzten Strahlteiler 32 in den gemeinsamen optischen Pfad 54 eingekoppelt.
Die Strahlteiler 30, 32 sind insbesondere derart angeordnet, dass lichtemittierende Flächen 56, 58, 60, 62, 64 der Leuchtelemente 20, 22, 24, 26, 28 jeweils bezüglich ihres zugeordneten gekreuzten Strahlteilers 30, 32 äquidistant angeordnet sind.
Durch die Verwendung gekreuzter Strahlteiler 30, 32 und für unterschiedliche Modi gemeinsam verwendbarer Leuchtelemente 20, 22, 24, 26, 28 weist die Beleuchtungseinheit 18 bzw. die Beleuchtungsvorrichtung 12 einen hohen Grad an Kompaktheit auf. Zudem kann durch die äquidistante Anordnung erreicht werden, dass keine spektralen Verschiebungen auftreten, wenn das Bildgebungsgerät 14 bzw. dessen Lichtleiter relativ zu der optischen Schnittstelle 16 verdreht wird.
Es versteht sich, dass eine andere Anzahl von Leuchtelementen 20, 22, 24, 26, 28 und/oder eine andere Anzahl gekreuzter Strahlteiler 30, 32 verwendet werden kann. Die Verwendung gekreuzter Strahlteiler 30, 32 hat sich als besonders zweckmäßig herausgestellt. In anderen Ausführungsformen können aber andere Arten von Strahlteilern und/oder andere optische Elemente verwendet werden, um Licht von den Leuchtelementen 20, 22, 24, 26, 28 in die optische Schnittstelle 16 einzukoppeln.
Fig. 4 zeigt eine schematische Darstellung der Bildgebungsvorrichtung 10. Das Bildgebungsgerät 14 ist optisch an die optische Schnittstelle 16 angekoppelt, beispielsweise über einen Lichtleiter 106 wie zumindest eine optische Faser.
Die Bildgebungsvorrichtung 10 weist eine Steuerung 66 auf, die dazu eingerichtet ist, einen Betriebszustand des Bildgebungsgeräts 14 und einen Beleuchtungsmodus der Beleuchtungseinheit 18 automatisch aufeinander abzustimmen. Vorliegend kann ein Benutzer durch eine Benutzerhandlung den Betriebsmodus des Bildgebungsgeräts 14 vorgeben. Die Steuerung 66 stellt dann den hierzu passenden Beleuchtungsmodus der Beleuchtungseinheit 18 ein. Alternativ oder zusätzlich kann der Benutzer durch eine Benutzerhandlung einen bestimmten Beleuchtungsmodus der Beleuchtungseinheit 18 einstellen. Die Steuerung 66 kann dann einen hierzu passenden Betriebsmodus des Bildgebungsgeräts 14 einstellen. Die Beleuchtungsvorrichtung 12 und/oder die Bildgebungsvorrichtung 10 verfügt zum Beispiel über eine Benutzerschnittstelle, über die der Benutzer entsprechende Befehle eingeben kann.
Das Bildgebungsgerät 14 umfasst eine Kameraeinheit 68 und einen distalen Schaft 76. Der distale Schaft 76 ist optisch an die Kameraeinheit 68 angekoppelt. Die Kameraeinheit 68 kann über einen Anschluss für den distalen Schaft 76 verfügen, wobei der distale Schaft 76 wahlweise abkoppelbar und ankoppelbar sein kann. Der distale Schaft 76 kann auch permanent optisch und/oder mechanisch an die Kameraeinheit 68 angekoppelt sein. Die Kameraeinheit 68 ist bezüglich des Schafts 76 proximal angeordnet. Die Kameraeinheit 68 umfasst Bildgebungssensorik 108, im vorliegenden Fall beispielhaft einen Weißlichtsensor 110 und einen Nah-IR-Sensor 112. Die Bildgebungssensorik 108 kann allgemein ausgedrückt einen oder mehrerer wenigstens räumlich auflösende Lichtsensoren/Bildsensoren aufweisen, beispielsweise zumindest einen CMOS-Sensor und/oder zumindest einen CCD- Sensor. Der Schaft 76 umfasst nicht dargestellte optische Elemente, mittels derer Licht zur Kameraeinheit 68 führbar ist, um das abzubildende Objekt optisch erfassen zu können. Ferner umfasst der Schaft 76 zumindest einen Lichtweg 114, beispielsweise definiert durch einen Lichtleiter wie eine optische Faser, der zu einem distalen Abschnitt 116 des Schafts 76 führt und mittels dessen das von der optischen Schnittstelle 16 der Beleuchtungsvorrichtung 12 stammende Beleuchtungslicht zu dem abzubildenden Objekt ausgekoppelt werden kann.
Die Kameraeinheit 68 weist unterschiedliche Betriebszustände auf, konkret beispielsweise zumindest einen Multispektralbetriebszustand und einen Fluoreszenzbetriebszustand sowie in der vorliegenden Ausführungsformen zusätzlich einen Weißlichtbetriebszustand und ggf. einen Hyperspektralbetriebszustand. Die Steuerung 66 passt den Beleuchtungsmodus der Beleuchtungseinheit 18 automatisch an den vorliegenden Betriebszustand der Kameraeinheit 68 an. Hierbei kann die Steuerung 66 Einstellungen am Bildaufnahmeverhalten der Kameraeinheit 68 vornehmen. Beispielsweise kann die Steuerung 66 Belichtungsdauer, Sensitivität/Verstärkung/Gain und/oder andere Betriebsparameter der Kameraeinheit 68 bzw. im Speziellen ihrer Bilderfassungssensorik 108 sowie ggf. ihrer Optik einstellen und dadurch unterschiedliche Betriebszustände des Bildgebungsgeräts 14 definieren. Die Steuerung 66 nimmt im vorliegenden Fall eine kamerasynchrone Triggerung der Beleuchtungseinheit 18 vor.
Das Bildgebungsgerät 14 umfasst eine Filtereinheit 46 mit optischen Filtern 48, 50 52. Exemplarisch sind drei optische Filter dargestellt, es versteht sich aber, dass eine andere Anzahl verwendet werden kann. Die Filtereinheit 46 ist zwischen einem Multispektralmodus und einem Fluoreszenzmodus umschaltbar. Ferner kann die Filtereinheit 46 zusätzlich in einen Weißlichtmodus und/oder in einen Hyperspektralmodus schaltbar sein. Die optischen Filter 48, 50, 52 sind wahlweise in einen Beobachtungstrahlengang 70 der Kameraeinheit 68 einbringbar, wodurch unterschiedliche Beobachtungsmodi definiert sind. Diese definieren vorliegend die Betriebszustände der Kameraeinheit 68.
Einem grundlegenden Bildgebungsmodus können mehrere optische Filter 48, 50, 52 zugeordnet sein. Insbesondere für die Fluoreszenzbildgebung kann je nach verwendetem Leuchtelement 20, 22, 24, 26, 28, das zur Anregung dient, ein anderer geeigneter optischer Filter verwendet werden. Beispielsweise wird vorliegend das erste Leuchtelement 20 (rot) mit einem optischen Filter kombiniert, der Wellenlängen größer 730 nm transmittiert, kürzere Wellenlängen aber abblockt. Hierdurch kann insbesondere bewerkstelligt werden, dass lediglich Fluoreszenzlicht und nicht das Anregungslicht selbst detektiert wird. Beispielsweise kann dieser optische Filter zumindest im Bereich 600 nm bis 730 nm absorbieren. Ferner wird vorliegend beispielsweise das zweite Leuchtelement 22 (dunkelrot) mit einem Filter kombiniert, der im Bereich von 700 bis 850 nm absorbiert bzw. der lediglich oberhalb von 850 nm nennenswert transmittiert.
Der Benutzer kann einen bestimmten Filter 48, 50, 52 auswählen und wählt hiermit unmittelbar einen zugehörigen Beobachtungsmodus bzw. Betriebszustand der Kameraeinheit 68. Hierfür weist die Kameraeinheit 68 einen Filtersensor 72 auf, der einen aktuell in den Beobachtungsstrahlengang 70 eingebrachten optischen Filter automatisiert erkennen kann. Der Benutzer kann somit einen ausgewählten Filter 48, 50, 52 manuell in den Beobachtungsstrahlengang 70 einbringen. Im dargestellten Beispiel sind die optischen Filter 48, 50, 52 auf einem Filterträger 118 angebracht. Dieser ist in unterschiedliche Positionen bewegbar, wodurch jeweils einer der optischen Filter 48, 50, 52 ausgewählt werden kann. Der Filtersensor 72 erkennt daraufhin den aktuell ausgewählten optischen Filter 48, 50, 52. Die Steuerung kann dann nach Maßgabe eines Sensorsignals des Filtersensors 72 den aktuellen Betriebszustand der Kameraeinheit 68 und damit des Bildgebungsgeräts 14 ermitteln und den Beleuchtungsmodus der Beleuchtungseinheit 18 automatisch daran anpassen. Der Benutzer versetzt somit durch eine einfach Benutzerhandlung wie das manuelle Auswählen eines optischen Filters 48, 50, 52 die gesamte Bildgebungsvorrichtung 10 in den gewünschten Modus. Grundsätzlich kann ein Benutzer unterschiedliche Filter mit unterschiedlichen Beleuchtungsmodi kombinieren und dadurch unterschiedliche Kontrastarten erzeugen.
Im dargestellten Fall umfasst das Bildgebungsgerät 14 und insbesondere der Schaft 76 eine breitbandig transmittierende Optik 77, die in den unterschiedlichen Beleuchtungsmodi einheitlich verwendbar ist. Die breitbandige Optik 77 ist im vorliegenden Fall für einen Spektralbereich von wenigstens 400 nm bis 1000 nm ausgelegt. Sie ist einheitlich für unterschiedliche Beleuchtungs- und/oder Beobachtungsspektralbereiche verwendet werden.
In einigen Ausführungsformen kann das Bildgebungsgerät 14 als Stereoendoskop ausgebildet sein, das ein stereoskopisches Okular mit zwei Seiten umfasst. Diesen Seiten können unabhängig voneinander unterschiedliche optische Filter vorschaltbar sein, wodurch unterschiedliche Kontrastbilder einander überlagert werden können.
Im Folgenden werden im Kontext weiterer Ausführungsformen und Abwandlungen für identische oder ähnliche Komponenten dieselben Bezugszeichen wie oben verwendet. Bezüglich deren Beschreibung wird grundsätzlich auf die obigen Ausführungen verwiesen, wohingegen im Folgenden vorrangig Unterschiede zwischen den Ausführungsformen erläutert werden. Zudem sind in den folgenden Figuren aus Gründen der Übersichtlichkeit Bezugszeichen teilweise weggelassen.
Fig. 5 zeigt eine schematische Darstellung einer weiteren Ausführungsform der Bildgebungsvorrichtung 10. Die Bildgebungsvorrichtung 10 umfasst eine Beleuchtungsvorrichtung 12 mit einer optischen Schnittstelle 16 und eine Beleuchtungseinheit 18 sowie ein Bildgebungsgerät 14, das an die optische Schnittstelle 16 angebunden ist. Das Bildgebungsgerät 14 umfasst eine Kameraeinheit 68 mit einer automatisierten Filtereinheit 210. Die automatisierte Filtereinheit 210 umfasst mehrere optische Filtern 48, 50, 52, die nach Maßgabe eines von einem Benutzer vorgegebenen Beobachtungsmodus automatisiert in einen Beobachtungsstrahlengang 70 der Kameraeinheit 68 einbringbar sind.
Die automatisierte Filtereinheit 210 umfasst einen Filterantrieb 212, der dazu eingerichtet ist, die optischen Filter 48, 50, 52 automatisiert in den Beobachtungsstrahlengang 70 hinein- oder aus dem Beobachtungsstrahlengang 70 herauszubewegen. Die optischen Filter 48, 50, 52 können auf einem Filterträger 118 angebracht sein, der an den Filterantrieb 212 angebunden ist. Der Filterantrieb 212 kann dazu eingerichtet sein, den Filterträger 118 zu bewegen, beispielsweise zu verschieben und/oder zu drehen und/oder zu schwenken.
Das Bildgebungsgerät 14 weist eine Benutzerschnittstelle 214 auf, mittels derer der Benutzer einen gewünschten Beobachtungsmodus einstellen kann. Beispielsweise kann mittels der Benutzerschnittstelle 214 eine gewünschte Position des Filterträgers 118 vorgebbar sein.
Das Bildgebungsgerät 14 weist ferner eine Steuerung 66 auf. Die Steuerung 66 ist mit dem Filterantrieb 212 und der Benutzerschnittstelle 214 gekoppelt. Die Steuerung 66 ist insbesondere dazu eingerichtet, eine Benutzervorgabe eines Beobachtungsmodus zu verarbeiten und nach Maßgabe dieser Benutzervorgabe sowohl die Filtereinheit 210 als auch die Beleuchtungseinheit 18 anzusteuern. Die Steuerung 66 kann somit nach Maßgabe eines vom Benutzer ausgewählten Beobachtungsmodus einen Betriebszustand des Bildgebungsgeräts 14 und einen hierauf abgestimmten Beleuchtungsmodus der Beleuchtungseinheit 18 einstellen.
Fig. 6 zeigt eine schematische Darstellung noch einer weiteren Ausführungsform der Bildgebungsvorrichtung 10. Die Bildgebungsvorrichtung 10 umfasst eine Beleuchtungsvorrichtung 12 mit einer optischen Schnittstelle 16 und eine Beleuchtungseinheit 18 sowie ein Bildgebungsgerät 14, das an die optische Schnittstelle 16 angebunden ist. Das Bildgebungsgerät 14 umfasst eine proximale Basiseinheit 310. Die proximale Basiseinheit 310 ist an die optische Schnittstelle 16 der Beleuchtungsvorrichtung 12 angebunden. Von der Beleuchtungsvorrichtung 12 erzeugtes Beleuchtungslicht ist somit der proximalen Basiseinheit 310 zuführbar. Das Bildgebungsgerät 14 umfasst ferner eine Steuerung 66, die in einigen Ausführungsformen in die Basiseinheit 310 integriert sein kann.
An die proximale Basiseinheit 310 sind wahlweise unterschiedliche Wechselschäfte 312, 314 optisch elektronisch ankoppelbar. Die Basiseinheit 310 weist eine Schnittstelle 316 zur Ankopplung unterschiedlicher Wechselschäfte 312, 314 auf. Diese Schnittstelle 316 führt einem angekoppelten Wechselschaft 312, 314 das von der Beleuchtungsvorrichtung 12 kommende Beleuchtungslicht zu. Ferner ist die Schnittstelle 316 dazu eingerichtet, einen angekoppelten Wechselschaft 312, 314 elektrisch zu versorgen und/oder elektronisch an die Steuerung 66 des Bildgebungsgeräts 14 anzubinden.
Die Wechselschäfte 312, 314 weisen jeweils eine integrierte Kamera 318, 320 sowie integrierte optische Filter 322, 324 auf. Die integrierten Kameras 318, 320 sind als Tipcams ausgebildet. Vorliegend ist die integrierte Kamera 318 eines ersten Wechselschafts 312 zur Multispektralbildgebung eingerichtet. Des Weiteren ist die integrierte Kamera 310 eines zweiten Wechselschafts 314 zur Fluoreszenzbildgebung eingerichtet. Die wahlweise vorhandenen optischen Filter 322, 324 können hieran angepasst sein.
In anderen Ausführungsformen können auch Wechselschäfte verwendet werden, die lediglich optische Filter aber keine integrierte Kamera umfassen. Diese können dann an eine proximale Kameraeinheit ankoppelbar sein. Die proximale Kameraeinheit kann dann in einigen Fällen ohne zusätzliche Filtereinheit ausgebildet sein. Die Wahl eines bestimmten optischen Filters bzw. eines bestimmten Beobachtungsmodus kann durch die Wahl eines geeignet bestückten Wechselschafts erfolgen.
Die Steuerung 66 ist dazu eingerichtet, einen angekoppelten Wechselschaft 312, 314 zu erkennen. Dies kann softwarebasiert, mechanisch und/oder durch eine Sensorerkennung erfolgen. Abhängig vom erkannten Wechselschaft 312, 314 kann die Steuerung 66 dann ermitteln, in welchem Betriebszustand bzw. in welchem Beobachtungsmodus das Bildgebungsgerät 14 betrieben werden soll. Die Steuereinheit 66 ist zudem dazu eingerichtet, einen Beleuchtungsmodus der Beleuchtungseinheit 18 einzustellen. Die Steuereinheit 66 ist somit dazu eingerichtet, einen Beleuchtungsmodus der Beleuchtungseinheit 18 in Abhängigkeit von dem durch einen aktuell angekoppelten Wechselschaft 312, 314 definierten Beobachtungsmodus einzustellen.
Die Wechselschäfte 312, 314 und die Bildgebungsvorrichtung 10 sind im vorliegenden Fall Teil eines medizinischen Bildgebungssystems 316. Das medizinische Bildgebungssystem 316 gestattet es einem Benutzer, einen geeigneten Wechselschaft 312, 314 auszuwählen, an die Basiseinheit 310 anzukoppeln, und damit einen Modus für die gesamte Bildgebungsvorrichtung 10 festzulegen. Durch das einfache Wechseln des Wechselschafts 312, 314 wird somit erreicht, dass die Beleuchtungsvorrichtung 18 an den vorzunehmenden Bilderfassungsmodus automatisch angepasst wird.
Fig. 7 zeigt eine schematische perspektivische Darstellung einer weiteren Ausführungsform einer Bildgebungsvorrichtung 10‘. Die Bezugszeichen dieser Ausführungsform sind zur Unterscheidung mit Hochkommata versehen. Die Bildgebungsvorrichtung 10‘ ist in dieser Ausführungsform als exoskopische Bildgebungsvorrichtung ausgebildet. Sie umfasst eine Beleuchtungsvorrichtung 12‘ und ein Bildgebungsgerät 14‘. Deren grundlegende Funktionsweise entspricht der oben beschriebenen, allerdings ist das Bildgebungsgerät 14‘ in dieser Ausführungsform als Exoskop ausgebildet.
Aspekte der obigen Beschreibung können auch wie folgt zusammengefasst bzw. beschrieben werden. Fig. 8 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zur Erzeugung von Beleuchtungslicht für ein Bildgebungsgerät 14 mittels einer Beleuchtungsvorrichtung 12. Der Ablauf des Verfahrens ergibt sich auch aus den obigen Ausführungen. Die Beleuchtungsvorrichtung 12 umfasst dabei eine optische Schnittstelle 16 zur optischen Anbindung eines Bildgebungsgeräts 14 und eine Beleuchtungseinheit 18, die dazu eingerichtet ist, Beleuchtungslicht an die optische Schnittstelle 16 zu liefern, wobei die Beleuchtungseinheit 18 mehrere unabhängig voneinander wahlweise aktivierbare Leuchtelemente 20, 22, 24, 26, 28 umfasst, die dazu eingerichtet sind, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um das Beleuchtungslicht zu liefern.
Das Verfahren umfasst einen Schritt S11 eineszumindest zeitweisen Aktivierens einer ersten Gruppe der Leuchtelemente 20, 22, 24, 26, 28, um Beleuchtungslicht für Multispektralbildgebung zu liefern. Ferner umfasst das Verfahren einen Schritt S12 eines zumindest zeitweisen Aktivierens einer zweiten Gruppe der Leuchtelemente 20, 22, 24, 26, 28, um Beleuchtungslicht für Fluoreszenzbildgebung zu liefern. Eines der Leuchtelemente 20, 22, 24, 26, 28 wird sowohl beim zumindest zeitweisen Aktivieren der ersten Gruppe der Leuchtelemente 20, 22, 24, 26, 28 als auch beim zumindest zeitweisen Aktivieren der zweiten Gruppe der Leuchtelemente 20, 22, 24, 26, 28 zumindest zeitweise aktiviert.
Fig. 9 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Betrieb einer Bildgebungsvorrichtung 10. Der Ablauf des Verfahrens ergibt sich auch aus den obigen Ausführungen. In einem Schritt S21 wird eine Bildgebungsvorrichtung 10 mit einem Bildgebungsgerät 14 bereitgestellt. In einem Schritt S22 wird Beleuchtungslicht an das Bildgebungsgerät 14 geliefert. Das Liefern de Beleuchtungslichts an das Bildgebungsgerät 14 erfolgt gemäß einem Verfahren, wie es mit Bezug auf Fig. 8 beschrieben wurde.
Fig. 10 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Betrieb einer Bildgebungsvorrichtung 10. Der Ablauf des Verfahrens ergibt sich auch aus den obigen Ausführungen. Das Verfahren umfasst einen Schritt S31 eines Bereitstellens einer Beleuchtungsvorrichtung 12 zur Bereitstellung von Beleuchtungslicht für ein Bildgebungsgerät 14. Das Bildgebungsgerät 14 umfasst dabei eine optische Schnittstelle 16 zur optischen Anbindung eines Bildgebungsgeräts 14 und eine Beleuchtungseinheit 18, die dazu eingerichtet ist, Beleuchtungslicht an die optische Schnittstelle 16 zu liefern. Die Beleuchtungseinheit 18 ist multimodal ausgebildet und in mehreren unterschiedlichen Beleuchtungsmodi betreibbar. Ferner umfasst das Verfahren einen Schritt S32 eines Bereitstellens eines Bildgebungsgeräts 14, das mit der optischen Schnittstelle 16 der Beleuchtungsvorrichtung 12 verbindbar ist. Außerdem umfasst das Verfahren einen Schritt S33 eines automatisierten Abstimmens eines Betriebszustands des Bildgebungsgeräts 14 und eines Beleuchtungsmodus der Beleuchtungseinheit 18.
Nachfolgend wird ein Aspekt beschrieben, der die Erzeugung von Darstellungen aus Fluoreszenzbildern und Anatomiebildern betrifft. Fig. 11 zeigt eine schematische Darstellung einer medizinischen Bildgebungsvorrichtung 410 gemäß diesem Aspekt. Die medizinische Bildgebungsvorrichtung 410 kann grundsätzlich wie die oben beschriebene Bildgebungsvorrichtung 10 oder auch wie die obige Bildgebungsvorrichtung 10‘ aufgebaut und/oder ausgebildet sein. Insbesondere wird bezüglich der Funktionsweise der Komponenten und Details der Ausgestaltung der Bildgebungsvorrichtung 410 auf die obige Beschreibung verwiesen. Zur Erläuterung des vorliegenden Aspekts ist es zweckmäßig, den technischen Sachverhalt unter Bezugnahme auf die rein schematisch zu verstehende Fig. 11 sowie die weiteren Figuren zu beschreiben.
Die Bildgebungsvorrichtung 410 ist im konkreten Beispiel eine Endoskopvorrichtung, kann aber auch eine Exoskopvorrichtung und/oder eine Mikroskopvorrichtung sein. Die Bildgebungsvorrichtung 410 umfasst eine Beleuchtungseinheit 412 mit zumindest einer Lichtquelle 414. Die Beleuchtungseinheit 412 kann beispielsweise wie oben mit Bezug auf die Beleuchtungsvorrichtung 12 beschrieben ausgebildet sein. Für die folgende Beschreibung wird angenommen, dass die Beleuchtungseinheit 412 dergestalt ausgebildet ist. Dies ist aber rein exemplarisch zu verstehen. Grundsätzlich ist die Beleuchtungseinheit 412 dazu eingerichtet, Beleuchtungslicht 432, 438 bereitzustellen, mittels dessen ein abzubildendes Objekt 418 beleuchtet werden kann. Hierauf wird im Folgenden noch näher eingegangen.
Die Bildgebungsvorrichtung 410 umfasst ferner eine Bilderfassungseinheit 420 mit geeigneter Bilderfassungssensorik 422. Die Bilderfassungssensorik 422 ist vorliegend dazu eingerichtet, sowohl im sichtbaren Bereich als auch im Nahinfrarotbereich Bilder aufnehmen zu können. Beispielsweise die Bilderfassungssensorik 422 wenigstens in einem Bereich zwischen 450 nm und 950 nm sensitiv, in einigen Ausführungsformen in einem Bereich zwischen 400 nm und 1000 nm.
Das abzubildende Objekt 418 ist beispielsweise eine anatomische Struktur, etwa in einem Hohlraum eines Patienten. Die anatomische Struktur umfasst einen mit einem Fluoreszenzfarbstoff markierten Bereich 454. Mittels der Bildgebungsvorrichtung 410 kann ein Benutzer die anatomische Struktur sowie den markierten Bereich 454 betrachten und der Fluoreszenz des markierten Bereich 454 diesem vom umliegenden Gewebe unterscheiden. Als beispielhafte Anwendung wird auf ein Freipräparieren des markierten Bereichs 454 verwiesen, wobei der Fachmann mit anderen Anwendungsfällen der Fluoreszenzmarkierung von Gewebe ebenfalls vertraut ist.
Im vorliegenden Fall ist der markierte Bereich 454 mit einem Fluoreszenzfarbstoff markiert, der im sichtbaren Bereich Licht absorbiert und auch wenigstens teilweise oder ausschließlich im sichtbaren Bereich fluoresziert. Ein beispielhaftes Absorptionsspektrum und ein beispielhaftes Emissionsspektrum sind im oberen Bereich der Fig. 12 als durchgezogene bzw. strichpunktierte Linie in ein Diagramm eingezeichnet, in dem eine Intensität über die Wellenlänge aufgetragen ist. Zur Anregung des Farbstoffs wird Licht mit einer Wellenlänge eingestrahlt, die im Bereich der Absorption des Farbstoffs liegt. Dies ist in Fig. 12 durch eine gestrichelte Linie eingezeichnet, wobei die betreffende Wellenlänge auf der x-Achse als Punkt markiert ist. Hierbei handelt es sich um das Beleuchtungslicht 432, das in Fig. 11 als Pfeil dargestellt ist.
Bei dem Farbstoff handelt es sich beispielsweise um Fluoreszin. Dieser Farbstoff kann zweckmäßigerweise bei einer Wellenlänge von 430 nm oder 460 nm angeregt werden. Insbesondere kann dies mittels des oben beschriebenen dritten Leuchtelements 24 erfolgen. Ein weiteres Beispiel für den Farbstoff ist Cy5. Dieser Farbstoff kann zweckmäßigerweise bei einer Wellenlänge von 660 nm angeregt werden. Insbesondere kann dies mittels des oben beschriebenen ersten Leuchtelement 20 erfolgen.
Um Fluoreszenzbildgebung durchführen zu können, umfasst die Bilderfassungseinheit 420 einen Beobachtungsfilter 424. Dieser ist vor der Bilderfassungssensorik 422 angebracht und/oder in diese integriert und bewerkstelligt, dass das Beleuchtungslicht 432 nicht auf die Bilderfassungssensorik 422 oder zumindest nicht auf Einzelsensoren derselben remittiert wird, sondern ausschließlich oder zumindest vorrangig Licht 434, das von dem Objekt 418 aufgrund der Fluoreszenzanregung des Farbstoffs emittiert wird.
Im unteren Bereich von Fig. 12 ist ein geeignetes Transmissionsspektrum des Beobachtungsfilters 424 eingezeichnet, das eine solche Fluoreszenzbildgebung gestattet. Der Beobachtungsfilter 424 ist dazu eingerichtet, Licht in einem ersten Spektralbereich 426 zu blockieren und in einem von dem ersten Spektralbereich 426 verschiedenen zweiten Spektralbereich 428 zu transmittieren. Der Beobachtungsfilter 420 ist geeignet je nach verwendetem Farbstoff bzw. Absorptionsspektrum und Emissionsspektrum zu wählen. Wie oben beschrieben wurde, kann die Bildgebungsvorrichtung 410 mehrere optische Filter umfassen, die als Beobachtungsfilter wahlweise verwendbar sind. Hierdurch kann mittels der Bildgebungsvorrichtung 410 Fluoreszenzbildgebung für unterschiedliche Fluoreszenzfarbstoffe durchgeführt werden.
Der Beobachtungsfilter 424 mit der in Fig. 12 dargestellten Transmission ist ein Hochpass-Kantenfilter. Im Bereich der Kante ändert sich das Transmissionsverhalten des Beobachtungsfilters 424 sprunghaft, wobei die entsprechende Kante dennoch eine gewisse Breite aufweisen kann. Der Bereich der Kante kann unter Umständen keinem der beiden Spektralbereiche findet 426, 428 zufallen.
Je nach Position, Breite und Form des Absorptionspeaks des betreffenden Farbstoffs kann anstelle eines Beobachtungsfilters 424 mit einer einzelnen Kante auch ein Beobachtungsfilter mit zwei Kanten verwendet werden. Dies ist beispielhaft in Fig. 13 veranschaulicht. Der erste Spektralbereich 426‘ liegt hier zwischen zwei Teilbereichen des zweiten Spektralbereichs 428‘. Es wird also sowohl oberhalb als auch unterhalb des ersten Spektralbereichs 426‘ Licht transmittiert. Der Beobachtungsfilter blendet in diesem Fall lediglich einen Teilbereich aus dem beobachtbaren Spektralbereich aus, der im sichtbaren Bereich liegt.
Die Bilderfassungseinheit 420 ist ferner dazu eingerichtet, in einem Weißlichtmodus bzw. einem Anatomiemodus zu arbeiten, in dem das Objekt 418 mittels Beleuchtungslichts 438 beleuchtet wird, das zumindest teilweise innerhalb des zweiten Spektralbereichs 428 liegt und in dem von dem Objekt 418 remittiertes Licht 440 detektiert wird. Wie in Fig. 11 schematisch dargestellt ist, wird ein Teil des remittierten Lichts 440 vom Beobachtungsfilter 424 blockiert und derjenige Teil zu Bilderfassungssensorik 422 durchgelassen, der außerhalb des ersten Spektralbereichs 426 bzw. im zweiten Spektralbereich 428 liegt. Ist der erste Spektralbereich 426 aufgrund des verwendeten Farbstoffs derart gewählt, dass er im sichtbaren Bereich liegt, kann daher kein vollständiges Weißlichtbild aufgenommen werden, selbst wenn Weißlicht eingestrahlt wird. Dies kann beispielsweise mittels eines Weißlicht-Leuchtelements erfolgen, wie es oben beschrieben wurde.
Im Folgenden wird zusätzlich auf Fig. 14 Bezug genommen. Die Bilderfassungseinheit 420 ist dazu eingerichtet, in der beschriebenen Weise Fluoreszenzbilder 430 des abzubildenden Objekts durch den Beobachtungsfilter 424 hindurch aufzunehmen. Ferner ist die Bilderfassungseinheit 420 dazu eingerichtet, in der beschriebenen Weise Anatomiebilder 436 des abzubildenden Objekts 418 aufzunehmen. Vorliegend handelt es sich bei den Anatomiebildern 436 um Bilder, bei denen breitbandig Beleuchtungslicht eingestrahlt und remittiertes Licht detektiert wird. In Fig. 14 ist der Fall dargestellt, dass im zeitlichen Verlauf mehrere Anatomiebilder 436 und mehrere Fluoreszenzbilder 430 aufgenommen bzw. aus entsprechenden Bilddaten erhalten werden. Konkret werden diese entweder sequenziell aufgenommen, indem gemäß einer bestimmten Logik abwechselnd eines oder mehrere Anatomiebilder 436 und anschließend eines oder mehrere Fluoreszenzbilder 430 (oder umgekehrt) aufgenommen werden, oder indem Anatomiebilder 436 und Fluoreszenzbilder 430 gleichzeitig aufgenommen werden. Dies hängt von der Ausgestaltung und der Betriebsart der Bilderfassungssensorik 422 ab.
Die Anatomiebilder 436 sind aufgrund der Aufnahme durch den Beobachtungsfilter 424 hindurch keine echten Weißlichtbilder. Sie werden vielmehr gemäß einem oder mehreren der nachfolgend beschriebenen Prinzipien durch Verarbeitung von Einzelbildern und/oder Farbkanälen gewonnen. Die Bildgebungsvorrichtung 410 umfasst des Weiteren eine Darstellungserzeugungseinheit 442, die dazu eingerichtet ist, aus den Fluoreszenzbildern 430 und den Anatomiebildern 436 eine Darstellung 444 zu erzeugen. Diese umfasst vorliegend eine Kombinationsdarstellung und/oder eine Überlagerungsdarstellung, die auf einer Kombination bzw. Überlagerung von einem oder mehreren Anatomiebildern 436 und einem oder mehreren Fluoreszenzbildern 430 beruht.
Die Darstellungserzeugungseinheit 442 ist dazu eingerichtet, aufgenommene Fluoreszenzbilder 430 und aufgenommene Anatomiebilder 436 einander zuzuordnen. Dies kann sowohl für den Fall einer sequenziellen Bildaufnahme als auch für den Fall einer gleichzeitigen Bildaufnahme erfolgen. Im dargestellten Fall handelt es sich um eine zeitliche Zuordnung. Der Zuordnung liegt die Information zugrunde, zu welchem Zeitpunkt die Bilder aufgenommen wurden, sodass die Darstellung 444 zeitlich zusammenhängende Anatomieinformation und Fluoreszenzinformation beinhaltet. Es wird einem Benutzer beispielsweise ein Bewegtbild in Echtzeit zur Verfügung gestellt.
Wie in Fig. 11 schematisch dargestellt ist, umfasst die Bildgebungsvorrichtung 410 eine Anzeige 452, über die die erzeugte Darstellung 444 einem Benutzer angezeigt werden kann. Diese Ausgestaltung ist rein beispielhaft zu verstehen. Insbesondere kann in anderen Ausführungsformen eine Anzeige mit der Bildgebungsvorrichtung 410 lediglich über eine Schnittstelle verbindbar aber nicht zwingend Teil derselben sein.
Wie erwähnt, ist selbst bei breitbandiger Beleuchtung bei der Aufnahme der Anatomiebilder 436 aufgrund des Beobachtungsfilters 424 nicht über den gesamten sichtbaren Bereich Bildinformation verfügbar. Würde reguläre Weißlichtbildgebung durchgeführt, wäre das betreffende Weißlichtbild farblich verfälscht oder würde unter Umständen bestimmte anatomische Strukturen nicht korrekt darstellen.
Es ist daher vorgesehen, dass zusätzlich zu Bildinformation im sichtbaren Bereich auch Bildinformation aus dem Nahinfrarotbereich verwendet wird, um das Anatomiebild 436 zu erzeugen. Hierdurch kann die unter Umständen aufgrund des Beobachtungsfilters 424 nicht verfügbare Information anderweitig bereitgestellt werden.
Rein beispielhaft ist dies in Fig. 15 für vier Farbkanäle eines Bilds dargestellt, wie es sich bei Beleuchtung mit Weißlicht und Nahinfrarotlicht ergeben würde. Zu Zwecken der Erläuterung soll angenommen werden, dass bestimmte anatomische Strukturen oder anderweitige Bildinformation lediglich im blauen (B), grünen (G) oder roten (R) Farbkanal und/oder Einzelbild erkennbar sind. Würden diese Farbkanälen und/oder Einzelbilder B, G, R vollständig kombiniert, würde sich ein korrektes Weißlichtbild des Objekts 418. Da die Bildgebung jedoch durch den Beobachtungsfilter 424 hindurch erfolgt, fehlt beispielsweise die Bildinformation aus dem blauen Farbkanal und/oder blauen Einzelbild. Würden lediglich der grüne und der rote Farbkanal und/oder das grüne und das rote Einzelbild kombiniert, würde sich ein unvollständiges Bild ergeben. Der vorliegende Aspekt sieht hingegen vor, zusätzlich einen Nahinfrarot- Farbkanal (NIR) und/oder ein Nahinfrarot-Einzelbild hinzuzunehmen. Hierdurch sind gegebenenfalls Details der anatomischen Struktur erkennbar, die im nicht zur Verfügung stehenden Spektralbereich (hier beispielhaft im Blauen) erkennbar wären. Wird nun diese zusätzlich Bildinformation mit den verfügbaren Farbkanälen und/oder Einzelbildern zusammengeführt, kann ein Anatomiebild 436 erhalten werden, das die Anatomie korrekt darstellt, obwohl es sich nicht um ein echtes Weißlichtbild handelt.
Auf diese Weise erhaltene Anatomiebilder 436 werden dann in der beschriebenen Art und Weise mit Fluoreszenzbildern 34 kombiniert, um die Darstellung 444 zu erzeugen, die sowohl Information bezüglich einer Anatomie das Objekt 418 als auch bezüglich einer Fluoreszenz des markierten Bereichs 454 enthält.
Nachfolgend werden verschiedene Möglichkeiten beschrieben, wie Anatomiebilder 436 für unterschiedliche Ausgestaltungen der Bilderfassungssensorik 422 und/oder unterschiedliche Ansätze der Verwertung verfügbarer Information gewonnen werden können. Es wird jeweils davon ausgegangen, dass eine multimodale Beleuchtungseinheit verwendet wird. Diese verfügt beispielsweise, und in Übereinstimmung mit der oben beschriebenen Ausführungsform, über ein Weißlichtbildleuchtelement sowie über ein blaues Leuchtelement, das beispielsweise bei 430 nm oder 460 nm emittiert, ein rotes Leuchtelement, das beispielsweise bei 660 nm emittiert, ein dunkelrotes Leuchtelement, das beispielsweise bei 765 nm oder 770 nm emittiert, und ein Nahinfrarot-Leuchtelement, das beispielsweise bei 940 nm emittiert. Wie bereits erwähnt dient dies aber vorrangig dem Verständnis, und es können auch anders ausgestaltete Beleuchtungseinheiten verwendet werden.
Fig. 16 veranschaulicht ein erstes Beispiel, bei dem die Bilderfassungssensorik 422 einen Zwei-Chip-Bildsensor umfasst. Abbildungslicht wird auf zwei Sensoren verteilt, wie dies oben bereits beispielhaft beschrieben wurde. Ein erster Bildsensor (VIS) arbeitet im sichtbaren Bereich, beispielsweise bei Wellenlängen bis etwa 700 nm, und ein zweiter Bildsensor (NIR) arbeitet im Nahinfrarotbereich, beispielsweise bei Wellenlängen ab etwa 700 nm. In diesem Beispiel wird als Farbstoff Fluoreszin gesetzt. Dieser wird mittels des blauen Leuchtelements angeregt. Aufgrund des Beobachtungsfilters 424 kann blaues Licht nicht detektiert werden. Zusätzlich zur Beleuchtung für die Anregung des Farbstoffs wird beispielsweise mit dem dunkelroten Leuchtelement und/oder mit dem Nahinfrarot-Leuchtelement beleuchtet.
Fluoreszenzbilder 430 werden mittels des VIS- Bildsensors erhalten. Anatomiebilder 436 werden mittels des NIR-Bildsensors erhalten. Das Anatomiebild 436 wird als Graustufenbild ausgegeben, sodass die Erfassung im für den Benutzer an sich nicht wahrnehmbaren Nahinfrarotbereich kein Hindernis darstellt. Die Darstellungserzeugungseinheit 442 erzeugt somit eine Darstellung 444, die ein Graustufen-Anatomiebild 436 und ein Fluoreszenzbild 34 einander überlagert. Sowohl die Fluoreszenzbilder 430 als auch die Anatomiebilder 436 können in Echtzeit, beispielsweise mit wenigstens 24 fps, wenigstens 30 fps oder sogar wenigstens 60 fps aufgenommen werden. Da unterschiedliche Bildsensoren für die Erfassung des Fluoreszenzbilds 430 und des Anatomiebilds 436 verwendet werden, können diese zudem gleichzeitig erfasst werden. Eine sequenzielle Aufnahme ist nicht erforderlich.
Fig. 17 veranschaulicht ein zweites Beispiel, bei dem die Bilderfassungssensorik 422 ebenfalls einen 2-Chip-Bildsensor umfasst. Wie zuvor wird ein Fluoreszenzbild 430 mittels des VIS-Bildsensors aufgenommen. Anders als im ersten Beispiel werden jedoch Anatomiebilder 436 und Fluoreszenzbilder 430 sequenziell aufgenommen. Dies ermöglicht es, für das Anatomiebild 436 nicht nur den NIR-Bildsensor, sondern auch den VIS-Bildsensor zu verwenden.
Der VIS-Bildsensor liefert drei Farbkanäle 436B, 436G, 436R, die grundsätzlich für das Anatomiebild 436 verwendbar sind. Aufgrund des Beobachtungsfilters 424 ist der blaue Farbkanal 436B kaum oder gar nicht verwertbar, da im entsprechenden Spektralbereich wenig bis kein vom Objekt 418 remittiertes Licht den Beobachtungsfilter 424 passiert. Der blaue Farbkanal 436B wird daher vorliegend außer Betracht gelassen. Hingegen werden sowohl der grüne Farbkanal 436G und der rote Farbkanal 436R der VIS-Bildsensor-Bilddaten als auch ein Nahinfrarot- Einzelbild 436NIR des NIR-Bildsensors verwendet, um das Anatomiebild 436 zu erhalten. Das Anatomiebild findet 36 wird also rekonstruiert, indem der blaue Kanal durch den Nahinfrarot-Kanal bzw. das Nahinfrarot-Einzelbild ersetzt wird. Es kann somit ein farbiges Anatomiebild erzeugt werden. Aufgrund der sequenziellen Aufnahme von Anatomiebildern 436 und Fluoreszenzbildern 430 halbiert sich jedoch in diesem Beispiel die Bildrate.
In einigen Anwendungsfällen kann für die Fluoreszenzinformation eine geringere Bildwiederholrate als für die Anatomieinformation akzeptabel sein. Ausgehend von einer verfügbaren Bildrate von 60fps können beispielsweise immer mehrere, etwa zwei oder drei oder fünf, Anatomiebilder nacheinander aufgenommen werden, ehe ein Fluoreszenzbild aufgenommen wird. Jedem der mehreren Anatomiebilder ordnet die Darstellungserzeugungseinheit dann das zuletzt aufgenommene Fluoreszenzbild zu. Beispielsweise können mit dieser Herangehensweise 50 Anatomiebilder und 10 Fluoreszenzbilder pro Sekunde aufgenommen werden. Die reale Bildwiederholrate der Fluoreszenzinformation ist dann in diesem Beispiel lediglich 10 fps, was aber ggf. aufgrund er höheren Bildwiederholrate der Anatomieinformation für den Benutzer nicht wahrnehmbar ist.
Fig. 18 veranschaulicht ein drittes Beispiel. Bei diesem Beispiel umfasst die Bilderfassungssensorik 422 einen Ein-Chip-Bildsensor (One-Chip; OC). Dieser verwendet einen roten, einen grünen und einen blauen Kanal und ist zudem in der Lage, Nahinfrarotlicht auf allen drei Kanälen zu detektieren. Im Beispiel wird der Farbstoff Cy5 angeregt. Dies erfolgt beispielsweise mittels eines roten Leuchtelements.
Anatomiebilder 436 und Fluoreszenzbilder 430 werden sequenziell aufgenommen. Für das Fluoreszenzbild 430 können die Bilddaten des Bildsensors unverändert verwendet werden.
Der Beobachtungsfilter 424 blendet in diesem Fall einen ersten Spektralbereich 426 aus, der sich von etwa 600 nm bis etwa 700 nm erstreckt. Der zweite Spektralbereich 428 liegt sowohl oberhalb als auch unterhalb des ersten Spektralbereichs 426 (vgl. die beispielhafte Darstellung in Fig. 13). Licht im ersten Spektralbereich 28 wird aufgrund des Beobachtungsfilters 424 nicht detektiert. Wird ein Anatomiebild 436 aufgenommen, liefert der rote Kanal aber dennoch ein Signal, da Nahinfrarot-Licht von allen drei Kanälen des Bildsensors erfasst wird. Das Anatomiebild 436 wird in diesem Beispiel berechnet, indem die drei Kanäle in geeigneter Weise kombiniert werden. Ein Anatomiebild 436 mit dem Farbkanälen R’G’B1 wird zum Beispiel erhalten, indem als roter Kanal das Anatomiebilds 436 der rote Kanal des Bildsensors verwendet wird, also R‘=R, indem als grüner Kanal G‘ eine Differenz des grünen und des roten Kanals des Bildsensor verwendet wird, also G‘=G-R, und indem als blauer Kanal des Anatomiebilds 436 eine Differenz des blauen und des roten Kanals des Bildsensor verwendet wird, also B‘=B-R.
Es versteht sich, dass beliebige andere Kombinationen, insbesondere Linearkombinationen, verwendet werden können. Diese können je nach Ansprechverhalten des betreffenden Bildsensors und/oder abhängig vom verwendeten Beobachtungsfilter 424 gegebenenfalls auch gewichtet werden. Als weiteres Beispiel würden sich für den Fall einer Anregung von Fluoreszin, bei der entsprechend blaues Licht blockiert wäre, die Farbkanäle eines Anatomiebild 436 wie folgt berechnen lassen: R‘=R-B; G‘=G-B; B‘=B.
Fig. 19 veranschaulicht ein viertes Beispiel. Bei diesem Beispiel umfasst die Bilderfassungssensorik 422 einen Vier-Chip-Bildsensor mit separaten Bildsensoren für einen blauen Kanal (B), einen grünen Kanal (G), einen roten Kanal (R) und einen Nahinfrarot-Kanal (NIR). Vom Objekt 418 kommendes Licht wird auf diese vier Sensoren aufgeteilt. In diesem Beispiel kann außerdem zusätzlich eine Beleuchtungseinheit verwendet werden, die anstelle eines Weißlicht-Leuchtelements eine Kombination dreier oder mehrerer Leuchtelemente umfasst, mittels derer Licht derart gemischt wird, dass dieses anstelle von Weißlicht verwendet werden kann. Beispielsweise kann eine Kombination eines roten, grünen und blauen Leuchtelement verwendet werden. Obgleich diese lediglich in bestimmten und gegebenenfalls sehr schmalbandigen Wellenlängenbereichen emittieren, ist damit Beleuchtung für die Aufnahme eines roten, grünen und blauen Bild bereitstellbar, sodass ein Bild erhalten werden kann, das von einem Benutzer als Weißlichtbild aufgefasst wird. In diesem Fall sind beispielsweise die oben erwähnten einzelfarbigen Leuchtelemente vorhanden und zusätzlich die erwähnte Kombination farbiger Leuchtelemente, die anstelle des Weißlicht-Leuchtelements eingesetzt werden.
Grundsätzlich kann diese Konfiguration analog zum oben beschriebenen ersten und zweiten Beispiel betrieben werden. Dann wird beispielsweise der Beobachtungsfilter 424 vor dem Vier-Chip-Bildsensor angeordnet. Im Folgenden soll eine weitere Variante erläutert werden, die mittels des Systems gemäß dem vierten Beispiel durchführbar ist.
Als Farbstoff wird zum Beispiel wieder Fluoreszin verwendet. Um den Farbstoff anzuregen, wird Licht mittels eines blauen Leuchtelements eingestrahlt. Remittiertes Licht liegt im grünen Bereich und wird mittels des grünen Bildsensors detektiert. Ein in den grünen Bildsensor integrierter und/oder vor dem Bildsensor angeordneter Filter, der diesen selektiv für grünes Licht macht, dient als Beobachtungsfilter 424. Das Bild des grünen Bildsensors kann somit als Fluoreszenzbild 430 verwendet werden, da das blaue Anregungslicht nicht auf den grünen Bildsensor fällt.
Um zusätzlich ein Anatomiebild zu erhalten, wird zum Beispiel noch mittels eines Nahinfrarot- Leuchtelements beleuchtet. Vom Objekt wird somit Licht sowohl im blauen als auch im Nahinfrarot-Bereich remittiert. In diesen Bereichen findet zudem keine Fluoreszenz des verwenden Farbstoff statt. Der Farbstoff Fluoreszin emittiert vorwiegend im grünen Bereich, sein Emissionsspektrum erstreckt sich zudem mit geringer Intensität auch ins Rote. Der grüne und der rote Bildsensor werden daher für das Anatomiebild 436 nicht verwendet. Das Anatomiebild 436 ergibt sich somit durch Kombination eines mittels des blauen Bildsensors aufgenommenen blauen Einzelbilds 436B und eines mittels des Nahinfrarot-Bildsensors aufgenommenen Nahinfrarot-Einzelbilds 436NIR.
Es versteht sich, dass analog vorgegangen werden kann, wenn ein anderer Farbstoff verwendet wird, der beispielsweise mit grünem Licht anregbar ist und rotes Licht emittiert.
Fig. 20 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zur medizinischen Bildgebung der Ablauf des Verfahrens ergibt sich auch aus den obigen Ausführungen. In einem Schritt S41 wird Beleuchtungslicht 438 zur Beleuchtung eines abzubildenden Objekts 418 bereitgestellt. In einem Schritt S42 werden Fluoreszenzbilder 430 des abzubildenden Objekts 480 durch einen Beobachtungsfilter 424 hindurch aufgenommen, der dazu eingerichtet ist, Licht in einem ersten Spektralbereich 426 zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich 426 verschiedenen zweiten Spektralbereich 428 zu transmittieren, wobei bei dem Aufnehmen der Fluoreszenzbilder 430 Beleuchtungslicht 432, dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs 426 liegt, als Anregungslicht verwendet wird und von dem abzubildenden Objekt 418 emittiertes Licht 434, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs 428 liegt, detektiert wird. Weiterhin umfasst das Verfahren einen Schritt S43, in dem Anatomiebilder 436 des abzubildenden Objekts 418 aufgenommen werden, wobei bei dem Aufnehmen der Anatomiebilder 436 Beleuchtungslicht 438, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs 428 liegt, verwendet wird und von dem abzubildenden Objekt 418 remittiertes Licht 440, dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs 428 liegt, detektiert wird.
Fig. 21 zeigt eine schematische Darstellung eines Computerprogrammprodukts 448 mit einem computerlesbaren Medium 450. Auf dem computerlesbaren Medium ist Programmcode gespeichert, der dazu eingerichtet ist, dann, wenn er in einem Prozessor ausgeführt wird, eine Durchführung eines und/oder sämtlicher der beschriebenen Verfahren zu bewirken.
Bezugszeichenliste
10 Bildgebungsvorrichtung
12 Beleuchtungsvorrichtung
14 Bildgebungsgerät
16 optische Schnittstelle
18 Beleuchtungseinheit
20 Leuchtelement
22 Leuchtelement
24 Leuchtelement
26 Leuchtelement
28 Leuchtelement
30 Strahlteiler
32 Strahlteiler
34 Eingangsseite
36 Eingangsseite
37 Eingangsseite
38 Eingangsseite
40 Eingangsseite
41 Eingangsseite
42 Ausgangsseite
44 Ausgangsseite
46 Filtereinheit
48 Filter
50 Filter
52 Filter
54 optischer Pfad
56 lichtemittierende Fläche
58 lichtemittierende Fläche
60 lichtemittierende Fläche
62 lichtemittierende Fläche
64 lichtemittierende Fläche
66 Steuerung
68 Kameraeinheit
70 Beobachtungsstrahlengang
72 Filtersensor
74 Anzeigeeinheit
76 Schaft - M -
77 Optik
78 Linse
80 Linse
82 Linse
84 Linse
86 Linse
88 Linse
90 Strahlteilerelement
92 Strahlteilerelement
94 Strahlteilerelement
96 Strahlteilerelement
98 Transmissionsspektrum
100 Transmissionsspektrum
102 Transmissionsspektrum
104 Transmissionsspektrum
106 Lichtleiter
108 Bildgebungssensorik
110 Weißlichtsensor
112 Nah-IR-Sensor
114 Lichtweg
116 distaler Abschnitt
210 Filtereinheit
212 Filterantrieb
214 Benutzerschnittstelle
310 Basiseinheit
312 Wechselschaft
314 Wechselschaft
316 Bildgebungssystem
318 Kamera
320 Kamera
322 Filter
324 Filter
410 Bildgebungsvorrichtung
412 Beleuchtungseinheit
414 Lichtquelle
416 Beleuchtungslicht
418 Objekt
420 Bilderfassungseinheit 422 Bilderfassungssensorik
424 Beobachtungsfilter
426 erster Spektralbereich
428 zweiter Spektralbereich 430 Fluoreszenzbild
432 Beleuchtungslicht
434 Licht
436 Anatomiebild
438 Beleuchtungslicht 440 Licht
442 Darstellungserzeugungseinheit
444 Darstellung
448 Computerprogrammprodukt
450 computerlesbares Medium 452 Anzeige

Claims

Ansprüche
1. Medizinische Bildgebungsvorrichtung (410), insbesondere Endoskopvorrichtung, Exoskopvorrichtung und/oder Mikroskopvorrichtung, umfassend:
- eine Beleuchtungseinheit (412) mit zumindest einer Lichtquelle (414), die dazu eingerichtet ist, Beleuchtungslicht (416) zur Beleuchtung eines abzubildenden Objekts (418) bereitzustellen; und
- eine Bilderfassungseinheit (420), die zumindest eine Bilderfassungssensorik (422) und zumindest einen Beobachtungsfilter (424) umfasst, wobei der Beobachtungsfilter (424) dazu eingerichtet ist, Licht in einem ersten Spektralbereich (426) zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich (426) verschiedenen zweiten Spektralbereich (428) zu transmittieren; wobei die Bilderfassungseinheit (420) dazu eingerichtet ist, Fluoreszenzbilder (430) des abzubildenden Objekts (418) durch den Beobachtungsfilter (424) hindurch aufzunehmen, bei deren Aufnahme Beleuchtungslicht (432), dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs (426) liegt, als Anregungslicht verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt (418) emittiertes Licht (434), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, von der Bilderfassungssensorik (422) detektiert wird, und wobei die Bilderfassungseinheit (420) dazu eingerichtet ist, Anatomiebilder (436) des abzubildenden Objekts (418) aufzunehmen, bei deren Aufnahme Beleuchtungslicht (438), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, verwendet wird und bei deren Aufnahme ferner von dem abzubildenden Objekt (418) remittiertes Licht (440), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, von der Bilderfassungssensorik (422) detektiert wird; und
- eine Darstellungserzeugungseinheit (442), die dazu eingerichtet ist, aus den Fluoreszenzbildern (430) und den Anatomiebildern (436) zumindest eine Darstellung (444) zu erzeugen.
2. Medizinische Bildgebungsvorrichtung (410) nach Anspruch, wobei die Bilderfassungseinheit (24) dazu eingerichtet ist, die Anatomiebilder (436) des abzubildenden Objekts (84) durch den Beobachtungsfilter (424) hindurch aufzunehmen.
3. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei eine kleinste Wellenlänge des ersten Spektralbereichs (426) größer als 430 nm und insbesondere größer als 500 nm ist.
4. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die zumindest eine Darstellung (444) eine Kombinationsdarstellung, insbesondere eine Überlagerungsdarstellung, umfasst, die auf einer Kombination von Fluoreszenzbildern (34) und Anatomiebildern (436) beruht.
5. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungseinheit (420) dazu eingerichtet ist, die Fluoreszenzbilder (430) und die Anatomiebilder (436) in Echtzeit aufzunehmen, und wobei die Darstellungserzeugungseinheit (442) dazu eingerichtet ist, die zumindest eine Darstellung (444) in Echtzeit zu erzeugen.
6. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungseinheit (24) dazu eingerichtet ist, die Fluoreszenzbilder (430) und die Anatomiebilder (436) sequenziell aufzunehmen, wobei die Darstellungserzeugungseinheit (442) dazu eingerichtet ist, sequenziell aufgenommene Fluoreszenzbilder (430) und Anatomiebilder (436) einander, insbesondere zeitlich, zuzuordnen und die zumindest eine Darstellung (444) anhand zugeordneter Fluoreszenzbilder (430) und Anatomiebilder (436) zu erzeugen.
7. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungssensorik (422) zumindest einen ersten Bilderfassungssensor (VIS, NIR, OC, R, G, B) umfasst, der dazu eingerichtet ist, Bildinformation für die Fluoreszenzbilder (430) zu erfassen, und wobei die Bilderfassungssensorik (422) zumindest einen zweiten Bilderfassungssensor (VIS, NIR, OC, R, G, B) umfasst, der dazu eingerichtet ist, Bildinformation für die Anatomiebilder (436) zu erfassen. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungssensorik (422) dazu eingerichtet ist, Fluoreszenzbilder (430) und Anatomiebilder (436) gleichzeitig aufzunehmen. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Darstellungserzeugungseinheit (442) dazu eingerichtet ist, zumindest ein Anatomiebild (436) aus mehreren, insbesondere einzelfarbigen, Einzelbildner (436B‘, 436NIR1) und/oder aus mehreren Farbkanälen von Anatomiebildern (436B, 436G, 436R, 436NIR) zu erzeugen. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei das Anatomiebild (436) zumindest zwei Farbkanäle umfasst, von denen zumindest einer im sichtbaren Bereich und zumindest einer außerhalb des sichtbaren Bereichs, insbesondere im Nahinfrarotbereich, liegt. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei das Anatomiebild (436) einem Weißlichtbild mit mehreren Farbkanälen entspricht, bei dem zumindest ein Farbkanal aus dem sichtbaren Bereich durch zumindest einen Farbkanal ersetzt ist, der außerhalb des sichtbaren Bereichs, insbesondere im Nahinfrarotbereich, liegt. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Beleuchtungseinheit (412) multimodal ausgebildet ist und mehrere unabhängig voneinander wahlweise aktivierbare Leuchtelemente (20, 22, 24, 26, 28) umfasst, die dazu eingerichtet sind, Licht gemäß unterschiedlichen Emissionsspektren zu emittieren, um das Beleuchtungslicht (438) bereitzustellen. Medizinische Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungseinheit (420) zur multispektralen und/oder hyperspektralen Bildgebung eingerichtet ist. Verfahren zur medizinischen Bildgebung, insbesondere mit einer medizinischen Bildgebungsvorrichtung (410) nach einem der vorhergehenden Ansprüche, umfassend:
Bereitstellen von Beleuchtungslicht (438) zur Beleuchtung eines abzubildenden Objekts (418);
Aufnehmen von Fluoreszenzbildern (430) des abzubildenden Objekts (480) durch einen Beobachtungsfilter (424) hindurch, der dazu eingerichtet ist, Licht in einem ersten Spektralbereich (426) zu blockieren, der sichtbares Licht umfasst, und Licht in einem von dem ersten Spektralbereich (426) verschiedenen zweiten Spektralbereich (428) zu transmittieren, wobei bei dem Aufnehmen der Fluoreszenzbilder (430) Beleuchtungslicht (432), dessen Spektrum zumindest teilweise innerhalb des ersten Spektralbereichs (426) liegt, als Anregungslicht verwendet wird und von dem abzubildenden Objekt (418) emittiertes Licht (434), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, detektiert wird; und Aufnehmen von Anatomiebildern (436) des abzubildenden Objekts (418), wobei bei dem Aufnehmen der Anatomiebilder (436) Beleuchtungslicht (438), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, verwendet wird und von dem abzubildenden Objekt (418) remittiertes Licht (440), dessen Spektrum zumindest teilweise innerhalb des zweiten Spektralbereichs (428) liegt, detektiert wird. Programmcode, der dazu eingerichtet ist, dann, wenn er in einem Prozessor ausgeführt wird, eine Durchführung eines Verfahrens nach Anspruch 14 zu bewirken. Computerprogrammprodukt (448), umfassend ein computerlesbares Medium (450), auf dem Programmcode nach Anspruch 15 gespeichert ist.
PCT/EP2023/077373 2022-10-06 2023-10-04 Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung WO2024074522A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022125852.1 2022-10-06
DE102022125852.1A DE102022125852A1 (de) 2022-10-06 2022-10-06 Medizinische Bildgebungsvorrichtung und Verfahren zur medizinischen Bildgebung

Publications (1)

Publication Number Publication Date
WO2024074522A1 true WO2024074522A1 (de) 2024-04-11

Family

ID=88287473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/077373 WO2024074522A1 (de) 2022-10-06 2023-10-04 Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung

Country Status (2)

Country Link
DE (1) DE102022125852A1 (de)
WO (1) WO2024074522A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157340A1 (en) * 2009-04-21 2011-06-30 Olympus Medical Systems Corp. Fluorescent image apparatus and method for acquiring fluorescent image
DE102010033825A1 (de) * 2010-08-09 2012-02-09 Carl Zeiss Meditec Ag Fluoreszenzbeobachtungssystem und Filtersatz
DE202014010558U1 (de) 2013-08-30 2015-12-22 Spekled GmbH Vorrichtung zur Aufnahme eines Hyperspektralbildes
US20160062103A1 (en) * 2014-08-29 2016-03-03 Foreal Spectrum, Inc. Endoscope system with concurrent imaging in visible and infrared wavelengths
US20200345225A1 (en) * 2018-01-30 2020-11-05 Fujifilm Corporation Endoscope system and method of operating the same
DE102020105458A1 (de) 2019-12-13 2021-06-17 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2254417A (en) 1991-04-05 1992-10-07 Bijan Jouza Photodynamic laser detection for cancer diagnosis
DE4320579C2 (de) 1992-06-15 2000-06-15 Topcon Corp Operationsmikroskop
DE19548913A1 (de) 1995-12-31 1997-07-03 Storz Karl Gmbh & Co Vorrichtung zur photodynamischen Diagnose
US5647368A (en) 1996-02-28 1997-07-15 Xillix Technologies Corp. Imaging system for detecting diseased tissue using native fluorsecence in the gastrointestinal and respiratory tract
JP2000098244A (ja) 1998-09-24 2000-04-07 Olympus Optical Co Ltd 蛍光顕微鏡
JP4133319B2 (ja) 2000-07-14 2008-08-13 ノバダック テクノロジーズ インコーポレイテッド コンパクトな蛍光内視鏡映像システム
DE10201005B4 (de) 2002-01-11 2007-03-29 Richard Wolf Gmbh Vorrichtung zur bildgebenden Diagnose von Gewebe
US6899675B2 (en) 2002-01-15 2005-05-31 Xillix Technologies Corp. Fluorescence endoscopy video systems with no moving parts in the camera
DE10362401B3 (de) 2002-08-28 2022-03-10 Carl Zeiss Meditec Ag Mikroskopiesystem und Mikroskopieverfahren
DE10317615B4 (de) 2003-04-11 2005-10-06 Carl Zeiss Jena Gmbh Fluoreszenzmikroskopanordnung
DE102005005253B4 (de) 2004-02-11 2018-06-28 Carl Zeiss Ag Fluoreszenzbeobachtungssystem und Fluoreszenzbeobachtungsverfahren
EP2075616A1 (de) 2007-12-28 2009-07-01 Möller-Wedel GmbH Vorrichtung mit einer Kamera und einer Einrichtung zum Abbilden und Projizieren des aufgenommen Bildes
DE102008062650B9 (de) 2008-12-17 2021-10-28 Carl Zeiss Meditec Ag Operationsmikroskop zur Beobachtung einer Infrarot-Fluoreszenz und Verfahren hierzu
DE102014008243A1 (de) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Fluoreszenbeobachtungssystem und optisches Filtersystem hierfür
DE102014016850B9 (de) 2014-11-13 2017-07-27 Carl Zeiss Meditec Ag Optisches System zur Fluoreszenzbeobachtung
DE102015216570A1 (de) 2015-08-31 2016-11-03 Carl Zeiss Meditec Ag Mikroskopiesystem
DE102019101773B9 (de) 2019-01-24 2021-11-25 Carl Zeiss Meditec Ag Mikroskopiesystem und Verfahren zum Betreiben eines Mikroskopiesystems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157340A1 (en) * 2009-04-21 2011-06-30 Olympus Medical Systems Corp. Fluorescent image apparatus and method for acquiring fluorescent image
DE102010033825A1 (de) * 2010-08-09 2012-02-09 Carl Zeiss Meditec Ag Fluoreszenzbeobachtungssystem und Filtersatz
DE202014010558U1 (de) 2013-08-30 2015-12-22 Spekled GmbH Vorrichtung zur Aufnahme eines Hyperspektralbildes
US20160062103A1 (en) * 2014-08-29 2016-03-03 Foreal Spectrum, Inc. Endoscope system with concurrent imaging in visible and infrared wavelengths
US20200345225A1 (en) * 2018-01-30 2020-11-05 Fujifilm Corporation Endoscope system and method of operating the same
DE102020105458A1 (de) 2019-12-13 2021-06-17 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VON GUOLAN LUBAOWEI FEI: "Medical hyperspectral imaging: a review", JOURNAL OF BIOMEDICAL OPTICS, vol. 19, no. 1, January 2014 (2014-01-01), pages 010901
VON QUINGLI LI ET AL.: "Review of spectral imaging technology in biomedical engineering: achievements and challenges", ERSCHIENEN IN JOURNAL OF BIOMEDICAL OPTICS, vol. 18, no. 10, October 2013 (2013-10-01), pages 100901, XP060023891, DOI: 10.1117/1.JBO.18.10.100901

Also Published As

Publication number Publication date
DE102022125852A1 (de) 2024-04-11

Similar Documents

Publication Publication Date Title
EP2440119B1 (de) Bildgebungssystem zur fluoreszenz-optischen visualisierung eines objekts
DE102014016850B9 (de) Optisches System zur Fluoreszenzbeobachtung
DE102008062650B4 (de) Operationsmikroskop zur Beobachtung einer Infrarot-Fluoreszenz und Verfahren hierzu
EP2108943B1 (de) Vorrichtung und Verfahren zur Fluoreszenz-Bildgebung
DE102010044502A1 (de) Sonderbeleuchtungs-Video-Operations-Stereomikroskop
DE102015011429B9 (de) Optisches Filtersystem und Fluoreszenzbeobachtungssystem
DE102006038815A1 (de) Elektronisches Endoskop
DE102011016138A1 (de) Vorrichtung zur Fluoreszenzdiagnose
WO2007090591A1 (de) Mikroskopiesystem zur beobachtung von fluoreszenz
DE102014008243A1 (de) Fluoreszenbeobachtungssystem und optisches Filtersystem hierfür
DE102017210274A1 (de) Mikroskopiesystem und Mikroskopieverfahren zur Aufnahme von Fluoreszenzlichtbildern und Weißlichtbildern
DE112017000897T5 (de) Endoskoplichtquellenvorrichtung und Endoskopsystem
DE60014702T2 (de) Tragbares system zur ermittlung von hautanomalien
DE102020105459A1 (de) Medizinische bildgebungsvorrichtung mit mehreren bildgebungsmodi
DE102018110643B3 (de) Stereo-Mikroskop und Verfahren zur Stereomikroskopie
DE102019115276A1 (de) Lichtquelle und System für die und Verfahren zur Fluoreszenzdiagnose
DE102018114695B3 (de) Filtersatz, System und Verfahren zur gleichzeitigen Anregung und Beobachtung von Protoporphyrin IX und Fluorescein
DE102018111958A1 (de) Filtersatz, System und Verfahren zur Beobachtung von Protoporphyrin IX
WO2024074522A1 (de) Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung
DE102022117581A1 (de) Beleuchtungsvorrichtung, Bildgebungsvorrichtung mit einer Beleuchtungsvorrichtung, Verfahren zur Erzeugung von Beleuchtungslicht und Verfahren zum Betrieb einer Bildgebungsvorrichtung
DE102022117580A1 (de) Medizinische Bildgebungsvorrichtung, medizinisches Bildgebungssystem und Verfahren zum Betrieb einer medizinischen Bildgebungsvorrichtung
DE102022117578A1 (de) Beleuchtungsvorrichtung und Bildgebungsvorrichtung mit einer Beleuchtungsvorrichtung
WO2024100117A1 (de) Beleuchtungsvorrichtung und bildgebungsvorrichtung mit einer beleuchtungsvorrichtung
WO2024013303A1 (de) Beleuchtungsvorrichtung, bildgebungsvorrichtung mit einer beleuchtungsvorrichtung, bildgebungssystem, verfahren zur erzeugung von beleuchtungslicht und verfahren zum betrieb einer bildgebungsvorrichtung
WO2024079275A1 (de) Medizinische bildgebungsvorrichtung und verfahren zur medizinischen bildgebung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23783837

Country of ref document: EP

Kind code of ref document: A1