DE102017216852A1 - Visualisierungssystem mit einer Beleuchtungsvorrichtung - Google Patents

Visualisierungssystem mit einer Beleuchtungsvorrichtung Download PDF

Info

Publication number
DE102017216852A1
DE102017216852A1 DE102017216852.8A DE102017216852A DE102017216852A1 DE 102017216852 A1 DE102017216852 A1 DE 102017216852A1 DE 102017216852 A DE102017216852 A DE 102017216852A DE 102017216852 A1 DE102017216852 A1 DE 102017216852A1
Authority
DE
Germany
Prior art keywords
image capture
illumination
capture device
actuator
object plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017216852.8A
Other languages
English (en)
Inventor
Stefan Saur
Marco Wilzbach
Christopher KÄSBACH
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Priority to DE102017216852.8A priority Critical patent/DE102017216852A1/de
Priority to US16/139,033 priority patent/US10682186B2/en
Publication of DE102017216852A1 publication Critical patent/DE102017216852A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B90/35Supports therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Ein Visualisierungssystem (100) umfasst eine Bilderfassungsvorrichtung (101) zur Beobachtung eines Objektbereiches mit einer Objektebene (121), eine Beleuchtungsvorrichtung (111), die von der Bilderfassungsvorrichtung (101) mechanisch entkoppelt ist, mit einem Aktuator (114) zur Steuerung mindestens einer Eigenschaft der Beleuchtungsvorrichtung (111), eine Steuerungseinheit (117), die mit dem Aktuator (114) verbunden ist und eine Lageerfassungseinheit (150), die mit der Steuerungseinheit (117) verbunden ist. Die Lageerfassungseinheit (150) ist dazu ausgebildet, dass eine relative Lage zwischen der Beleuchtungsvorrichtung (111) und der Bilderfassungsvorrichtung (101) ermittelbar ist, wobei abhängig von der durch die Lageerfassungseinheit (150) ermittelten relative Lage (130) der Aktuator (114) durch die Steuerungseinheit (117) derart ansteuerbar ist, dass die mindestens eine Eigenschaft der Beleuchtungsvorrichtung (111) derart einstellbar ist, dass der Objektbereich mit der Objektebene (121) durch die Beleuchtungsvorrichtung (101) beleuchtet ist.

Description

  • Die Erfindung betrifft ein Visualisierungssystem mit einer Beleuchtungsvorrichtung.
  • In der Medizintechnik werden optische Visualisierungsvorrichtungen bei Operationen eingesetzt. Eine bekannte Visualisierungsvorrichtung ist ein optisches Operationsmikroskop, das eine Beobachtungsoptik und Okulare zur Beobachtung eines Objektbereiches und eine Beleuchtungsvorrichtung zur Beleuchtung des Objektbereiches umfasst. Der Objektbereich ist ein Operationssitus. Operationsmikroskope können zusätzlich oder alternativ mit einer Bilderfassungsvorrichtung, beispielsweise einer oder mehrerer Kameras, ausgestattet sein. Das von der Bilderfassungsvorrichtung aufgenommene Bild wird auf einer Anzeigevorrichtung, beispielsweise einem Bildschirm angezeigt.
  • Die Bilderfassungsvorrichtung und die Beleuchtungsvorrichtung sind dabei mechanisch gekoppelt, das heißt mechanisch derart verbunden, dass bei einer Positions- oder Lageänderung des Operationsmikroskops die Bilderfassungsvorrichtung und die Beleuchtungsvorrichtung zusammen bewegt werden. Auf diese Weise ist eine Beleuchtung des durch die Bilderfassungsvorrichtung aufgenommen Objektbereiches, des Operationssitus, in jeder Position- und Winkelstellung gewährleistet.
  • Eine mechanische Kopplung zwischen der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung kann jedoch bei zukünftigen Systemen nicht mehr vorausgesetzt werden. Bilderfassungsvorrichtung und Beleuchtungsvorrichtung können voneinander unabhängige Systeme bilden, die an unterschiedlichen Halterungen oder Stativen angeordnet sind.
  • Eine optimale Ausleuchtung eines Operationssitus ist jedoch wesentlich bei chirurgischen Eingriffen. Für den Beobachter und Chirurgen ist eine optimale Ausleuchtung des zu operierenden Bereiches eine Voraussetzung für eine gute Visualisierung, um feinste Gewebestrukturen erkennen zu können. Bei einem Patienten kann eine falsch eingestellte Beleuchtung Gewebeschäden durch Überhitzung verursachen.
  • Aufgabe der Erfindung ist es, ein Visualisierungssystem mit einer mechanisch entkoppelten Beleuchtungsvorrichtung bereitzustellen, durch welche die Beleuchtung eines Objektbereiches verbessert wird.
  • Die Aufgabe wird durch eine Vorrichtung mit den Merkmalen des unabhängigen Anspruchs 1 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Erfindungsgemäß umfasst ein Visualisierungssystem eine Bilderfassungsvorrichtung zur Beobachtung eines Objektbereiches mit einer Objektebene, eine Beleuchtungsvorrichtung, die von der Bilderfassungsvorrichtung mechanisch entkoppelt ist, mit einem Aktuator zur Steuerung mindestens einer Eigenschaft der Beleuchtungsvorrichtung, eine Steuerungseinheit, die mit dem Aktuator verbunden ist und eine Lageerfassungseinheit, die mit der Steuerungseinheit verbunden ist.
  • Die Lageerfassungseinheit ist dazu ausgebildet, dass eine relative Lage zwischen der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung ermittelbar ist, wobei abhängig von der durch die Lageerfassungseinheit ermittelten relative Lage der Aktuator durch die Steuerungseinheit derart ansteuerbar ist, dass die mindestens eine Eigenschaft der Beleuchtungsvorrichtung derart einstellbar ist, dass der Objektbereich mit der Objektebene durch die Beleuchtungsvorrichtung beleuchtet ist.
  • Ein Visualisierungssystem umfasst eine Bilderfassungsvorrichtung zur Beobachtung eines Objektbereiches und eine Beleuchtungsvorrichtung, die von der Bilderfassungsvorrichtung mechanisch entkoppelt ist.
  • Die Bilderfassungsvorrichtung ist Teil des Visualisierungssystems zur Beobachtung eines dreidimensionalen Objektbereiches mit einer Objektebene. Der Objektbereich ist ein Operationsbereich. Ein Operationsbereich ist ein zu untersuchender oder zu operierender Gewebebereich, der auch als Operationssitus bezeichnet wird. Dabei kann ein Gewebebereich Zellgewebe, Knochen und/oder künstliche Körperelemente umfassen. Die geometrischen Verhältnisse in dem dreidimensionalen Objektbereich sind abhängig von dem zu untersuchenden Gewebe. Um die geometrischen Eigenschaften für die Bilderfassungsvorrichtung und die Beleuchtungsvorrichtung im Objektbereich eindeutig zu beschreiben, werden diese auf die Objektebene bezogen. Die Objektebene ist eine Beobachtungsebene im Objektbereich.
  • Die Optik der Bilderfassungsvorrichtung definiert eine Fokusebene. Bei einem optischen oder digitalen Operationsmikroskop ist die Fokusebene eine Ebene in einer axialen Position entlang der optischen Achse des Beobachtungsstrahlengangs, in der die Schärfe der Abbildung ein Maximum erreicht. Die Optik der Bilderfassungsvorrichtung kann auch einen Bereich oberhalb und unterhalb der Fokusebene scharf abbilden, der durch die Schärfentiefe definiert ist. Ist die Bilderfassungsvorrichtung beispielsweise ein Operationsmikroskop, liegen die Fokusebene und die Objektebene in der gleichen Ebene.
  • Die Bilderfassungsvorrichtung ist ausgebildet, den Objektbereich vergrößert wiederzugeben oder ohne Vergrößerung darzustellen. Ein Vergrößerungsfaktor kann abhängig sein von der Art des zu operierenden Gewebebereiches.
  • Die Bilderfassungsvorrichtung kann durch mindestens eine Kamera oder einen Bildsensor, beispielsweise einen CCD-Sensor gebildet sein. Die Bilderfassungsvorrichtung kann Optikelemente, beispielsweise Linsen, Filter und/oder Blenden umfassen. Die Optikelemente können eine Vergrößerungsoptik bilden. Die Bilderfassungsvorrichtung kann ein Einzelbild oder eine Videosequenz erfassen. Die Bilderfassungsvorrichtung kann ausgebildet sein, 2D-Bilder und/oder 3D-Bilder zu erfassen. Das Visualisierungssystem kann eine Anzeigevorrichtung aufweisen, die das von der Bilderfassungsvorrichtung aufgenommene Bild darstellt.
  • Die Beleuchtungsvorrichtung kann eine Xenon- oder Halogenlichtquelle umfassen oder durch eine LED-Einheit gebildet sein. Vor der Lichtquelle können ein oder mehrere Optikelemente angeordnet sein, die das Licht fokussieren oder in einen parallelen Strahlengang überführen. Die Beleuchtungsvorrichtung kann einen oder mehrere Filter umfassen, zur Bereitstellung von Beleuchtungslicht in einem bestimmten Wellenlängenbereich und/oder in einer gewünschten Helligkeit. Die Beleuchtungsvorrichtung kann Blenden aufweisen, zur Einstellung einer Beleuchtungsspotgröße in der zu beleuchtenden Objektebene.
  • Die Beleuchtungsvorrichtung ist von der Bilderfassungsvorrichtung mechanisch entkoppelt. Dies bedeutet, dass zwischen der Beleuchtungsvorrichtung der Bilderfassungsvorrichtung keine mechanische Verbindung, kein fester mechanischer Zusammenhalt ausgebildet ist. Eine Position oder Lage der Beleuchtungsvorrichtung kann verändert werden, ohne dass die Position oder Lage der Bilderfassungsvorrichtung dabei verändert wird. Beide Vorrichtungen sind mechanisch unabhängige Geräte. Die Beleuchtungsvorrichtung und die Bilderfassungsvorrichtung können unabhängig voneinander im Raum angeordnet sein. Dazu können die Beleuchtungsvorrichtung und die Bilderfassungsvorrichtung an unterschiedlichen Stativen oder Haltearmen befestigt sein. Die Ausrichtung und Position eines Beleuchtungsstrahlengangs relativ zu dem Objektbereich ist unabhängig von der Ausrichtung und Position eines Beobachtungsstrahlengangs veränderbar. Im Gegensatz dazu sind bei einem klassischen Operationsmikroskop der Beleuchtungsstrahlengang und der Beobachtungsstrahlengang durch ein gemeinsames Hauptobjektiv geführt und auf diese Weise mechanisch und sogar optisch gekoppelt.
  • Die Beleuchtungsvorrichtung umfasst einen Aktuator zur Steuerung der mindestens einen Eigenschaft der Beleuchtungsvorrichtung. Unter einer Eigenschaft ist eine mechanische, optische oder elektrische Eigenschaft oder Funktion der Beleuchtungsvorrichtung zu verstehen. Der Aktuator setzt die Steuerungssignale in eine mechanische Bewegung oder in eine optische oder elektrische Eigenschaft um. Der Aktuator kann dabei ein einzelnes Aktuatorelement aufweisen oder eine ganze Aktuatorbaugruppe umfassen. Bei einer Umsetzung in eine mechanische Bewegung umfasst der Aktuator ein Antriebselement. Das Antriebselement kann die Beleuchtungsvorrichtung beispielsweise im Raum positionieren oder eine Winkeländerung einstellen, um eine Ausrichtung zu bewirken. Das Antriebselement kann auch ein Optikelement bewegen oder eine Blende ein- oder ausschwenken, um ein Beleuchtungszoom oder eine Spotgröße in der Objektebene einzustellen. Der Aktuator kann ein einzelnes Antriebselement oder eine Baugruppe mit mehreren Antriebselementen umfassen. Ein Antriebselement kann ein Motor, beispielsweise ein Servomotor oder ein Schrittmotor sein.
  • Der Aktuator kann auch ausgebildet sein, eine optische Funktion der Beleuchtungsvorrichtung einzustellen. Dazu kann der Aktuator beispielsweise eine LCD-Matrix sein, um die Helligkeit oder Spotgröße in der Objektebene einzustellen. Der Aktuator kann auch eine elektrische Baugruppe sein, die eine elektrische Eigenschaft der Lichtquelle einstellt und beispielsweise Strom mit einer bestimmten Pulsfrequenz oder Pulsweite zur Einstellung der Intensität der Lichtquelle bereitstellt. Durch den Aktuator können auch mehrere Eigenschaften zusammen bewirkt werden. Beispielsweise kann ein mechanisches Antriebselement einen Filter in den Strahlengang einführen und somit eine optische Eigenschaft, den Wellenlängenbereich des Beleuchtungslichtes, einstellen. Die Beleuchtungsvorrichtung kann mehrere Aktuatoren umfassen, um mehrere Eigenschaften der Beleuchtungsvorrichtung aktiv einzustellen.
  • Eine Steuerungseinheit ist mit dem Aktuator verbunden ist. Die Steuerungseinheit ist ebenfalls mit der Lageerfassungseinheit verbunden. Diese Verbindungen können kabelgebunden, beispielsweise über ein Netzwerk oder Koaxialkabel, oder kabellos, beispielsweise über Infrarot, Funk, Bluetooth, oder WLAN ausgeführt sein. Die Steuerungseinheit umfasst eine Recheneinheit und einen Speicher und kann weitere Elektronik-Baugruppen aufweisen. Die Steuerungseinheit kann mit einem Bildschirm verbunden sein und eine oder mehrere Schnittstellen bereitstellen. Die Steuerungseinheit kann die von der Lageerfassungseinheit ermittelten Daten verarbeiten und daraus Steuersignale für den mindestens einen Aktuator der Beleuchtungsvorrichtung berechnen.
  • Die Lageerfassungseinheit ist dazu ausgebildet, eine relative Lage zwischen der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung zu ermitteln. Die relative Lage ist definiert als eine relative Position und Ausrichtung Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung zueinander. Die relative Position definiert eine Translation in Richtung einer X-, Y- und Z-Achse eines orthogonalen Koordinatensystems. Die relative Ausrichtung definiert eine Rotation um die X-, Y- und Z-Achse. Dabei sind auch andere Koordinatensysteme oder äquivalente Koordinatensystemrepräsentationen umfasst, die den Raum auf eine andere Art beschreiben.
  • Die Lageerfassungseinheit kann durch eine Recheneinheit gebildet sein, die die von der Bilderfassungsvorrichtung aufgenommen Bilder auswertet und daraus eine relative Lage zwischen der Bilderfassungsvorrichtung und der Beleuchtungsvorrichtung ermittelt. Abhängig von der dieser ermittelten relativen Lage ist der Aktuator durch die Steuerungseinheit derart ansteuerbar ist, dass eine Eigenschaft der Beleuchtungsvorrichtung so eingestellt wird, dass der Objektbereich mit der Objektebene durch die Beleuchtungsvorrichtung beleuchtet ist. Diese Eigenschaft kann beispielsweise eine Position, Ausrichtung, oder Beleuchtungsspotgröße in der Objektebene sein.
  • Die Lageerfassungseinheit kann alternativ auch ein bekanntes Trackingsystem sein, das unter Verwendung von Markern, die auf der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung angeordnet sind, die relative Lage zwischen diesen beiden Vorrichtungen ermittelt. Trackingsysteme können auf Basis von Infrarotlicht oder Weißlicht arbeiten. Auch elektromagnetische Trackingsysteme sind bekannt. Es sind auch markerlose Trackingsysteme verfügbar, die eine relative Lage zwischen der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung durch Bildauswertung von Kamera-Bilddaten ermitteln können.
  • Die Bilderfassungsvorrichtung ist ein optisch-mechanisches System, beispielsweise ein digitales Operationsmikroskop mit mindestens einer Kamera. Die Bilderfassungsvorrichtung umfasst Optikelemente mit optischen Eigenschaften, die eine Fokusebene definieren. Dadurch die räumliche Zuordnung und die relative Lage zwischen der der Bilderfassungsvorrichtung und der Fokusebene eindeutig vorgegeben.
  • Ist der Objektbereich mit der Objektebene in der Fokusebene positioniert, fällt die Objektebene mit der Fokusebene zusammen. Ist die Lage und die Ausrichtung der Bilderfassungsvorrichtung bekannt, weil diese durch die Lageerfassungseinheit ermittelt wurde, ist daraus die Position und Ausrichtung der Objektebene eindeutig ableitbar.
  • Die Steuerungseinheit, die die Daten der Lageerfassungseinheit verarbeitet, kann daraus ein Steuersignal für den Aktuator der Beleuchtungsvorrichtung berechnen. Die relative Lage zwischen Objektebene, Bilderfassungsvorrichtung und Beleuchtungsvorrichtung, die auf diese Weise eine Dreiecksanordnung im Raum bilden, ist ermittelbar. Deshalb kann die Steuerungsvorrichtung daraus die notwendigen Steuersignale für den Aktuator berechnen und diesen derart ansteuern, dass die Objektebene und damit der Objektbereich beleuchtet werden.
  • In einer Ausgestaltung der Erfindung ist die Lageerfassungseinheit dazu ausgebildet, dass eine relative Lage zwischen der Bilderfassungsvorrichtung und der Objektebene ermittelbar ist.
  • Die Bilderfassungsvorrichtung kann auch Teil eines auf dem Kopf getragenen Visualisierungssystems sein. Ein Beispiel für ein kopftragbares Visualisierungssystem ist ein Head-Mounted-Display, auch als HMD bezeichnet. Das HMD umfasst ein vor den Augen angeordnetes Display, das ein von der Bilderfassungsvorrichtung aufgenommenes Bild des Objektbereiches darstellt. Der Objektbereich kann mit oder ohne Vergrößerung betrachtet werden. Ein Vergrößerungsfaktor kann auch sehr gering sein, beispielsweise kleiner als zwei sein. An dem HMD können auch ein oder mehrere Optikelemente zwischen dem Auge des Beobachters und dem Objektbereich angeordnet sein.
  • Ein auf dem Kopf getragenes Visualisierungssystem ist nicht starr. Der Beobachter kann bewusst oder unbewusst kleine Bewegungen ausführen, auch Zitterbewegungen sind möglich.
  • Deshalb ist es vorteilhaft, dass die Lageerfassungseinheit dazu ausgebildet, dass zusätzlich eine relative Lage zwischen der Bilderfassungsvorrichtung und der Objektebene ermittelbar ist. Die Steuerungseinheit, die die Daten der Lageerfassungseinheit verarbeitet, kann aus den relativen Positionen und Ausrichtungen zwischen Objektebene, Bilderfassungsvorrichtung und Beleuchtungsvorrichtung ein Steuersignal für den Aktuator der Beleuchtungsvorrichtung berechnen. Der Aktuator stellt die Beleuchtungsvorrichtung derart ein, dass die Objektebene und damit der Objektbereich beleuchtet werden.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung die Ausrichtung der Beleuchtungsvorrichtung auf die Objektebene des Objektbereiches.
  • Dabei wird die optische Achse des Beleuchtungsstrahlengangs und einem zentralen Punkt auf der Objektebene ausgerichtet. Eine Ausrichtung ist durch eine translatorische Positionsänderung der Beleuchtungsvorrichtung im Raum und/oder durch eine rotatorische Anpassung des Beleuchtungswinkels erreichbar. Der Aktuator kann ein einzelnes Antriebselement sein oder eine größere Antriebseinheit umfassen und beispielsweise einen oder mehrere Motoren aufweisen, um die Steuersignale in eine mechanische Bewegung umzusetzen. Der Aktuator kann die Position und/oder den Beleuchtungswinkel in einer, zwei oder drei Achsen auf die Objektebene und damit auf den Objektbereich einstellen.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung gebildet ist aus der Gruppe Beleuchtungsspotgröße, Intensität, Fokus, Zoom bezogen auf die Objektebene.
  • Die Einstellung eines oder mehrerer dieser optischen Parameter kann eine optimale Ausleuchtung der Objektebene und des Objektbereiches bewirken.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung die Beleuchtungsspotgröße in der Objektebene.
  • Die Beleuchtungsspotgröße definiert die Größe der beleuchteten Fläche in der Objektebene. Ist das Beleuchtungslicht kegelförmig ausgebildet, wird ein kreisförmiger oder elliptischer Bereich im Objektbereich beleuchtet. Der Beleuchtungsspot bildet in der Objektebene einen einstellbaren Kreis, wenn die optische Achse des Beleuchtungslichtkegels eine Normale der Objektebene bildet.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung die Intensität des Beleuchtungslichtes in der Objektebene.
  • Die Intensität definiert die Strahlungsleistung des Beleuchtungslichtes in der Objektebene. Die Intensität des Beleuchtungslichtes wird durch den Beobachter durch die Helligkeit der Beleuchtung wahrgenommen. Eine zu helle Beleuchtung kann blenden, eine zu geringe Beleuchtung als unzureichend empfunden werden. Die Intensität des Beleuchtungslichtes bestimmt auch die Wahrscheinlichkeit von Gewebeschäden.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Fokus des Beleuchtungslichtes in der Objektebene.
  • Der Fokus ist der Brennpunkt des abgestrahlten Beleuchtungslichtes. Eine Anpassung des Fokus bewirkt eine Veränderung der Größe der beleuchteten Fläche in der Objektebene.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung die Zoomeinstellung bezogen auf die Objektebene.
  • Durch Anpassung des Beleuchtungszooms kann vorteilhaft die Größe der beleuchteten Fläche in der Objektebene einstellbar. Ein Beleuchtungszoom der Beleuchtungsvorrichtung kann einfach und kostengünstig durch einen Motor eingestellt werden.
  • In einer Ausgestaltung der Erfindung ist eine Eigenschaft der Beleuchtungsvorrichtung die Einstellung eines Wellenlängenbereiches.
  • Die Beleuchtung der Objektbereiches mit einer bestimmten Beleuchtungswellenlänge ermöglicht die Visualisierung spezifischer Strukturen. Der Wellenlängenbereich kann beispielsweise der Anregungswellenlängenbereich für eine Fluoreszenzbeobachtung sein.
  • In einer Ausgestaltung der Erfindung ist der Aktuator eine robotische Vorrichtung.
  • Eine robotisch gesteuerte Vorrichtung kann eine Position und Ausrichtung der Beleuchtungsvorrichtung auf den Objektbereich mit der Objektebene einstellen. Die robotisch gesteuerte Vorrichtung kann die Beleuchtungsvorrichtung im Raum positionieren und dazu translatorisch bewegen. Zusätzlich ist eine rotatorische Ausrichtung in einer oder mehrerer Achsen möglich. Robotische Vorrichtungen können eine Bewegung bezüglich aller sechs Freiheitsgrade, in drei translatorischen Achsen und drei rotatorischen Achsen, ermöglichen.
  • Vorteilhaft kann eine Beleuchtungsvorrichtung damit an einer freien Stelle im Raum positioniert werden, die einen oder mehrere Beobachter in der Ausübung einer diagnostischen oder chirurgischen Arbeit nicht beeinträchtigt. Ist der Operationssitus beispielsweise ein enger und tiefer Kanal, kann die Beleuchtungsvorrichtung in einer direkten Verlängerung des Operationskanals positioniert und exakt auf den Operationskanal ausgerichtet werden.
  • In einer Ausgestaltung der Erfindung ist die relative Lage durch Auswertung der von der Bilderfassungsvorrichtung aufgenommen Bilddaten ermittelbar.
  • Dies ist eine kostengünstige Lösung, da die relative Lage zwischen Beleuchtungsvorrichtung und Bilderfassungsvorrichtung durch eine Software ermittelbar ist. Es sind keine zusätzlichen Vorrichtungen notwendig.
  • In einer Ausgestaltung der Erfindung umfasst die Lagererfassungseinheit ein Trackingsystem.
  • Trackingsysteme können in Kombination mit einem Visualisierungssystem bei Operationen eingesetzt werden. Dadurch kann ein Trackingsystem eine Lageerfassungseinheit bilden, die mit hoher Genauigkeit die relative Lage zwischen der Beleuchtungsvorrichtung und der Bilderfassungsvorrichtung ermitteln kann.
  • In einer Ausgestaltung der Erfindung ist durch das Trackingsystem eine Position und Ausrichtung des Objektbereiches mit der Objektebene ermittelbar.
  • Durch das Trackingsystem ist eine Position und Ausrichtung des zu untersuchenden Objektbereiches mit der Objektebene ermittelbar. Vorteilhaft kann dadurch eine relative Lage zwischen der Objektebene und der Beleuchtungseinrichtung berechnet werden. Zusätzlich oder alternativ ist eine relative Lage zwischen einer Bilderfassungsvorrichtung und der Objektebene ermittelbar. Dies ist vorteilhaft, wenn die Position der Bilderfassungsvorrichtung im Raum verändert wird, beispielsweise weil sie am Kopf eines Beobachters angeordnet ist.
  • In einer Ausgestaltung der Erfindung ist eine Lichtquelle der Beleuchtungsvorrichtung abhängig von den durch die Lagererfassungseinheit ermittelten Daten steuerbar.
  • Die Lichtquelle der Beleuchtungseinrichtung kann durch die Steuerungseinheit angesteuert werden. Vorteilhaft ist die Lichtquelle dadurch dimmbar oder abschaltbar, abhängig von den durch die Lagererfassungseinheit ermittelten Daten. Wenn durch die Lageerfassungseinheit ermittelt wird, dass die Bilderfassungsvorrichtung nicht auf den Objektebene gerichtet ist, kann die Intensität des Beleuchtungslichtes reduziert oder die Lichtquelle abgeschaltet werden.
  • In einer Ausgestaltung der Erfindung umfasst das Visualisierungssystem mindestens eine weitere Bilderfassungsvorrichtung.
  • Vorteilhaft kann das Visualisierungssystem auch für mindestens einen zweiten Beobachter erweitert werden.
  • In einer Ausgestaltung der Erfindung umfasst das Visualisierungssystem mindestens eine zusätzliche Beleuchtungsvorrichtung mit einem zusätzlichen Aktuator, der durch die Steuerungseinheit ansteuerbar ist.
  • Vorteilhaft können zwei Beleuchtungsvorrichtungen mit unterschiedlichen Eigenschaften eingesetzt werden. Beispielsweise kann eine erste Beleuchtungsvorrichtung zur Erzeugung eines Beleuchtungsspots für einen engen Kanal in dem Gewebebereich eingestellt werden. Eine zweite Beleuchtungsvorrichtung kann für eine allgemeine Beleuchtung des Gewebebereiches eingestellt werden.
  • Weitere Vorteile und Merkmale der Erfindung werden in Bezug auf die nachfolgenden Zeichnungen erklärt, in welchen zeigen:
    • 1 eine erstes Visualisierungssystem in einer schematischen Darstellung;
    • 2 eine zweites Visualisierungssystem in einer schematischen Darstellung;
    • 3 eine drittes Visualisierungssystem mit einer Lageerfassungseinheit in einer schematischen Darstellung.
    • Die 1 zeigt ein erstes Visualisierungssystem in einer schematischen Darstellung.
  • Eine erstes Visualisierungssystem 100 umfasst eine Beobachtungseinheit 104 eine Beleuchtungseinheit 110 und eine Lagerfassungseinheit 150. Die Beobachtungseinheit 104 weist eine erste Bilderfassungsvorrichtung 101 auf, die an einem ersten Haltearm 105 angeordnet ist. Die Beobachtungseinheit 104 kann ein Stativ umfassen und weitere Haltearme aufweisen. Die Beleuchtungseinheit 110 umfasst eine Beleuchtungsvorrichtung 111, die an einem zweiten Haltearm 115 angebracht ist.
  • Die erste Bilderfassungsvorrichtung 101 ist auf ein zu beobachtendes Objekt 120 mit einem zu untersuchenden Gewebebereich gerichtet. Das zu beobachtende Objekt 120 ist ein Patient. Der zu untersuchende Körperteil ist der Kopf des Patienten. Der zu untersuchende Gewebebereich bildet den Objektbereich und umfasst eine Objektebene 121, auf die die erste Bilderfassungsvorrichtung 101 ausgerichtet ist. Die Optik der Bildererfassungsvorrichtung 101 definiert einen ersten Beobachtungsstrahlengang 102 mit einer ersten optischen Achse 119 und eine Fokusebene. Die Fokusebene der ersten Bilderfassungsvorrichtung 101 ist deckungsgleich mit Objektebene 121.
  • Die erste Bilderfassungsvorrichtung 101 kann eine Kamera oder einen Bildsensor, beispielsweise einen CCD-Chip, umfassen und ausgebildet sein, monochrome, farbige oder Fluoreszenz-Bilder aufzunehmen. Es können ein oder mehrere nicht dargestellte Optikelemente, beispielsweise Linsen, Blenden oder Filter vor der Kamera oder dem Bildsensor angeordnet sein. Die erste Bilderfassungsvorrichtung 101 kann einen einzelnen Bildsensor oder mehrere Bildsensoren oder Kameras umfassen und dazu ausgebildet sein, 2D- oder 3D-Bilder aufzunehmen.
  • Die Beleuchtungsvorrichtung 111 umfasst eine Lichtquelle und eine Beleuchtungsoptik. Die Lichtquelle kann durch eine Glühlampe, eine Halogen-Lampe, eine Xenon-Lampe oder durch eine LED-Lichtquelle gebildet sein. Die Beleuchtungsvorrichtung 111 kann eine Beleuchtungsoptik, Blenden und/oder Filter umfassen. Die Beleuchtungsvorrichtung 111 kann mit einem Beleuchtungszoom ausgestattet sein.
  • Die Beleuchtungsvorrichtung 111 umfasst einen Aktuator 114, der eine erste Eigenschaft der Beleuchtungsvorrichtung 111 steuern kann. Der Aktuator 114 umfasst ein Antriebselement oder eine Antriebselement-Baugruppe zur Ausrichtung der Beleuchtungsvorrichtung auf die Objektebene 121 des zu untersuchenden Gewebebereichs. Dazu ist die Ausrichtung der Beleuchtungsvorrichtung 111 durch den Aktuator 114 in mindestens einer Achse, bevorzugt in zwei Achsen eines orthogonalen Koordinatensystems 132 rotatorisch einstellbar.
  • In einer Weiterbildung kann der Aktuator 114 ausgebildet sein, die Beleuchtungsvorrichtung 111, die an dem zweiten Haltearm 115 angeordnet ist, translatorisch in bis zu drei Achsen des orthogonalen Koordinatensystems 132 zu bewegen und/und rotatorisch um diese drei Achsen zu drehen.
  • Die Beobachtungseinheit 104 ist über eine erste Verbindung 106 mit einer Steuerungseinheit 117 verbunden. Die Beleuchtungseinheit 110 ist über eine zweite Verbindung 116 mit der Steuerungseinheit 117 verbunden. Die Lageerfassungseinheit 150 ist über eine dritte Verbindung 156 mit der Steuerungseinheit 117 verbunden. Die erste Verbindung 106, die zweite Verbindung 116 und die dritte Verbindung 117 können kabelgebunden über jeweils eine Leitung, beispielsweise ein Netzwerk, ein Bussystem, ein Datenkabel oder ein Koaxialkabel, oder kabellos, beispielsweise über Infrarot, Funk, Bluetooth, oder WLAN ausgeführt sein.
  • Die erste Bilderfassungsvorrichtung 101 ist ein digitales Operationsmikroskop oder eine digitale Kamera. Der zu untersuchende Gewebebereich umfasst die Objektebene 121 und wird von der ersten Bilderfassungsvorrichtung 101 aufgenommen. Die erste Bilderfassungsvorrichtung 101 umfasst eine Vergrößerungsoptik und einen Bildsensor. Das von dem Bildsensor aufgenommene Bild wird auf einer nicht gezeigten Anzeigevorrichtung dargestellt und zeigt eine vergrößerte Darstellung des Gewebebereiches. Eine Anzeigevorrichtung kann ein Bildschirm oder eine kopfgetragenen Darstellungsvorrichtung sein.
  • Die relative Lage, d. h. die relative Position und Ausrichtung zwischen der ersten Bilderfassungsvorrichtung 101 und der Beleuchtungsvorrichtung 111 wird durch die Lageerfassungseinheit 150 ermittelt. Dazu umfasst die erste Bilderfassungsvorrichtung 101 ein erstes Referenzelement 103 und die Beleuchtungsvorrichtung 111 ein zweites Referenzelement 113. Das erste Referenzelement 103 und das zweite Referenzelement 113 bilden Bezugselemente zur Positions- und Lageerfassung. Das erste Referenzelement 103 und das zweite Referenzelement 113 sind derart ausgebildet, dass eine Position im Raum bezogen auf eine X-, Y- und Z-Achse des orthogonalen Koordinatensystems 132 und eine rotatorische Ausrichtung um die X-, Y- und Z-Achse des orthogonalen Koordinatensystems 132 ermittelbar sind.
  • Sind die Position und Ausrichtung des erste Referenzelement 103 und des zweiten Referenzelementes 113 durch die Lageerfassungseinheit 150 ermittelt, kann die Steuerungseinheit 117 aus diesen Daten für das erste Referenzelement 103 einen ersten Referenzpunkt und für das zweite Referenzelement 113 einen zweiten Referenzpunkt berechnen. Zwischen dem ersten Referenzpunkt und dem zweiten Referenzpunkt kann der Abstand und die Relativposition zwischen der ersten Bilderfassungsvorrichtung 101 und der Beleuchtungsvorrichtung 111 berechnet werden. Zusätzlich ist auch die rotatorische Ausrichtung um die X-, Y- und Z-Achse, bezogen auf das orthogonale Koordinatensystem 132, durch die Ausrichtung des ersten Referenzelements 103 und des zweiten Referenzelementes 113 bekannt. Somit ist aus diesen Daten eine erste relative Lage 130, d. h. die relative Position und Ausrichtung zueinander, zwischen der Beleuchtungsvorrichtung 111 und der ersten Bilderfassungsvorrichtung 101 ermittelbar.
  • Die Objektebene 121 ist mit der Fokusebene deckungsgleich, die durch die Optik der ersten Bilderfassungsvorrichtung 101 definiert ist. Da die Position und Ausrichtung der ersten Bilderfassungsvorrichtung 101 ermittelt ist, ist auch die Position und Ausrichtung der Fokusebene bekannt. Die Objektebene 121 und die Fokuseben liegen in der gleichen Ebene. In der Objektebene 121 ist ein dritter Referenzpunkt 122 definierbar. Der dritte Referenzpunkt 122 kann ein durch die Beobachtungsvorrichtung 101 definierter Punkt sein, und beispielsweise auf der ersten optischen Achse 119 des ersten Beobachtungsstrahlengangs 102 liegen. Alternativ kann der dritte Referenzpunkt 122 auch durch den Beobachter festgelegt sein und beispielsweise eine markante Struktur im Gewebebereich markieren.
  • Der erste Referenzpunkt, der zweite Referenzpunkt und der dritte Referenzpunkt 122 bilden ein Dreieck im Raum. Deshalb kann in der Steuerungseinheit 117 eine Sollposition für die Beleuchtungsvorrichtung 111 berechnet werden, für die ein Beleuchtungsstrahlengang 112 auf die zu beleuchtende Objektebene 121 optimal ausgerichtet ist.
  • Eine Möglichkeit ist es, die optische Achse 118 des Beleuchtungsstrahlengangs 112 auf den dritten Referenzpunkt 122 auf der Objektebene 121 auszurichten. Eine Ausrichtung ist durch eine translatorische Positionsänderung der Beleuchtungsvorrichtung 111 im Raum und/oder durch eine rotatorische Anpassung des Beleuchtungswinkels erreichbar. Der Aktuator 114 kann ein einzelnes Antriebselement sein oder eine größere Antriebseinheit umfassen und beispielsweise einen oder mehrere Motoren aufweisen, um die Steuersignale in eine mechanische Bewegung umzusetzen. Der Aktuator 114 kann die Position und/oder den Beleuchtungswinkel in einer, zwei oder drei Achsen einstellen und den Beleuchtungsstrahlengang 112 auf die Objektebene 121 und damit auf den Objektbereich einstellen. Der Beleuchtungsstrahlengang 212 kann beispielsweise optimal eingestellt sein, wenn der Beobachter den Objektbereich ohne erkennbare Schatten sehen kann.
  • In einer weiteren Ausführungsform kann eine optische oder elektrische Eigenschaft der Beleuchtungsvorrichtung 111 durch den Aktuator 114 eingestellt werden, beispielsweise die Beleuchtungsspotgröße, eine Zoomeinstellung, die Lichtintensität, der Beleuchtungsfokus oder der Wellenlängenbereich.
  • Der Aktuator 114 kann auch mehrere Baugruppen umfassen, um mehrere Eigenschaften einzustellen. Beispielsweise kann eine mechanische Baugruppe die Position und/oder die Ausrichtung des Beleuchtungswinkels einstellen, während eine andere Baugruppe den Beleuchtungsspotdurchmesser anpasst.
  • Der Beleuchtungsspotdurchmesser in der Objektebene 121 kann zusätzlich auch auf Basis weiterer Eigenschaften oder Parameter der ersten Bilderfassungsvorrichtung 101 ermittelt werden, beispielsweise Fokusabstand, Zoomeinstellung oder Sichtfeld, auch als „Field-of-View“ bezeichnet. Optional kann die 3D-Topographie des Gewebebereiches durch eine Auswertung der durch die erste Bildererfassungsvorrichtung aufgenommenen Bilddaten bestimmt werden, um die Beleuchtungsvorrichtung 111 anhand eines ermittelten 3D-Profiles einzustellen. Die Koordinaten der 3D-Topographie können durch die Steuerungseinheit 117 auch in das Koordinatensystem 132 umgerechnet werden, so dass aus denen durch die Lageerfassungseinheit 150 ermittelten Koordinaten und den 3D-Topographiedaten eine optimale Einstellung der Beleuchtungseigenschaften erreichbar ist. Dies umfasst eine oder mehrere der oben genannten Eigenschaften der Beleuchtungsvorrichtung 111, beispielsweise Position, Ausrichtung, Beleuchtungsspot, Zoom, Fokus, Beleuchtungsintensität, Beleuchtungswellenlänge und/oder Beleuchtungsform, die durch eine Blende einstellbar ist.
  • In der Objektebene 121 kann die beleuchtete Fläche kreisförmig oder elliptisch sein. Es ist auch vorstellbar, dass die beleuchtete Fläche eine beliebige Umrissform aufweist, beispielsweise wenn eine nichtsymmetrische Blende in dem Beleuchtungsstrahlengang angeordnet ist oder die Blende durch eine punktweise ansteuerbare LCD-Blende gebildet ist.
  • In einer alternativen Ausgestaltung kann der beleuchtete Bereich auch durch die erste Bilderfassungsvorrichtung 101 aufgenommen und von der Steuerungseinheit 117 ausgewertet werden. Diese Daten können ergänzend zu den von der Lageerfassungseinheit 150 bereitgestellten Daten zur Steuerung des Aktuators 114 herangezogen werden. In einer weiteren Ausgestaltung ist es auch vorstellbar, dass die Daten des beleuchteten Bereiches auch alternativ zu den von der Lageerfassungseinheit 150 herangezogenen Daten zur Steuerung des Aktuators 114 verwendet werden. Dazu kann die Beobachtungseinheit 104 auf Basis der von der ersten Bilderfassungsvorrichtung 101 bereitgestellten Bilder eine gewünschte Beleuchtungsform und/oder eine einzustellende relative Lage zwischen Beleuchtungsvorrichtung 111 und der ersten Bilderfassungsvorrichtung 101 an den Aktuator 114 der Beleuchtungsvorrichtung 111 übermitteln. Diese Ausgestaltung ist insbesondere vorstellbar, wenn nur wenige Eigenschaften, z. B. die Beleuchtungsspotgröße und/oder die Beleuchtungsintensität, gesteuert werden soll.
  • Bei einer Veränderung der Positionierung der ersten Bilderfassungsvorrichtung 101 wird durch die Lageerfassungseinheit 150 eine neue relative Lage zwischen der Beleuchtungsvorrichtung 111 und der Bilderfassungsvorrichtung 101 ermittelt. Die Steuerungseinheit 117 steuert den Aktuator 114 derart an, dass die Beleuchtungsvorrichtung 111 wieder auf den Objektbereich mit der Objektebene 221 ausgerichtet ist.
  • Ergeben die durch die Lageerfassungseinheit 150 ermittelten Daten, dass die erste Bilderfassungsvorrichtung 101 nicht mehr auf den Gewebebereich mit der Objektebene 121 ausgerichtet ist, kann durch die Steuerungseinheit 117 die Intensität des Beleuchtungslichtes reduziert werden, beispielsweise durch dimmen oder Abschalten der Lichtquelle.
  • In einer weiteren alternativen Ausgestaltung kann zusätzlich ein drittes Referenzelement 123 an dem zu beobachtenden Objekt 120 angeordnet sein. Das dritte Referenzelement 123 ermöglicht die Bestimmung einer Position und Ausrichtung des zu beobachtenden Objektes 120 im Raum. Dies kann vorteilhaft sein, wenn das zu beobachtende Objekt 120 und die Objektebene 121 schräg im Raum angeordnet sind und/oder die Position der ersten Bilderfassungsvorrichtung 101 während der Beobachtung verändert wird.
  • In einer alternativen Ausgestaltung kann die Beobachtungseinheit 104 auch ein Hybrid-System, eine Mischung aus einem konventionellen optischen Operationsmikroskop, das ein Hauptobjektiv und eine Vergrößerungsoptik umfasst, und einem digitalen Operationsmikroskop bilden.
  • In einer Ausgestaltung der Erfindung kann die Steuerungseinheit 117 in die Beobachtungseinheit 104 oder in der Beleuchtungseinheit 110 integriert sein. Es ist auch vorstellbar, dass die Steuerungseinheit 117 ein Teil der Lageerfassungseinheit 150 ist. Die Steuerungseinheit 117 kann auch durch eine separate Datenverarbeitungseinheit oder einen Standard-PC gebildet sein.
  • Die 2 zeigt ein zweites Visualisierungssystem 200 in einer schematischen Darstellung.
  • Das zweite Visualisierungssystem 200 gemäß 2 weist die gleichen Komponenten auf wie das erste Visualisierungssystem 100 gemäß der 1, wobei die Bezugszeichen um 100 erhöht sind.
  • Die Beleuchtungsvorrichtung 200 gemäß 2 unterscheidet sich von der Beleuchtungsvorrichtung 100 gemäß der 1 dadurch, dass zusätzlich ein Beobachter 240 mit einer kopfgetragenen zweiten Bilderfassungsvorrichtung 241 eine Objektebene 221 des Operationsbereiches betrachtet. Ein zweiter Beobachtungsstrahlengang 242 mit einer zweiten optischen Achse 249 ist zwischen der zweiten Bilderfassungsvorrichtung 241 und der Objektebene 221 gebildet.
  • Die kopfgetragene zweite Bilderfassungsvorrichtung 241 ist ein Head-Mounted-Display, auch als HMD bezeichnet. Das HMD umfasst eine Kamera oder einen Bildsensor und kann ein oder mehrere zusätzliche optische Komponenten aufweisen, die zwischen dem Auge des Beobachters 240 und der Objektebene 221 angeordnet sein. Das HMD umfasst ein vor den Augen angeordnetes Display, das ein von der Kamera oder dem Bildsensor aufgenommenes Bild des Objektbereiches darstellt. Das Bild kann mit einem Vergrößerungsfaktor oder ohne Vergrößerung dargestellt werden. Der Vergrößerungsfaktor kann gering sein und beispielsweise kleiner als zwei sein. Bei dem HMD sind die die Kamera und das Display starr gekoppelt.
  • Die zweite Bilderfassungsvorrichtung 241 ist mit einer Steuerungsvorrichtung 217 über eine vierte Verbindung 246 gekoppelt. Die vierte Verbindung 246 kann kabelgebunden ausgeführt sein, ist aber bevorzugt kabellos eingerichtet. Die kabellose Verbindung kann beispielsweise über Infrarot, Funk, Bluetooth, oder WLAN ausgeführt sein. Die Übertragung von Bildern der zweiten Bilderfassungsvorrichtung 241 zu einer Anzeigevorrichtung ist möglich. In einer Ausführungsform kann das in der zweiten Bilderfassungsvorrichtung 241 angeordnete Display auch Bilder der von in einer ersten Bilderfassungsvorrichtung 201 erfassten Bilder anzeigen.
  • An der zweiten Bilderfassungsvorrichtung 241 ist ein viertes Referenzelement 243 angeordnet. Das vierte Referenzelement 243 ermöglicht die Bestimmung einer Position und Ausrichtung der zweiten Bilderfassungsvorrichtung 241 im Raum durch eine Lageerfassungseinheit 250.
  • Ist eine Position und Ausrichtung des vierten Referenzelementes 243 durch die Lageerfassungseinheit 250 ermittelt, kann die Steuerungseinheit 217 aus diesen Daten für das vierte Referenzelement 243 einen vierten Referenzpunkt berechnen. Zwischen dem zweiten Referenzpunkt, der durch das an einer Beleuchtungsvorrichtung 211 angeordnete zweite Referenzelement 213 ermittelt wurde, und dem vierten Referenzpunkt kann der Abstand und die Relativposition zwischen der zweiten Bilderfassungsvorrichtung 241 und der Beleuchtungsvorrichtung 211 berechnet werden.
  • Die Steuerungseinheit 217 kann aus diesen Daten zusammen mit den weiteren Daten, die durch die Lageerfassungseinheit 250 ermittelt werden, die Position und Ausrichtung der ersten Bildererfassungsvorrichtung 201, der Objektebene 221 in dem Gewebebereich, der zweiten Bilderfassungsvorrichtung 241 und der Beleuchtungsvorrichtung 211 berechnen. Abhängig von diesen Daten ist ein Aktuator 214 durch die Steuerungsvorrichtung 217 derart ansteuerbar, dass mindestens eine Eigenschaft der Beleuchtungsvorrichtung 211 abhängig von diesen Daten derart einstellbar ist, dass der Objektbereich mit der Objektebene 221 durch die Beleuchtungsvorrichtung 211 beleuchtet wird.
  • Der Aktuator 214 kann dazu eine Antriebseinheit umfassen, um die Steuersignale in eine mechanische Bewegung umzusetzen. Der Aktuator 214 kann die Position und/oder den Beleuchtungswinkel in einer, zwei oder drei Achsen einstellen und den Beleuchtungsstrahlengang 212 auf die Objektebene 221 und damit auf den Objektbereich einstellen.
  • In einer weiteren Ausführungsform kann eine optische oder elektrische Eigenschaft der Beleuchtungsvorrichtung 211 durch den Aktuator 214 eingestellt werden, beispielsweise die Beleuchtungsspotgröße, eine Zoomeinstellung, die Lichtintensität, der Beleuchtungsfokus oder der Wellenlängenbereich.
  • Der beleuchtete Objektbereich kann abhängig von den durch einen Beobachter einstellbaren Eigenschaften des Visualisierungssystems 200 der von der ersten Bilderfassungsvorrichtung 201 betrachtete Objektbereich und/oder der von der zweiten Bilderfassungsvorrichtung 201 betrachtete Objektbereich sein. Auch die Beleuchtung eines Teilbereiches, beispielsweise eine Schnittmenge, des von der ersten Bilderfassungsvorrichtung 201 betrachteten Objektbereiches und des von der zweiten Bilderfassungsvorrichtung 201 betrachtete Objektbereiches ist vorstellbar.
  • In einer Ausgestaltung kann zusätzlich ein drittes Referenzelement 223 an dem zu beobachtenden Objekt 120 angeordnet sein. Das dritte Referenzelement 223 ermöglicht die Bestimmung einer Position und Ausrichtung eines zu beobachtenden Objektes 220 im Raum.
  • Es ist auch vorstellbar, dass weitere, nicht dargestellte, Beobachter mit einer weiteren Bilderfassungsvorrichtung den Objektbereich mit der Objektebene 221 betrachten.
  • In einer alternativen Ausgestaltung können auch nur eine oder mehrere kopfgetragene Bilderfassungsvorrichtungen, beispielsweise HMD, eingesetzt werden, wobei auf die erste Bilderfassungsvorrichtung 201 verzichtet wird.
  • Die 3 zeigt ein drittes Visualisierungssystem mit einer Lageerfassungseinheit in einer schematischen Darstellung.
  • Ein drittes Visualisierungssystem 300 gemäß 3 weist die gleichen Komponenten auf wie das erste Visualisierungssystem 100 gemäß der 1, wobei die Bezugszeichen um 200 erhöht sind.
  • Die Beleuchtungsvorrichtung 300 zeigt eine Lageerfassungseinheit 350, die als Trackingeinheit ausgebildet ist. Die Trackingeinheit kann eine Position und Ausrichtung einer ersten Bildaufnahmevorrichtung 301, einer Beleuchtungsvorrichtung 311 und möglicher weiterer, in 3 nicht dargestellten Vorrichtungen und Objekte erfassen. Diese Objekte können weitere Bildaufnahmevorrichtungen, beispielsweise HMD, weitere Beleuchtungsvorrichtungen und/oder das zu untersuchende Objekt sein. Eine Trackingeinheit ist ausgebildet, jeweils die Position und Ausrichtung räumlich zu erfassen. Ein Trackingstrahl 351 ist schematisch dargestellt. Die Erfassung erfolgt zu verschiedenen Zeitpunkten oder scannend, so dass eine zeitliche Verfolgung von Änderungen möglich ist.
  • Die Trackingeinheit ermittelt für jedes Trackingelement oder jeden Referenzpunkt die relative Position, d. h. eine Translation in X-, X- und Z-Richtung, und die Ausrichtung, d. h. eine Rotation um X-, Y- und Z-Achse, bezogen auf ein orthogonales Koordinatensystem 332. Die Position und Ausrichtung kann beispielsweise auch relativ zu einem fixen, durch die Trackingeinheit vorgegebenen Referenzpunkt ermittelt werden. Das durch die Trackingeinheit verwendete Trackingverfahren kann dabei markerbehaftet oder markerlos sein. Ein Referenzelement kann beispielsweise einen Marker bilden. Das Trackingverfahren kann auf Basis von Weißlicht, sichtbarem Licht, oder Infrarotlicht arbeiten. Auch elektromagnetisches Tracking ist vorstellbar. Alternativ sind auch kamerabasierte Trackinglösungen möglich.
  • In einer alternativen Ausführung kann eine Lageerfassungseinheit durch eine Kamera 353 gebildet sein, die an der Bilderfassungsvorrichtung 301 angeordnet ist. Ein Beobachtungsbereich 352 der Kamera 353 ist schematisch dargestellt. Die von der Kamera 353 erfassten Bilder können in einer Steuerungseinheit 317 verarbeitet werden, beispielsweise um eine Position und Ausrichtung einer Beleuchtungsvorrichtung 311 ermitteln. Die Kamera kann alternativ auch an der Beleuchtungsvorrichtung 311 angeordnet sein. Es ist vorstellbar, dass auch weitere, nicht dargestellte, Kameras an dem dritten Visualisierungssystem 300 angeordnet sind. Eine Kamera 353 kann auch ausgebildet sein, weitere Vorrichtungen oder Objekte im Raum zu erfassen, so dass auch deren Position und Ausrichtung im Raum durch die Steuerungseinheit 317 ermittelbar ist. Eine Lageerfassung durch eine Kamera 353 kann auch mit einem der oben genannte Trackingsysteme kombiniert werden.
  • Bezugszeichenliste
  • 100
    Erstes Visualisierungssystem
    101, 201, 301
    Erste Bilderfassungsvorrichtung
    102, 202, 402
    Erster Beobachtungsstrahlengang
    103, 203, 303
    Erstes Referenzelement
    104, 204, 304
    Beobachtungseinheit
    105, 205, 305
    Erster Haltearm
    106, 206, 306
    Erste Verbindung
    110, 210, 310
    Beleuchtungseinheit
    111, 211, 311
    Beleuchtungsvorrichtung
    112,212,412
    Beleuchtungsstrahlengang
    113, 213, 313
    Zweites Referenzelement
    114, 214, 314
    Aktuator
    115, 215, 315
    Zweiter Haltearm
    116, 216, 316
    Zweite Verbindung
    117, 217, 317
    Steuerungseinheit
    118, 218
    Optische Achse des Beleuchtungsstrahlengangs
    119, 219
    Erste optische Achse der ersten Beobachtungsstrahlengangs
    120, 220
    Zu beobachtendes Objekt
    121, 221
    Objektebene
    122, 222
    Dritter Referenzpunkt
    123, 223
    Drittes Referenzelement
    130, 230, 330
    Erste relative Lage
    132, 232, 332
    Koordinatensystem
    150, 250, 350
    Lageerfassungseinheit
    156, 256, 356
    Dritte Verbindung
    200
    Zweites Visualisierungssystem
    231
    Zweite relative Lage
    240
    Beobachter
    241
    Zweite Bilderfassungsvorrichtung
    242
    Zweiter Beobachtungsstrahlengang
    243
    Viertes Referenzelement
    246
    Vierte Verbindung
    249
    Zweite optische Achse der zweiten Beobachtungsstrahlengangs
    300
    Drittes Visualisierungssystem
    351
    Trackingstrahl
    352
    Beobachtungsbereich
    353
    Kamera

Claims (11)

  1. Visualisierungssystem (100, 200, 300), umfassend eine Bilderfassungsvorrichtung (101, 201, 241, 301) zur Beobachtung eines Objektbereiches mit einer Objektebene (121, 221), eine Beleuchtungsvorrichtung (111, 211, 311), die von der Bilderfassungsvorrichtung (101, 201, 241, 301) mechanisch entkoppelt ist, mit einem Aktuator (114, 214, 314) zur Steuerung mindestens einer Eigenschaft der Beleuchtungsvorrichtung (111, 211, 311), eine Steuerungseinheit (117, 217, 317), die mit dem Aktuator (114, 214, 314) verbunden ist, eine Lageerfassungseinheit (150, 250, 350), die mit der Steuerungseinheit (117, 217, 317) verbunden ist, wobei die Lageerfassungseinheit (150, 250, 350) dazu ausgebildet ist, dass eine relative Lage (130, 230, 231) zwischen der Beleuchtungsvorrichtung (111, 211, 311) und der Bilderfassungsvorrichtung (101, 201, 241, 301) ermittelbar ist, wobei abhängig von der durch die Lageerfassungseinheit (150, 250, 350) ermittelten relative Lage (130, 250, 350) der Aktuator (114, 214, 314) durch die Steuerungseinheit (117, 217, 317) derart ansteuerbar ist, dass die mindestens eine Eigenschaft der Beleuchtungsvorrichtung (111, 211, 311) derart einstellbar ist, dass der Objektbereich mit der Objektebene (121, 221) durch die Beleuchtungsvorrichtung (111, 211, 311) beleuchtet ist.
  2. Vorrichtung nach Anspruch 1, wobei die Lageerfassungseinheit (150, 250, 350) dazu ausgebildet ist, dass eine relative Lage zwischen der Bilderfassungsvorrichtung (101, 201, 241, 301) und der Objektebene (121, 221) ermittelbar ist.
  3. Vorrichtung nach einem der vorherigen Ansprüche, wobei eine Eigenschaft der Beleuchtungsvorrichtung (111, 211, 311) die Ausrichtung der Beleuchtungsvorrichtung (111, 211, 311) auf die Objektebene (121, 221) des Objektbereiches.
  4. Vorrichtung nach einem der vorherigen Ansprüche, wobei eine Eigenschaft der Beleuchtungsvorrichtung (111, 211, 311) gebildet ist aus der Gruppe Beleuchtungsspotgröße, Intensität, Fokus, Zoom bezogen auf die Objektebene (121, 221).
  5. Vorrichtung nach einem der vorherigen Ansprüche, wobei der Aktuator (114, 214, 314) eine robotische Vorrichtung ist.
  6. Vorrichtung nach einem der vorherigen Ansprüche, wobei die relative Lage durch Auswertung der von der Bilderfassungsvorrichtung (101, 201, 241, 301) aufgenommen Bilddaten ermittelbar ist.
  7. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei die Lagererfassungseinheit (150, 250, 350) ein Trackingsystem umfasst.
  8. Vorrichtung nach Anspruch 7, wobei durch das Trackingsystem eine Position und Ausrichtung des Objektbereiches mit der Objektebene (121, 221) ermittelbar ist.
  9. Vorrichtung nach einem der vorherigen Ansprüche, wobei eine Lichtquelle der Beleuchtungsvorrichtung (111, 211, 311) abhängig von den durch die Lagererfassungseinheit (150, 250, 350) ermittelten Daten steuerbar ist.
  10. Vorrichtung nach einem der vorherigen Ansprüche, umfassend mindestens eine weitere Bilderfassungsvorrichtung.
  11. Vorrichtung nach einem der vorherigen Ansprüche, umfassend mindestens eine zusätzliche Beleuchtungsvorrichtung mit einem zusätzlichen Aktuator, der durch die Steuerungseinheit (117, 217, 317) ansteuerbar ist.
DE102017216852.8A 2017-09-22 2017-09-22 Visualisierungssystem mit einer Beleuchtungsvorrichtung Pending DE102017216852A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017216852.8A DE102017216852A1 (de) 2017-09-22 2017-09-22 Visualisierungssystem mit einer Beleuchtungsvorrichtung
US16/139,033 US10682186B2 (en) 2017-09-22 2018-09-22 Visualization system having an illumination apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017216852.8A DE102017216852A1 (de) 2017-09-22 2017-09-22 Visualisierungssystem mit einer Beleuchtungsvorrichtung

Publications (1)

Publication Number Publication Date
DE102017216852A1 true DE102017216852A1 (de) 2019-03-28

Family

ID=65638461

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017216852.8A Pending DE102017216852A1 (de) 2017-09-22 2017-09-22 Visualisierungssystem mit einer Beleuchtungsvorrichtung

Country Status (2)

Country Link
US (1) US10682186B2 (de)
DE (1) DE102017216852A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103885A1 (de) 2022-02-18 2023-08-24 B. Braun New Ventures GmbH Intelligentes Aufnahmesystem und Aufnahmeverfahren

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070265495A1 (en) * 2005-12-15 2007-11-15 Medivision, Inc. Method and apparatus for field of view tracking

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10040498A1 (de) 1999-09-07 2001-03-15 Zeiss Carl Fa Vorrichtung zur bildgestützten Bearbeitung eines Arbeitsobjekts

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070265495A1 (en) * 2005-12-15 2007-11-15 Medivision, Inc. Method and apparatus for field of view tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022103885A1 (de) 2022-02-18 2023-08-24 B. Braun New Ventures GmbH Intelligentes Aufnahmesystem und Aufnahmeverfahren

Also Published As

Publication number Publication date
US20190090958A1 (en) 2019-03-28
US10682186B2 (en) 2020-06-16

Similar Documents

Publication Publication Date Title
DE102018206406B3 (de) Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
EP1333306B1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE102019131646A1 (de) Stativ für eine optische Beobachtungseinheit, optisches Beobachtungsgerät, Verfahren zum Kalibrieren eines optischen Beobachtungsgeräts sowie Computerprogramm
DE102013006994A1 (de) Digitalmikroskop und Verfahren zur Optimierung des Arbeitsablaufes in einem Digitalmikroskop
DE102015103426B4 (de) Mikroskopsystem und Verfahren zum automatisierten Ausrichten eines Mikroskops
DE10300925A1 (de) Stereo-Untersuchungssysteme und Stereo-Bilderzeugungsvorrichtung sowie Verfahren zum Betrieb einer solchen
DE102014114013B4 (de) Medizinisch optisches Beobachtungsgerät und Verfahren zur Kontrastierung von polarisationsdrehendem Gewebe
DE10027204B4 (de) Stereoskopmikroskop
DE102017108371B4 (de) Medizinisch-optisches Darstellungssystem und Verfahren zum Betreiben desselben
DE102014103044A1 (de) Chirurgisches Assistenzsystem
WO2018127509A1 (de) Verfahren zur erzeugung eines dreidimensionalen modells einer probe in einem digitalen mikroskop und digitales mikroskop
EP2950130A1 (de) Mikroskop-system mit tiefenvorschau
DE102018106651A1 (de) Visualisierungssystem und Verfahren zum Erzeugen von holographischen Darstellungen aus optischen Signalen
DE102017110816A1 (de) Optisches Beobachtungsgerät und Verfahren zum effizienten Ausführen eines automatischen Fokussieralgorithmus
DE10323091A1 (de) OP-Feldbeleuchtungsvorrichtung
DE102017216852A1 (de) Visualisierungssystem mit einer Beleuchtungsvorrichtung
KR101654589B1 (ko) 초점 및 물체 거리 자동 변환 기능을 구비한 3차원 입체 영상 기반의 의료 현미경 시스템
DE102014107445B4 (de) Optisches Beobachtungsgerät und Verfahren zum Aufnehmen von Bild- oder Videodaten von einem Beobachtungsobjekt mit Hilfe eines optischen Beobachtungsgerätes
DE102018123781B4 (de) Verfahren zum Durchführen einer Shading-Korrektur und optisches Beobachtungsgerätesystem
DE102018206405B3 (de) Mikroskopiesystem sowie Verfahren zum Betrieb eines Mikroskopiesystems
DE102018110795A1 (de) Mikroskop mit Smartdevice
US11036040B2 (en) Digital microscope and digital microscopy method
DE202020000635U1 (de) Binokularer Digitaltubus für ein Mikroskop
DE102022200821B3 (de) Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung
DE102018110800A1 (de) Mikroskop mit Smartdevice und Verfahren zum Streamen und/oder Aufzeichnen von mit einem Mikroskop gewonnenen Bildern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication