DE102016117263B4 - Optical observation device system - Google Patents

Optical observation device system Download PDF

Info

Publication number
DE102016117263B4
DE102016117263B4 DE102016117263.4A DE102016117263A DE102016117263B4 DE 102016117263 B4 DE102016117263 B4 DE 102016117263B4 DE 102016117263 A DE102016117263 A DE 102016117263A DE 102016117263 B4 DE102016117263 B4 DE 102016117263B4
Authority
DE
Germany
Prior art keywords
depth
image data
data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016117263.4A
Other languages
German (de)
Other versions
DE102016117263A1 (en
Inventor
Roland Guckler
Stefan Saur
Gerald Panitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Priority to DE102016117263.4A priority Critical patent/DE102016117263B4/en
Publication of DE102016117263A1 publication Critical patent/DE102016117263A1/en
Application granted granted Critical
Publication of DE102016117263B4 publication Critical patent/DE102016117263B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

Optisches Beobachtungsgerätsystem (68), mit:- einem optischen Beobachtungsgerät (2) zum Erzeugen eines Bildes eines Beobachtungsbereiches (1) mit einem interessierenden Objekt (6) und von das Bild repräsentierenden Bilddaten;- eine Schnittstellenanordnung (63) mit einem Datenausgang (63A) zum Ausgeben der Bilddaten an eine Registrierungseinheit (61), welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren, einem Dateneingang (63B) zum Empfang der Tiefenbilddaten des interessierenden Objekts (6), zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit (60) sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit (61);- eine Auswertungseinheit (62), die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche (12) des Beobachtungsbereiches (1) zu ermitteln und die ermittelten Abstände auszugeben,- einer mit der Auswertungseinheit (62) zum Empfang der Abstände verbundene Visualisierungseinheit (64), wobei die Visualisierungseinheit (64) dazu ausgebildet ist, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind, und das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit (37, 65, 67) auszugeben.Optical observation device system (68), with:- an optical observation device (2) for generating an image of an observation area (1) with an object of interest (6) and image data representing the image;- an interface arrangement (63) with a data output (63A) for outputting the image data to a registration unit (61), which generates registration data representing a registration of depth image data with the image data, a data input (63B) for receiving the depth image data of the object of interest (6), for receiving topography data associated with the image data from a topography detection unit (60) and for receiving the registration data from the registration unit (61);- an evaluation unit (62) which is designed to use the topography data, the depth image data and the registration data to determine the distances of the depth regions of the object of interest (6) recorded by the depth image data from the surface (12) of the observation area (1) and to output the determined distances,- a data input (63B) connected to the evaluation unit (62) a visualization unit (64) connected to receive the distances, wherein the visualization unit (64) is designed to generate a visualization image in which the received distances are shown and to output the visualization image for display on a display unit (37, 65, 67).

Description

Die vorliegende Erfindung betrifft ein Optisches Beobachtungsgerätsystem, beispielsweise ein Operationsmikroskop-System, und insbesondere ein Operationsmikroskop-System für neurochirurgische Anwendungen. Die Erfindung betrifft weiterhin ein Darstellungsverfahren zum Darstellen von Tiefeninformationen, beispielsweise in einem Operationsmikroskop, insbesondere in einem Operationsmikroskop für neurochirurgische Anwendungen.The present invention relates to an optical observation device system, for example a surgical microscope system, and in particular to a surgical microscope system for neurosurgical applications. The invention further relates to a display method for displaying depth information, for example in a surgical microscope, in particular in a surgical microscope for neurosurgical applications.

Eine Tumorresektion mittels Operationsmikroskop stellt eine generelle Herausforderung in der Chirurgie dar. Insbesondere bei der Resektion in funktionalen Gebieten muss die exakte dreidimensionale Morphologie des Tumors für den Chirurgen bekannt sein, um eine möglichst exakte Schnittgrenze zwischen funktionalem Gewebe und malignem Gewebe während einer Intervention wählen zu können.Tumor resection using a surgical microscope represents a general challenge in surgery. Especially when resectioning in functional areas, the surgeon must know the exact three-dimensional morphology of the tumor in order to be able to choose the most precise cutting boundary between functional tissue and malignant tissue during an intervention.

Mit aktuell verfügbaren Navigationslösungen wird der Tumorrand, welcher basierend auf prä-operativen Daten berechnet wird, beispielsweise aus MRI-Untersuchungen, nur für die aktuelle Fokusebene bzw. Fokusschicht bzw. einzelne benachbarte Schichten durch das Okular im Operationsmikroskop angezeigt.With currently available navigation solutions, the tumor margin, which is calculated based on pre-operative data, for example from MRI examinations, is only displayed for the current focal plane or focal layer or individual adjacent layers through the eyepiece in the surgical microscope.

Für eine bessere Darstellung und Erkennung der dreidimensionalen Tumormorphologie muss der Chirurg eine entsprechende Morphologie entweder aus dem Gedächtnis abrufen oder er muss während der Intervention seinen gewohnten Blick durch das Okular des Operationsmikroskops aufgeben, um eine externe Visualisierungseinheit zu betrachten. Sowohl die vorab gelernte Morphologie als auch der kurzzeitige Blick an eine externe Visualisierungseinheit stellen Risiken für den Patienten dar, da der Operationsfluss unterbrochen wird.For a better representation and recognition of the three-dimensional tumor morphology, the surgeon must either recall the corresponding morphology from memory or give up his usual view through the eyepiece of the surgical microscope during the intervention in order to look at an external visualization unit. Both the previously learned morphology and the brief look at an external visualization unit pose risks for the patient because the flow of the operation is interrupted.

Aus US 2001/0027272 A1 ist eine Navigationsvorrichtung zum Navigieren der Spitze eines Endoskops in Richtung auf ein Zielobjekt bekannt. Hierbei kann auf einem Monitorbild das Zielobjekt mit navigationsbezogenen Informationen markiert werden, wobei die navigationsbezogenen Informationen in Form eines Drahtmodels einem auf einem Display dargestellten Bild des Operationsbereichs überlagert werden. Wenn das Endoskop seinen Zielort erreicht, kann das Drahtmodell durch ein topographisches Abbild auf der Basis der dreidimensionalen Daten ersetzt werden. Statt des Drahtmodels können jedoch auch Konturlinien oder dergleichen Verwendung finden.Out of US 2001/0027272 A1 A navigation device for navigating the tip of an endoscope towards a target object is known. The target object can be marked with navigation-related information on a monitor image, with the navigation-related information in the form of a wire model being superimposed on an image of the operating area shown on a display. When the endoscope reaches its target location, the wire model can be replaced by a topographical image based on the three-dimensional data. However, contour lines or the like can also be used instead of the wire model.

Aus WO 03/105709 A1 ist ein Navigationssystem bekannt, welches die Möglichkeit bietet, präoperative diagnostische Daten dem optischen Bild eines Operationsmikroskops zu überlagern.Out of WO 03/105709 A1 A navigation system is known which offers the possibility of superimposing preoperative diagnostic data on the optical image of a surgical microscope.

Aus WO 95/25979 A1 ist ein Operationsmikroskop bekannt, mit dem registrierte Bilddaten einem Operationsfeldbild überlagert werden können. Dabei soll es möglich sein, eine Ebene, beispielsweise die Fokusebene, auszuwählen und die Bilddaten innerhalb dieser Ebene und auf der anderen Seite dieser Ebene zu visualisieren.Out of WO95/25979 A1 A surgical microscope is known with which registered image data can be superimposed on an image of the surgical field. It should be possible to select a plane, for example the focal plane, and to visualize the image data within this plane and on the other side of this plane.

Aus DE 10 2005 050 918 A1 ist eine Vorrichtung zur Überwachung mikrochirurgischer Eingriffe mit einem Operationsmikroskop bekannt. Mittels einer Bilddarstellungseinheit werden 3D-Bilddaten und das mit dem Operationsmikroskop gewonnene Bild vollständig oder in Teilen nebeneinander oder einander lagerichtig überlagert visualisiert.Out of EN 10 2005 050 918 A1 A device for monitoring microsurgical interventions using a surgical microscope is known. Using an image display unit, 3D image data and the image obtained with the surgical microscope are visualized in full or in part next to each other or superimposed on each other in the correct position.

Aus DE 10 2011 085 176 A1 ist ein Verfahren zum Erzeugen eines Angiogramms zu Gefäßen bekannt, in dem ein 3D-Bilddatensatz zu den Gefäßen ermittelt wird, mittels einer Kamera ein 2D-Bilddatensatz ermittelt wird und der 3D-Bilddatensatz dem 2D-Bilddatensatz lage- und dimensionsrichtig überlagert wird.Out of EN 10 2011 085 176 A1 A method for generating an angiogram of vessels is known in which a 3D image data set of the vessels is determined, a 2D image data set is determined by means of a camera and the 3D image data set is superimposed on the 2D image data set in the correct position and dimensions.

Die DE 10 2014 107 443 A1 beschreibt ein Mikroskop-System mit Tiefenvorschau.The EN 10 2014 107 443 A1 describes a microscope system with depth preview.

Die DE 10 2012 220 115 A1 und die DE 10 2006 017 003 A1 thematisieren das Darstellen von Tiefendaten.The EN 10 2012 220 115 A1 and the EN 10 2006 017 003 A1 address the representation of depth data.

Die beschreibt DE 2014 210 121 A1 beschreibt einen 3D-Sensor zum Erfassen von TopographiedatenThis describes DE 2014 210 121 A1 describes a 3D sensor for collecting topography data

Es ist Aufgabe der vorliegenden Erfindung ein vorteilhaftes optisches Beobachtungsgerätsystem und ein vorteilhaftes Darstellungsverfahren zum Darstellen von Tiefeninformationen zur Verfügung zu stellen.It is an object of the present invention to provide an advantageous optical observation device system and an advantageous display method for displaying depth information.

Die oben genannte Aufgabe der vorliegenden Erfindung wird durch ein optisches Beobachtungsgerätsystem nach Patentanspruch 1 und durch ein Darstellungsverfahren nach Patentanspruch 13 gelöst. Die abhängigen Ansprüche enthalten weitere, vorteilhafte Ausgestaltungen der Erfindung.The above-mentioned object of the present invention is achieved by an optical observation device system according to claim 1 and by a display method according to claim 13. The dependent claims contain further advantageous embodiments of the invention.

Ein erfindungsgemäßes optisches Beobachtungsgerätsystem umfasst:

  • - Ein optisches Beobachtungsgerät zum Erzeugen eines Bildes eines Beobachtungsbereiches mit einem interessierenden Objekt und von das Bild repräsentierenden Bilddaten.
  • - Eine Schnittstellenanordnung mit einem Datenausgang zum Ausgeben der Bilddaten an eine Registrierungseinheit, welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren.
An optical observation device system according to the invention comprises:
  • - An optical observation device for producing an image of an observation area including an object of interest and image data representing the image.
  • - An interface arrangement with a data output for outputting the image data to a registration unit which generates registration data representing a registration of depth image data with the image data.

Als Tiefenbilddaten kommen bspw. mittels Magnetresonanztomografie (MRT), Computertomografie (CT), Positronen-Emissions-Tomografie (PET) oder anderer Tomografieverfahren gewonnene 3D-Bilder des interessierenden Objekts oder aus solchen 3D-Bildern für das interessierende Objekt gewonnene Tiefendaten in Betracht.Depth image data can be, for example, 3D images of the object of interest obtained using magnetic resonance imaging (MRI), computed tomography (CT), positron emission tomography (PET) or other tomography methods, or depth data obtained from such 3D images for the object of interest.

Die Registrierungseinheit kann Teil des optischen Beobachtungsgerätesystems sein, oder sie kann eine externe Registrierungseinheit sein, bspw. als Teil eines externen Navigationssystems. Sie ist zum Empfang des mit dem optischen Beobachtungsgerät erzeugten Bildes mit dem Datenausgang verbunden und dazu ausgebildet, die Tiefenbilddaten und das mit dem optischen Beobachtungsgerät erzeugte Bild miteinander zu registrieren und entsprechende Registrierungsdaten auszugeben. Im Rahmen einer Bildregistrierung wird eines der zu registrierenden Bilder als Referenzbild herangezogen und das andere Bild mittels einer Transformation in seiner Position und Orientierung (rigide Transformation) und/oder in seiner Skalierung (nicht-rigide Transformation) derart an das Referenzbild angepasst, dass eine bestmögliche Übereinstimmung der Bildinhalte erreicht wird. Auch wenn Bewegungen des interessierenden Objekts oder innerhalb des interessierenden Objekts vorkommen können (wie beispielsweise der sog. Brainshift, falls es sich bei dem interessierenden Objekt um einen Gehirnabschnitt handelt) ist es vorteilhaft, die Registrierung anhand einer nicht-rigiden Transformation vorzunehmen. Beispielsweise können für die Berücksichtigung des Brainshifts Markierungselemente (sog. Fiducial Markers) auf den betreffenden Gehirnabschnitt aufgebracht werden, die sowohl in den Tiefenbilddaten als auch in den Bilddaten abgebildet sind. Im Rahmen einer nicht rigiden Registrierung können die in den Tiefenbilddaten abgebildeten Markierungselemente dann mit den in den Bilddaten abgebildeten Markierungselementen zur Deckung gebracht werden.The registration unit can be part of the optical observation device system, or it can be an external registration unit, e.g. as part of an external navigation system. It is connected to the data output to receive the image generated with the optical observation device and is designed to register the depth image data and the image generated with the optical observation device with each other and to output corresponding registration data. As part of an image registration, one of the images to be registered is used as a reference image and the other image is adapted to the reference image by means of a transformation in its position and orientation (rigid transformation) and/or in its scaling (non-rigid transformation) in such a way that the best possible match of the image contents is achieved. Even if movements of the object of interest or within the object of interest can occur (such as the so-called brain shift if the object of interest is a section of the brain), it is advantageous to carry out the registration using a non-rigid transformation. For example, to take the brain shift into account, marker elements (so-called fiducial markers) can be applied to the relevant brain section, which are shown in both the depth image data and the image data. As part of a non-rigid registration, the marker elements shown in the depth image data can then be made to coincide with the marker elements shown in the image data.

Außerdem umfasst die Schnittstellenanordnung einen Dateneingang zum Empfang der Tiefenbilddaten des interessierenden Objekts, zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit. Der Dateneingang kann dabei durch einen einzigen, zum Empfang all der genannten Daten genutzten Dateneingang realisiert sein oder durch getrennte Dateneingänge, wobei jeder Dateneingang nur bestimmte der genannten Daten empfängt.In addition, the interface arrangement comprises a data input for receiving the depth image data of the object of interest, for receiving topography data associated with the image data from a topography detection unit and for receiving the registration data from the registration unit. The data input can be implemented by a single data input used to receive all of the aforementioned data or by separate data inputs, with each data input only receiving certain of the aforementioned data.

Die Topografie-Erfassungseinheit kann Teil des optischen Beobachtungsgerätesystems sein oder als ein externes Gerät ausgeführt sein. Sie kann bspw. einen stereoskopischen Sensor und/oder einen Laserscanner und/oder einen Sensor zur Laufzeitmessung von Lichtpulsen, etwa eine Time-of-Flight-Kamera (TOF-Kamera), und/oder eine Vorrichtung zur strukturierten Beleuchtung umfassen. Wenn die Topografie-Erfassungseinheit Teil des optischen Beobachtungsgerätesystems ist, kann der stereoskopische Sensor zum Beispiel zwei in das optische Beobachtungsgerät integrierte Kameras umfassen. Die Topografie-Erfassungseinheit kann aber auch auf einem der folgenden Topografieverfahren beruhen: DFD (depth from defocus), in dem aus dem Grad der Defokussierung auf den Abstand von der Fokusebene geschlossen wird, SFM (structure from motion), SLAM (simultaneous localization and mapping).The topography detection unit can be part of the optical observation device system or be designed as an external device. It can, for example, comprise a stereoscopic sensor and/or a laser scanner and/or a sensor for measuring the time of flight of light pulses, such as a time-of-flight camera (TOF camera), and/or a device for structured illumination. If the topography detection unit is part of the optical observation device system, the stereoscopic sensor can, for example, comprise two cameras integrated into the optical observation device. The topography detection unit can, however, also be based on one of the following topography methods: DFD (depth from defocus), in which the distance from the focal plane is determined from the degree of defocus, SFM (structure from motion), SLAM (simultaneous localization and mapping).

Außerdem umfasst ein erfindungsgemäßes optisches Beobachtungsgerätsystem:

  • - Eine Auswertungseinheit, die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches zu ermitteln und die ermittelten Abstände auszugeben. Es werden somit relative Abstände ermittelt und ausgegeben. Die Auswertungseinheit kann eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung (ASIC, Application Specific Integrated Circuit), oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft.
  • - Eine mit der Auswertungseinheit zum Empfang der Abstände verbundene Visualisierungseinheit. Die Visualisierungseinheit ist dazu ausgebildet, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind. Außerdem ist die Visualisierungseinheit dazu ausgebildet, das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit auszugeben. Die Anzeigeeinheit kann dabei Teil des optischen Beobachtungsgerätesystems oder eine externe Anzeigeeinheit sein.
In addition, an optical observation device system according to the invention comprises:
  • - An evaluation unit which is designed to use the topography data, the depth image data and the registration data to determine the distances of the depth areas of the object of interest recorded by the depth image data from the surface of the observation area and to output the determined distances. Relative distances are thus determined and output. The evaluation unit can be a unit specially designed for the described purpose, for example in the form of an application-specific integrated circuit (ASIC), or in the form of software which runs on a processor of the optical observation device system or on a computer, for example on a commercially available PC.
  • - A visualization unit connected to the evaluation unit for receiving the distances. The visualization unit is designed to generate a visualization image in which the received distances are shown. In addition, the visualization unit is designed to output the visualization image for display on a display unit. The display unit can be part of the optical observation device system or an external display unit.

Die Visualisierungseinheit kann wie die Auswertungseinheit eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft. Insbesondere können die Software für die Auswertungseinheit und die Software für die Visualisierungseinheit auf demselben Prozessor oder Computer laufen. Grundsätzlich kann die Visualisierung der Abstände sowohl als transparente als auch als opake Überlagerung erfolgen. Die Abstände können auch lediglich lokal begrenzt angezeigt werden, um das Sichtfeld der untersuchenden Person, beispielsweise eines Operateurs, nicht unnötig zu beschränken.The visualization unit, like the evaluation unit, can be a unit specially designed for the described purpose, e.g. in the form of an application-specific integrated circuit or in the form of software that runs on a processor of the optical observation device system or on a computer, e.g. on a standard PC. In particular, the software for the evaluation unit and the software for the visualization unit can run on the same processor or computer. In principle, the visualization of the distances can be done either as a transparent or as an opaque overlay. The distances can also be displayed only locally so as not to unnecessarily restrict the field of view of the person examining, e.g. an operator.

Das Anzeigen des Visualisierungsbildes kann bspw. im Einblick des optischen Beobachtungsgerätes erfolgen. Falls der Einblick von wenigstens einem Okular gebildet wird, kann die Anzeigeeinheit wenigstens ein im optischen Beobachtungsgerät angeordnetes Display, mit dem ein Überlagerungsbild in den optischen Strahlengang des optischen Beobachtungsgerätes eingeblendet werden kann, umfassen. Das Visualisierungsbild braucht dann nur die Abstände darzustellen und als Überlagerungsbild in den Strahlengang eingeblendet zu werden. Im Okular sind dem Bild des Beobachtungsobjekts dann die Abstände überlagert. Wenn die Darstellung in einem elektronischen Einblick des optischen Beobachtungsgeräts oder auf einem externen Display erfolgen soll, kann die Visualisierungseinheit zum Empfang der das Bild des Beobachtungsbereiches repräsentierenden Bilddaten auch mit dem optischen Beobachtungsgerät verbunden sein. Außerdem kann sie dann dazu ausgelegt sein, ein Visualisierungsbild zu generieren, in dem sowohl das empfangene Bild des Beobachtungsbereiches als auch die empfangenen Abstände dargestellt sind. Mit anderen Worten, es kann eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände erfolgen. Das auf diese Weise sowohl die Bilddaten als auch die Abstände darstellende Visualisierungsbild kann dann in einem elektronischen Einblick oder in einem externen Display des optischen Beobachtungsgerätes, etwa einem Head Mounted Display (HMD), als Anzeigeeinheit dargestellt werden.The visualization image can be displayed, for example, in the view of the optical observation device. If the view is formed by at least one eyepiece, the display unit can comprise at least one display arranged in the optical observation device, with which an overlay image can be displayed in the optical beam path of the optical observation device. The visualization image then only needs to show the distances and be displayed as an overlay image in the beam path. The distances are then superimposed on the image of the object being observed in the eyepiece. If the display is to take place in an electronic view of the optical observation device or on an external display, the visualization unit can also be connected to the optical observation device to receive the image data representing the image of the observation area. In addition, it can then be designed to generate a visualization image in which both the received image of the observation area and the received distances are displayed. In other words, an electronic overlay of the image data and the received distances can take place. The visualization image, which represents both the image data and the distances in this way, can then be displayed as a display unit in an electronic viewfinder or in an external display of the optical observation device, such as a head-mounted display (HMD).

Bei dem optischen Beobachtungsgerät kann es sich bspw. um ein Operationsmikroskop oder ein Endoskop handeln, bei dem Beobachtungsbereich dann beispielsweise um Gewebe, insbesondere Gewebe mit einem Tumor als interessierendem Objekt. Die Registrierungseinheit dient dann dazu, bspw. präoperativ (etwa mittels CT oder MRT) von dem Tumor gewonnene Tiefenbilddaten und das mit dem Operationsmikroskop oder Endoskop erzeugte Bild miteinander zu registrieren und so die Tiefenbilddaten des Tumors auf den aktuellen Beobachtungsbereich bzw. die aktuelle Operationsszene zu registrieren. The optical observation device can be, for example, a surgical microscope or an endoscope, and the observation area can then be tissue, in particular tissue with a tumor as the object of interest. The registration unit is then used to register, for example, depth image data obtained from the tumor preoperatively (e.g. using CT or MRI) and the image created with the surgical microscope or endoscope, and thus to register the depth image data of the tumor to the current observation area or the current surgical scene.

Das oben in Zusammenhang mit Tumorresektion beschriebene Problem der unzureichenden Visualisierungsmöglichkeit eines Tumors während eines operativen Eingriffs kann mit Hilfe des mit einem Operationsmikroskop oder einem Endoskop als optischem Beobachtungsgerät ausgestatteten erfindungsgemäßen optisches Beobachtungsgerätsystems durch eine Darstellung der Abstände im Visualisierungsbild gelöst werden. So kann die gesamte Morphologie des Tumors beispielsweise in Form von Tiefenlinien (insbesondere Iso-Tiefenlinien, sog. Isobathen) dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren und damit einen relativen Abstand zur Oberfläche. Die Visualisierungseinheit ist dann dazu ausgelegt, die empfangenen Abstände im Visualisierungsbild als Tiefenlinien darzustellen, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Die Tiefenlinien können dann bspw. direkt in das optische Beobachtungsgerät, etwa in das Okular eines Operationsmikroskops, eingeblendet werden, wobei die Linien durchgezogen, gestrichelt, punktiert oder in einer beliebigen Kombination davon dargestellt werden können. Zusätzlich oder alternativ kann die Visualisierungseinheit dazu ausgelegt sein, bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich und/oder in verschiedenen Graustufen zu markieren. So können bspw. zur besseren Unterscheidung einzelne charakteristische Tiefenbereiche farblich oder durch unterschiedliche Graustufen codiert werden.The problem of the inadequate visualization of a tumor during a surgical procedure described above in connection with tumor resection can be solved with the aid of the optical observation device system according to the invention equipped with a surgical microscope or an endoscope as an optical observation device by displaying the distances in the visualization image. The entire morphology of the tumor can thus be displayed, for example, in the form of depth lines (in particular iso-depth lines, so-called isobaths), each of which represents a specific depth below the surface of the observation area and thus a relative distance to the surface. The visualization unit is then designed to display the received distances in the visualization image as depth lines, each of which represents a specific depth below the surface of the observation area. The depth lines can then be displayed directly in the optical observation device, for example in the eyepiece of a surgical microscope, whereby the lines can be displayed as solid, dashed, dotted or in any combination thereof. Additionally or alternatively, the visualization unit can be designed to mark certain depth ranges below the surface of the observation area in color and/or in different shades of gray. For example, individual characteristic depth ranges can be coded in color or with different shades of gray for better differentiation.

Bei Verwendung der Erfindung muss der Chirurg seinen gewohnten Blick durch das Okular des Operationsmikroskops nicht aufgeben, um die Tiefen des Tumors unter der Gewebeoberfläche zu erfahren. Er muss sich auch nicht auf eine vorab gelernte Morphologie verlassen. Dies verbessert den Operationsfluss und reduziert die oben Risiken für den Patienten. Denkbar ist auch jegliche Form einer Überblendung von Tiefenlinien bzw. opaker Darstellung mit der aktuellen Operationsszene bzw. dem Beobachtungsbereich um ein realistisches „Look-and-Feel“ zu ermöglichen. Vorteilhafterweise können für sichtbare bzw. für nicht sichtbare Bereiche des Beobachtungsbereiches unterschiedliche Visualisierungsparameter gewählt werden.When using the invention, the surgeon does not have to give up his usual view through the eyepiece of the surgical microscope in order to experience the depths of the tumor beneath the tissue surface. He also does not have to rely on a previously learned morphology. This improves the flow of the operation and reduces the above-mentioned risks for the patient. Any form of blending of depth lines or opaque representation with the current surgical scene or the observation area is also conceivable in order to enable a realistic "look and feel". Advantageously, different visualization parameters can be selected for visible and non-visible areas of the observation area.

Insgesamt hat das erfindungsgemäße optisches Beobachtungsgerätsystem den Vorteil, dass es eine verbesserte Darstellung der Gesamtmorphologie eines Beobachtungsobjektes innerhalb eines Beobachtungsbereichs, beispielsweise eine verbesserte Darstellung der Gesamtmorphologie von malignem Gewebe innerhalb einer Operationsszene, ermöglicht.Overall, the optical observation device system according to the invention has the advantage that it enables an improved representation of the overall morphology of an observation object within an observation area, for example an improved representation of the overall morphology of malignant tissue within a surgical scene.

Erfindungsgemäß wird außerdem Darstellungsverfahren zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt in einem mit einem optischen Beobachtungsgerät beobachteten Beobachtungsbereich, bspw. eines Gewebebereiches mit einem Tumor als interessierendem Objekt, zur Verfügung gestellt, in dem

  • - mittels des optischen Beobachtungsgeräts, das bspw. ein Operationsmikroskop oder ein Endoskop sein kann, ein Bildes des Beobachtungsbereiches und das Bild repräsentierenden Bilddaten erzeugt werden,
  • - mittels einer Topografie-Erfassungseinheit aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches erfasst werden,
  • - mittels einer Registrierungseinheit, die zur rigiden oder nicht rigiden Registrierung ausgelegt sein kann, die Bilddaten und von der Registrierungseinheit empfangene Tiefenbilddaten des interessierenden Objekts miteinander registriert werden und entsprechende Registrierungsdaten generiert werden,
  • - mittels einer Auswertungseinheit anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches ermittelt werden,
  • - mittels einer Visualisierungseinheit ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und
  • - das Visualisierungsbild mittels einer Anzeigeeinheit angezeigt wird.
According to the invention, a display method for displaying depth information to an object of interest in an observation area observed with an optical observation device, e.g. a tissue area with a tumor as the object of interest, in which
  • - an image of the observation area and image data representing the image are generated by means of the optical observation device, which can be, for example, a surgical microscope or an endoscope,
  • - using a topography acquisition unit, current topography data of the observation area associated with the image data are recorded,
  • - by means of a registration unit, which can be designed for rigid or non-rigid registration, the image data and depth image data of the object of interest received by the registration unit are registered with each other and corresponding registration data are generated,
  • - using an evaluation unit based on the topography data, the depth image data and the registration data, the distances of the depth areas of the object of interest recorded by the depth image data from the surface of the observation area are determined,
  • - a visualization image is generated by means of a visualization unit in which the received distances are shown, and
  • - the visualization image is displayed by means of a display unit.

Die empfangenen Abstände können im Visualisierungsbild als bspw. als Tiefenlinien dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Außerdem können bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich markiert werden. Bspw. können solche Bereiche, die zwischen zwei benachbarten Tiefenlinien liegen, eingefärbt werden.The received distances can be shown in the visualization image as depth lines, for example, each of which represents a certain depth below the surface of the observation area. In addition, certain depth ranges below the surface of the observation area can be marked in color. For example, areas that lie between two neighboring depth lines can be colored.

Das Visualisierungsbild kann bspw. mittels wenigstens eines Displays in den Strahlengang des optischen Beobachtungsgerätes eingeblendet werden, so dass im Okular dem Bild des Beobachtungsbereiches die Abstandsinformationen über die Abstände verschiedener Bereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches überlagert sind. Die Visualisierung im Okular des Operationsmikroskops kann zum Beispiel als perspektivisch korrekte Überlagerung oder als Bild im Bild (PiP - Picture in Picture) am Rande des Sichtfeldes, um das Verdecken von relevanten Bildinformationen zu minimieren, erfolgen. Die Visualisierungseinheit kann aber auch ein Visualisierungsbild generieren, in dem sowohl das Bild des Beobachtungsbereiches als auch die Abstände dargestellt sind, so dass eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände in einem elektronischen Einblick des optischen Beobachtungsgerätes oder einem externen Display, bspw. einem HMD, dargestellt werden können.The visualization image can, for example, be displayed in the beam path of the optical observation device using at least one display, so that the distance information about the distances of different areas of the object of interest from the surface of the observation area is superimposed on the image of the observation area in the eyepiece. The visualization in the eyepiece of the surgical microscope can, for example, be carried out as a perspective-correct overlay or as a picture in a picture (PiP - Picture in Picture) at the edge of the field of view in order to minimize the covering of relevant image information. The visualization unit can also generate a visualization image in which both the image of the observation area and the distances are shown, so that an electronic overlay of the image data and the received distances can be shown in an electronic view of the optical observation device or an external display, e.g. an HMD.

In dem Darstellungsverfahren können die Tiefenbilddaten bspw. mittels eines Tomografieverfahrens gewonnen werden. Außerdem können die Tiefenbilddaten vor der Durchführung des Darstellungsverfahrens gewonnen werden. Falls das Darstellungsverfahren im Rahmen einer Operation zum Einsatz kommt können die Tiefenbilddaten also bspw. mittels des Tomografieverfahrens präoperativ gewonnen werden.In the display process, the depth image data can be obtained using a tomography process, for example. The depth image data can also be obtained before the display process is carried out. If the display process is used as part of an operation, the depth image data can be obtained preoperatively using the tomography process, for example.

Zum Registrieren der Bilddaten mit den Tiefenbilddaten kann im Rahmen des Darstellungsverfahren entweder eine eigens zur Durchführung des Verfahrens zur Verfügung gestellte Registrierungseinheit Verwendung finden oder eine externe Registrierungseinheit wie bspw. eine Registrierungseinheit eines Navigationssystems.To register the image data with the depth image data, either a registration unit provided specifically for carrying out the process or an external registration unit such as a registration unit of a navigation system can be used within the scope of the display process.

Das erfindungsgemäße Darstellungsverfahren kann mit Hilfe des zuvor beschriebenen erfindungsgemäßen optischen Beobachtungsgerätsystems durchgeführt werden. Es hat somit grundsätzlich die Vorteile wie das zuvor beschriebene erfindungsgemäße optische Beobachtungsgerätsystem. Durch die Miteinbeziehung aktueller Topografieinformationen können die Tiefeninformationen sowie deren Visualisierung den aktuellen Gegebenheiten angepasst werden. Außerdem können, falls das optische Beobachtungsgerät ein Operationsmikroskop oder ein Endoskop und der Beobachtungsbereich mit dem interessierenden Objekt ein Gewebebereich mit einem Tumor ist, intraoperative Bilddaten dazu verwendet werden, eine mögliche geographische Abweichung von prä- und intraoperativen Daten für die Visualisierung der Tiefeninformationen zu kompensieren. Dazu können verschiedene Bildverarbeitungsalgorithmen und/oder verschiedene Beleuchtungsmodi und/oder Marker, z.B. Kontrastmittel, zum Einsatz kommen.The display method according to the invention can be carried out using the optical observation device system according to the invention described above. It therefore basically has the same advantages as the optical observation device system according to the invention described above. By including current topography information, the depth information and its visualization can be adapted to the current conditions. In addition, if the optical observation device is a surgical microscope or an endoscope and the observation area with the object of interest is a tissue area with a tumor, intraoperative image data can be used to compensate for a possible geographical deviation from pre- and intraoperative data for the visualization of the depth information. Various image processing algorithms and/or different lighting modes and/or markers, e.g. contrast agents, can be used for this purpose.

Grundsätzlich können die Tiefenbilddaten mit Hilfe eines Navigationsgerätes gewonnen werden. Konkret können die Tiefeninformationen mittels MRI (Magnetresonanztomografie), CT (Computertomografie) oder Ähnlichem erfasst werden. Das Navigationsgerät kann die Daten segmentieren, also beispielsweise in einem Gewebebereich Knochen oder Tumorgewebe zuordnen, und kann sie entweder als Rohdaten oder bereits rechnerisch auf die optische Achse des optischen Beobachtungsgeräts korrigiert liefern. In einer Ausprägung davon stellt das Navigationsgerät die gesamten Tiefenbilddaten des Beobachtungsbereiches über eine Schnittstelle für die Auswertungseinheit bereit. In einer anderen Ausprägung sendet das optische Beobachtungsgerät basierend auf der aktuellen Fokusebene „virtuelle Tiefen“ (Abstand des verstellbaren Bildfokus relativ zum optischen Beobachtungsgerät) in einem definierten Wertebereich an das Navigationsgerät. Diese sendet dann für die empfangenen virtuellen Tiefen die jeweilige Kontur der Tiefenbilddaten an die Auswertungseinheit.In principle, the depth image data can be obtained using a navigation device. Specifically, the depth information can be recorded using MRI (magnetic resonance imaging), CT (computer tomography) or similar. The navigation device can segment the data, for example assigning bone or tumor tissue to a tissue area, and can deliver it either as raw data or already mathematically corrected to the optical axis of the optical observation device. In one form of this, the navigation device provides the entire depth image data of the observation area via an interface for the evaluation unit. In another variant, the optical observation device sends "virtual depths" (distance of the adjustable image focus relative to the optical observation device) in a defined range of values to the navigation device based on the current focus plane. This then sends the respective contour of the depth image data to the evaluation unit for the received virtual depths.

Die Erfindung stellt außerdem ein Computerprogrammprodukt zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt unter Verwendung von Bilddaten, Tiefenbilddaten und Topografiedaten des interessierenden Objekts zur Verfügung. Das Computerprogrammprodukt beinhaltet gespeicherte Anweisungen zum Durchführen der folgenden Schritte:

  • - Registrieren der Bilddaten und der Tiefenbilddaten des interessierenden Objekts und Generieren entsprechender Registrierungsdaten,
  • - Ermitteln der Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten und
  • - Generieren und Ausgeben eines Visualisierungsbildes, in dem die Abstände dargestellt sind.
The invention also provides a computer program product for displaying depth information about an object of interest using image data, depth image data and topography data of the object of interest. The computer program product includes stored instructions for performing the following steps:
  • - Registering the image data and the depth image data of the object of interest and generating corresponding registration data,
  • - Determining the distances of the depth ranges of the object of interest captured by the depth image data from the surface of the observation area using the topography data, the depth image data and the registration data and
  • - Generate and output a visualization image showing the distances.

Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung werden im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die beigefügten Figuren näher beschrieben. Alle bisher und im Folgenden beschriebenen Merkmale sind dabei sowohl einzeln als auch in einer beliebigen Kombination miteinander vorteilhaft. Die im Folgenden beschriebenen Ausführungsbeispiele dienen lediglich der Erläuterung der Erfindung und sollen den Gegenstand der Erfindung nicht auf die einzelnen Ausführungsbeispiele beschränken.

  • 1 zeigt schematisch den Aufbau eines Operationsmikroskops.
  • 2 zeigt schematisch Beispiel für ein Vario-Objektiv.
  • 3 zeigt schematisch eine chirurgische Operationsszene mit Tiefenvorschaukarte.
  • 4 zeigt schematisch die chirurgische Operationsszene aus 3 in einer Schnittansicht.
  • 5 zeigt schematisch ein Operationsmikroskop-System als ein Ausführungsbeispiel für ein erfindungsgemäßes optisches Beobachtungsgerätsystem.
Further features, properties and advantages of the present invention are described in more detail below using exemplary embodiments with reference to the attached figures. All features described so far and below are advantageous both individually and in any combination with one another. The exemplary embodiments described below serve only to explain the invention and are not intended to limit the subject matter of the invention to the individual exemplary embodiments.
  • 1 shows schematically the structure of a surgical microscope.
  • 2 shows a schematic example of a varifocal lens.
  • 3 shows a schematic of a surgical operation scene with depth preview map.
  • 4 shows schematically the surgical operation scene from 3 in a sectional view.
  • 5 shows schematically a surgical microscope system as an embodiment of an optical observation device system according to the invention.

Nachfolgend wird mit Bezug auf die 1 und 2 ein Beispiel für den grundsätzlichen Aufbau eines Operationsmikroskops 2 erläutert.The following is based on the 1 and 2 An example of the basic structure of a surgical microscope 2 is explained.

Das in 1 gezeigte Operationsmikroskop 2 umfasst als wesentliche Bestandteile ein einem Objektfeld 3 zuzuwendendes Objektiv 5, das insbesondere als achromatisches oder apochromatisches Objektiv ausgebildet sein kann. Im vorliegenden Ausführungsbeispiel besteht das Objektiv 5 aus zwei miteinander verkitteten Teillinsen, die ein achromatisches Objektiv bilden. Im Falle eines Apochromatischen Objektivs besteht dieses aus drei Teillinsen. Das Objektfeld 3 wird in der Brennebene des Objektivs 5 angeordnet, so dass es vom Objektiv 5 nach Unendlich abgebildet wird. Mit anderen Worten, ein vom Objektfeld 3 ausgehendes divergentes Strahlenbündel 7 wird bei seinem Durchgang durch das Objektiv 5 in ein paralleles Strahlenbündel 9 umgewandelt.This in 1 The surgical microscope 2 shown comprises as essential components an objective 5 which is to be directed towards an object field 3 and which can be designed in particular as an achromatic or apochromatic objective. In the present exemplary embodiment, the objective 5 consists of two partial lenses which are cemented together and form an achromatic objective. In the case of an apochromatic objective, this consists of three partial lenses. The object field 3 is arranged in the focal plane of the objective 5 so that it is imaged by the objective 5 towards infinity. In other words, a divergent beam 7 emanating from the object field 3 is converted into a parallel beam 9 as it passes through the objective 5.

Beobachterseitig des Objektivs 5 ist ein Vergrößerungswechsler 11 angeordnet, der entweder wie im dargestellten Ausführungsbeispiel als Zoom-System zur stufenlosen Änderung des Vergrößerungsfaktors oder als so genannter Galilei-Wechsler zur stufenweisen Änderung des Vergrößerungsfaktors ausgebildet sein kann. In einem Zoom-System, das bspw. aus einer Linsenkombination mit drei Linsen aufgebaut ist, können die beiden objektseitigen Linsen verschoben werden, um den Vergrößerungsfaktor zu variieren. Tatsächlich kann das Zoom-System aber auch mehr als drei Linsen, bspw. vier oder mehr Linsen aufweisen, wobei die äußeren Linsen dann auch fest angeordnet sein können. In einem Galilei-Wechsler existieren dagegen mehrere feste Linsenkombinationen, die unterschiedliche Vergrößerungsfaktoren repräsentieren und im Wechsel in den Strahlengang eingebracht werden können. Sowohl ein Zoom-System, als auch ein Galilei-Wechsler wandeln ein objektseitiges paralleles Strahlenbündel in ein beobachterseitiges paralleles Strahlenbündel mit einem anderen Bündeldurchmesser um. Der Vergrößerungswechsler 11 ist im vorliegenden Ausführungsbeispiel bereits Teil des binokularen Strahlengangs des Operationsmikroskops 2, d.h. er weist eine eigene Linsenkombination für jeden stereoskopischen Teilstrahlengang 9A, 9B des Operationsmikroskops 2 auf. Das Einstellen eines Vergrößerungsfaktors mittels des Vergrößerungswechslers 11 erfolgt im vorliegenden Ausführungsbeispiel über ein motorisch angetriebenes Stellglied (nicht dargestellt), das zusammen mit dem Vergrößerungswechsler 11 Teil einer Vergrößerungswechseleinheit zum Einstellen des Vergrößerungsfaktors ist.A magnification changer 11 is arranged on the observer side of the lens 5, which can be designed either as a zoom system for continuously changing the magnification factor, as in the embodiment shown, or as a so-called Galilean changer for gradually changing the magnification factor. In a zoom system that is made up of a lens combination with three lenses, for example, the two lenses on the object side can be moved to vary the magnification factor. In fact, however, the zoom system can also have more than three lenses, for example four or more lenses, in which case the outer lenses can also be fixed. In a Galilean changer, on the other hand, there are several fixed lens combinations that represent different magnification factors and can be alternately introduced into the beam path. Both a zoom system and a Galilean changer convert a parallel beam on the object side into a parallel beam on the observer side with a different beam diameter. In the present embodiment, the magnification changer 11 is already part of the binocular beam path of the surgical microscope 2, i.e. it has its own lens combination for each stereoscopic partial beam path 9A, 9B of the surgical microscope 2. In the present embodiment, the setting of a magnification factor by means of the magnification changer 11 takes place via a motor-driven actuator (not shown), which together with the magnification changer 11 is part of a magnification change unit for setting the magnification factor.

An den Vergrößerungswechsler 11 schließt sich beobachterseitig eine Schnittstellenanordnung 13A, 13B an, über die externe Geräte an das Operationsmikroskop 2 angeschlossen werden können und die im vorliegenden Ausführungsbeispiel Strahlteilerprismen 15A, 15B umfasst. Grundsätzlich können aber auch andere Arten von Strahlteilern Verwendung finden, bspw. teildurchlässige Spiegel. Die Schnittstellen 13A, 13B dienen im vorliegenden Ausführungsbeispiel zum Auskoppeln eines Strahlenbündels aus dem Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15B) bzw. zum Einkoppeln eines Strahlenbündels in den Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15A).The magnification changer 11 is connected to an interface arrangement 13A, 13B on the observer side, via which external devices can be connected to the Opera tion microscope 2 and which in the present embodiment comprises beam splitter prisms 15A, 15B. In principle, however, other types of beam splitters can also be used, e.g. partially transparent mirrors. In the present embodiment, the interfaces 13A, 13B serve to decouple a beam from the beam path of the surgical microscope 2 (beam splitter prism 15B) or to couple a beam into the beam path of the surgical microscope 2 (beam splitter prism 15A).

Das Strahlteilerprisma 15A in dem Teilstrahlengang 9A dient im vorliegenden Ausführungsbeispiel dazu, mit Hilfe eines Displays 37, bspw. einer Digital Mirror Device (DMD) oder eines LCD-Displays, und einer zugehörigen Optik 39 über das Strahlteilerprisma 15A Informationen oder Daten für einen Betrachter in den Teilstrahlengang 9A des Operationsmikroskops 1 einzuspiegeln. Im anderen Teilstrahlengang 9B ist an der Schnittstelle 13B ein Kameraadapter 19 mit einer daran befestigten Kamera 21 angeordnet, die mit einem elektronischen Bildsensor 23, bspw. mit einem CCD-Sensor oder einem CMOS-Sensor, ausgestattet ist. Mittels der Kamera 21 kann ein elektronisches und insbesondere ein digitales Bild des Gewebebereichs 3 aufgenommen werden. Als Bildsensor kann insbesondere auch ein Hyperspektralsensor Verwendung finden, in dem nicht nur drei Spektralkanäle (bspw. rot, grün und blau) vorhanden sind, sondern eine Vielzahl von Spektralkanälen.In the present exemplary embodiment, the beam splitter prism 15A in the partial beam path 9A serves to reflect information or data for a viewer into the partial beam path 9A of the surgical microscope 1 via the beam splitter prism 15A with the aid of a display 37, for example a digital mirror device (DMD) or an LCD display, and an associated optics 39. In the other partial beam path 9B, a camera adapter 19 with a camera 21 attached to it is arranged at the interface 13B. The camera 21 can be used to record an electronic and in particular a digital image of the tissue region 3. In particular, a hyperspectral sensor can also be used as the image sensor, in which there are not just three spectral channels (for example red, green and blue), but a large number of spectral channels.

An die Schnittstelle 13 schließt sich im dargestellten Beispiel beobachterseitig ein Binokulartubus 27 an. Dieser weist zwei Tubusobjektive 29A, 29B auf, welche das jeweilige parallele Strahlenbündel 9A, 9B auf eine Zwischenbildebene 31 fokussieren, also das Beobachtungsobjekt 3 auf die jeweilige Zwischenbildebene 31A, 31B abbilden. Die in den Zwischenbildebenen 31A, 31B befindlichen Zwischenbilder werden schließlich von Okularlinsen 35A, 35B wiederum nach Unendlich abgebildet, so dass ein Betrachter das Zwischenbild mit entspanntem Auge betrachten kann. Außerdem erfolgt im Binokulartubus mittels eines Spiegelsystems oder mittels Prismen 33A, 33B eine Vergrößerung des Abstandes zwischen den beiden Teilstrahlenbündeln 9A, 9B, um diesen an den Augenabstand des Betrachters anzupassen. Mit dem Spiegelsystem oder den Prismen 33A, 33B erfolgt zudem eine Bildaufrichtung. Statt die Zwischenbilder mittels Okularen zu betrachten, besteht auch die Möglichkeit, die Zwischenbilder mittels in der Zwischenbildebene angeordneter Bildsensoren, die bspw. als CCD-Sensoren oder CMOS-Sensoren ausgebildet sein können, aufzunehmen und die aufgenommenen Bilder elektronisch auf Displays darzustellen. Die elektronische Darstellung ermöglicht eine freiere Positionierung des Betrachters relativ zum Beobachtungsobjekt. Die Displays können bspw. in einem am Operationsmikroskop vorhandenen Einblick angeordnet sein, oder sie können in einem vom Operationsmikroskop losgelösten Head Mounted Display (HMD) wie etwa einer Datenbrille angeordnet sein.In the example shown, a binocular tube 27 is connected to the interface 13 on the observer side. This has two tube lenses 29A, 29B, which focus the respective parallel beam 9A, 9B on an intermediate image plane 31, i.e. image the object being observed 3 on the respective intermediate image plane 31A, 31B. The intermediate images in the intermediate image planes 31A, 31B are finally imaged to infinity by eyepiece lenses 35A, 35B, so that an observer can view the intermediate image with a relaxed eye. In addition, the distance between the two partial beams 9A, 9B is increased in the binocular tube by means of a mirror system or prisms 33A, 33B in order to adapt this to the distance between the observer's eyes. The mirror system or prisms 33A, 33B are also used to erect the image. Instead of viewing the intermediate images using eyepieces, it is also possible to record the intermediate images using image sensors arranged in the intermediate image plane, which can be designed as CCD sensors or CMOS sensors, for example, and to display the recorded images electronically on displays. The electronic display allows the viewer to position himself more freely relative to the object being observed. The displays can be arranged in a viewing area on the surgical microscope, for example, or they can be arranged in a head-mounted display (HMD) that is detached from the surgical microscope, such as data glasses.

Das Operationsmikroskop 2 ist außerdem mit einer Beleuchtungsvorrichtung ausgestattet, mit der der das Objektfeld 3 mit zumeist breitbandigem Beleuchtungslicht beleuchtet werden kann. Hierzu weist die Beleuchtungsvorrichtung im vorliegenden Ausführungsbeispiel eine Weißlichtquelle 41, etwa eine Halogenglühlampe oder eine Gasentladungslampe, auf. Aber auch Lumineszenzstrahler wie bspw. Leuchtdioden (LEDs) oder organische Leuchtdioden (OLEDs) kommen als Lichtquellen in Frage. Hierbei kann das Weißlicht auch durch eine Kombination mehrerer farbiger Lumineszenzstrahler generiert werden. Das von der Weißlichtquelle 41 ausgehende Licht wird über einen Umlenkspiegel 43 oder ein Umlenkprisma in Richtung auf das Objektfeld 3 gelenkt, um dieses auszuleuchten. In der Beleuchtungsvorrichtung ist weiterhin eine Beleuchtungsoptik 45 vorhanden, die für eine gleichmäßige Ausleuchtung des gesamten beobachteten Objektfeldes 3 sorgt.The surgical microscope 2 is also equipped with an illumination device with which the object field 3 can be illuminated with mostly broadband illumination light. For this purpose, the illumination device in the present embodiment has a white light source 41, such as a halogen lamp or a gas discharge lamp. However, luminescence emitters such as light-emitting diodes (LEDs) or organic light-emitting diodes (OLEDs) can also be used as light sources. The white light can also be generated by a combination of several colored luminescence emitters. The light emitted by the white light source 41 is directed towards the object field 3 via a deflection mirror 43 or a deflection prism in order to illuminate it. The illumination device also has an illumination optics 45, which ensures uniform illumination of the entire observed object field 3.

Es sei darauf hingewiesen, dass der in 1 dargestellte Beleuchtungsstrahlengang stark schematisiert ist und nicht notwendigerweise den tatsächlichen Verlauf des Beleuchtungsstrahlengangs wiedergibt. Grundsätzlich kann der Beleuchtungsstrahlengang als sogenannte Schrägbeleuchtung ausgeführt sein, die der schematischen Darstellung in 1 am nächsten kommt. In einer solchen Schrägbeleuchtung verläuft der Strahlengang in einem relativ großen Winkel (6° oder mehr) zur optischen Achse des Objektivs 5 und kann, wie in 1 dargestellt, vollständig außerhalb des Objektivs verlaufen. Alternativ besteht jedoch auch die Möglichkeit, den Beleuchtungsstrahlengang der Schrägbeleuchtung durch einen Randbereich des Objektivs 5 hindurch verlaufen zu lassen. Eine weitere Möglichkeit zur Anordnung des Beleuchtungsstrahlengangs ist die sogenannte 0°-Beleuchtung, bei der der Beleuchtungsstrahlengang durch das Objektiv 5 hindurch verläuft und zwischen den beiden Teilstrahlengängen 9A, 9B, entlang der optischen Achse des Objektivs 5 in Richtung auf das Objektfeld 3 in das Objektiv eingekoppelt wird. Schließlich besteht auch die Möglichkeit, den Beleuchtungsstrahlengang als sogenannte koaxiale Beleuchtung auszuführen, in der ein erster und ein zweiter Beleuchtungsteilstrahlengang vorhanden sind. Die Teilstrahlengänge werden über einen oder mehrere Strahlteiler parallel zu den optischen Achsen der Beobachtungsteilstrahlengänge 9A, 9B in das Operationsmikroskop eingekoppelt, so dass die Beleuchtung koaxial zu den beiden Beobachtungsteilstrahlengängen verläuft.It should be noted that the 1 The illumination beam path shown is highly schematic and does not necessarily reflect the actual course of the illumination beam path. In principle, the illumination beam path can be designed as so-called oblique illumination, which corresponds to the schematic representation in 1 In such an oblique illumination, the beam path runs at a relatively large angle (6° or more) to the optical axis of the objective 5 and can, as in 1 shown, run completely outside the lens. Alternatively, however, it is also possible to let the illumination beam path of the oblique illumination run through an edge region of the lens 5. Another possibility for arranging the illumination beam path is the so-called 0° illumination, in which the illumination beam path runs through the lens 5 and is coupled into the lens between the two partial beam paths 9A, 9B along the optical axis of the lens 5 in the direction of the object field 3. Finally, there is also the possibility of designing the illumination beam path as so-called coaxial illumination, in which a first and a second partial illumination beam path are present. The partial beam paths are coupled into the surgical microscope via one or more beam splitters parallel to the optical axes of the partial observation beam paths 9A, 9B, so that the illumination runs coaxially to the two partial observation beam paths.

In dem in 1 dargestellten Operationsmikroskop kann auf die Beleuchtung Einfluss genommen werden. Bspw. kann ein Filter 47 in den Beleuchtungsstrahlengang eingebracht werden, der von dem breiten Spektrum der Weißlichtquelle 41 nur einen schmalen Spektralbereich passieren lässt, bspw. einen Spektralbereich, mit dem Fluoreszenz eines im Objektfeld 3 befindlichen Fluoreszenzfarbstoffes angeregt werden kann. Zur Beobachtung der Fluoreszenz können in die Beobachtungs-Teilstrahlengänge Filter 37A, 37B eingebracht werden, die den zur Fluoreszenzanregung verwendeten Spektralbereich herausfiltern um die Fluoreszenz beobachten zu können.In the 1 The illumination can be influenced in the surgical microscope shown. For example, a filter 47 can be introduced into the illumination beam path, which allows only a narrow spectral range of the broad spectrum of the white light source 41 to pass through, for example a spectral range with which the fluorescence of a fluorescent dye located in the object field 3 can be excited. To observe the fluorescence, filters 37A, 37B can be introduced into the observation partial beam paths, which filter out the spectral range used for fluorescence excitation in order to be able to observe the fluorescence.

Die Beleuchtungsvorrichtung kann zudem mit einer Einheit zum Wechsel der Beleuchtungslichtquelle ausgestattet sein. Diese ist in 1 durch ein System zum Austausch der Weißlichtquelle 41 durch eine Laser 49 angedeutet. Mit einem Laser als Lichtquelle, insbesondere mit einem Infrarotlaser, wird in Verbindung mit einem geeigneten Bildsensor 23 bspw. Laser-Doppler-Imaging oder Laser-Speckle-Imaging ermöglicht. Die Einheit zum Wechsel der Beleuchtungslichtquelle ist im vorliegenden Ausführungsbeispiel motorisch angetrieben und kann mittels geeigneter Steuerdaten von der Pathologieeinheit 70 aus gesteuert werdenThe lighting device can also be equipped with a unit for changing the lighting light source. This is 1 by a system for replacing the white light source 41 with a laser 49. With a laser as a light source, in particular with an infrared laser, in conjunction with a suitable image sensor 23, for example, laser Doppler imaging or laser speckle imaging is made possible. In the present embodiment, the unit for changing the illumination light source is motor-driven and can be controlled by suitable control data from the pathology unit 70

In der in 1 gezeigten Ausführungsvariante des Operationsmikroskops 2 besteht das Objektiv 5 lediglich aus einer Achromatlinse mit fixer Objektschnittweite (Abstand der objektseitigen Brennebene vom Scheitel der ersten objektseitigen Linsenfläche des Objektivs 5). Es kann jedoch auch ein Objektivlinsensystem aus mehreren Linsen Verwendung finden, insbesondere ein so genanntes Vario-Objektiv, mit dem sich der Arbeitsabstand des Operationsmikroskops 2, d.h. die Objektschnittweite, variieren lässt. Auch vom Vario-Objektiv 50 wird das in der Brennebene angeordnete Objektfeld 3 nach Unendlich abgebildet, so dass beobachterseitig ein paralleles Strahlenbündel vorliegt.In the 1 In the variant of the surgical microscope 2 shown, the objective 5 consists only of an achromatic lens with a fixed object focal length (distance of the object-side focal plane from the vertex of the first object-side lens surface of the objective 5). However, an objective lens system comprising several lenses can also be used, in particular a so-called varifocal objective, with which the working distance of the surgical microscope 2, ie the object focal length, can be varied. The object field 3 arranged in the focal plane is also imaged to infinity by the varifocal objective 50, so that a parallel beam of rays is present on the observer side.

Ein Beispiel für ein Vario-Objektiv ist schematisch in 2 dargestellt. Das Vario-Objektiv 50 umfasst ein Positivglied 51, also ein optisches Element mit positiver Brechkraft, das in 2 schematisch als Konvexlinse dargestellt ist. Darüber hinaus umfasst das Vario-Objektiv 50 ein Negativglied 52, also ein optisches Element mit negativer Brechkraft, das in 2 schematisch als Konkavlinse dargestellt ist. Das Negativglied 52 befindet sich zwischen dem Positivglied 51 und dem Objektfeld 3. Im dargestellten Vario-Objektiv 50 ist das Negativglied 52 fix angeordnet, wohingegen das Positivglied 51 wie durch den Doppelpfeil 53 angedeutet entlang der optischen Achse OA verschiebbar angeordnet ist. Wenn das Positivglied 51 in die in 2 gestrichelt dargestellte Position verschoben wird, verlängert sich die Schnittweite, so dass sich der Arbeitsabstand des Operationsmikroskops 2 vom Objektfeld 3 ändert.An example of a varifocal lens is shown schematically in 2 The zoom lens 50 comprises a positive element 51, i.e. an optical element with positive refractive power, which is 2 schematically shown as a convex lens. In addition, the zoom lens 50 comprises a negative element 52, i.e. an optical element with negative refractive power, which is 2 is shown schematically as a concave lens. The negative element 52 is located between the positive element 51 and the object field 3. In the zoom lens 50 shown, the negative element 52 is fixed, whereas the positive element 51 is arranged so as to be displaceable along the optical axis OA, as indicated by the double arrow 53. When the positive element 51 is in the 2 If the position shown in dashed lines is moved, the focal length is extended, so that the working distance of the surgical microscope 2 from the object field 3 changes.

Obwohl in 2 das Positivglied 51 verschiebbar ausgestaltet ist, besteht grundsätzlich auch die Möglichkeit, das Negativglied 52 statt des Positivglieds 51 entlang der optischen Achse OA bewegbar anzuordnen. Das Negativglied 52 bildet jedoch häufig die Abschlusslinse des Vario-Objektivs 50. Ein feststehendes Negativglied 52 bietet daher den Vorteil, dass das Innere des Operationsmikroskops 2 leichter gegen äußere Einflüsse abgedichtet werden kann. Weiterhin sei angemerkt, dass, obwohl das Positivglied 51 und das Negativglied 52 in 2 lediglich als Einzellinsen dargestellt sind, jedes dieser Glieder statt in Form einer Einzellinse auch in Form einer Linsengruppe oder eines Kittglieds realisiert sein kann, bspw. um das Vario-Objektiv achromatisch oder apochromatisch auszubilden.Although in 2 the positive member 51 is designed to be movable, it is also possible in principle to arrange the negative member 52 so that it can move along the optical axis OA instead of the positive member 51. However, the negative member 52 often forms the end lens of the zoom lens 50. A fixed negative member 52 therefore offers the advantage that the interior of the surgical microscope 2 can be sealed more easily against external influences. It should also be noted that, although the positive member 51 and the negative member 52 are in 2 are only shown as individual lenses, each of these elements can also be realized in the form of a lens group or a cemented element instead of in the form of an individual lens, e.g. in order to make the zoom lens achromatic or apochromatic.

Die 3 zeigt schematisch eine chirurgische, beispielsweise eine neurochirurgische Operationsszene 1. Der durch das Operationsmikroskop 2 mikroskopisch dargestellte Beobachtungsbereich 1 bzw. die Operationsszene umfasst zu entfernendes Gewebe 12, beispielsweise im Rahmen einer Tumorresektion zu entfernendes Tumorgewebe. Die Finger des Chirurgen sind mit der Bezugsziffer 8 gekennzeichnet, das verwendete Operationsbesteck mit der Bezugsziffer 4. Während der Operation wird mit Hilfe des erfindungsgemäßen Darstellungsverfahrens eine Tumortiefenvorschaukarte 10 in das mit dem Operationsmikroskop 2 gewonnene Bild des Beobachtungsbereichs 1 eingeblendet. Dies erfolgt vorliegend mit Hilfe von Iso-Tiefenlinien und/oder durch farbliche Codierung. Die Iso-Tiefenlinien stellen dabei nicht eine bestimmte Tiefe in Bezug auf eine Fokusebene dar, sondern einen relativen Abstand in Bezug auf die Oberfläche des Gewebebereiches 12, wie dies in 4 in einer schematischen Seitenansicht der Operationsszene 1 dargestellt ist.The 3 shows a schematic of a surgical, for example a neurosurgical, operation scene 1. The observation area 1 or the operation scene microscopically displayed by the surgical microscope 2 comprises tissue 12 to be removed, for example tumor tissue to be removed as part of a tumor resection. The surgeon's fingers are identified by the reference number 8, the surgical instruments used by the reference number 4. During the operation, a tumor depth preview map 10 is superimposed on the image of the observation area 1 obtained with the surgical microscope 2 using the display method according to the invention. This is done in the present case using iso-depth lines and/or by color coding. The iso-depth lines do not represent a specific depth in relation to a focal plane, but rather a relative distance in relation to the surface of the tissue area 12, as is shown in 4 shown in a schematic side view of the operation scene 1.

Die 4 zeigt die Oberfläche des Gewebes 12 sowie den Tumor 6 und die Tumortiefenvorschaukarte 10. Die in der Karte dargestellten Iso-Tiefenlinien repräsentieren dabei jeweils die Tiefe eines bestimmten Bereichs des Tumors 6 unter der Oberfläche des Gewebes 12, wie dies durch die Pfeile in der Figur angedeutet ist. Ebenfalls dargestellt ist in 4 die Fokusebene 16 des Operationsmikroskops 2, wobei die Lage der Fokusebene 16 der Lage des Bodens 17 des Operationssitus entspricht. Zu Erläuterungszwecken ist der Tumor 6 in 4 symmetrisch dargestellt.The 4 shows the surface of the tissue 12 as well as the tumor 6 and the tumor depth preview map 10. The iso-depth lines shown in the map each represent the depth of a specific area of the tumor 6 below the surface of the tissue 12, as indicated by the arrows in the figure. Also shown in 4 the focal plane 16 of the surgical microscope 2, whereby the position of the focal plane 16 corresponds to the position of the floor 17 of the surgical site. For explanatory purposes, the tumor 6 is in 4 shown symmetrically.

Wie in 4 zu erkennen ist, weist die Tumortiefenvorschaukarte 10, deren Iso-Tiefenlinien 18 die jeweiligen Abstände des Tumors von der Oberfläche des Gewebes 12 repräsentieren, nicht die Symmetrie des Tumors auf. Sie unterscheidet sich somit erheblich von einer Tiefenvorschaukarte, welche mit ihren Iso-Tiefenlinien die jeweiligen Abstände des Tumors von der Fokusebene 6 zeigt. Eine solche Tumortiefenvorschaukarte würde in 4 die Symmetrie des Tumors wiedergeben. Der wesentliche Unterschied zwischen den beiden Tumortiefenvorschaukarten liegt jedoch nicht in der Symmetriebetrachtung, sondern darin, dass die Iso-Tiefenlinien dem Chirurgen unmittelbar anzeigen können, wie tief ein Einschnitt in das Gewebe zu erfolgen hat. Anhand der in 4 dargestellten Tiefenvorschaukarte, deren Iso-Tiefenlinie 18 die Abstände von der Oberfläche des Gewebes 12 repräsentieren, kann der behandelnde Chirurg direkt erkennen, wie tief er in das Gewebe 12 einschneiden muss. Wäre in der Tiefenvorschaukarte dagegen der Abstand des Tumors von der Fokusebene 16 in Form von Iso-Tiefenlinien dargestellt, könnte der Chirurg lediglich für diejenigen Gewebebereiche, die mit der Fokusebene 16 zusammenfallen und die im vorliegenden Beispiel durch den Boden 17 des Operationssitus gebildet werden, die Einschnitttiefe unmittelbar aus den Iso-Tiefenlinien 18 ablesen. Für andere Gewebebereiche müsste die Fokusebene verschoben werden, um die Einschnitttiefe dann aus den neugenerierten Iso-Tiefenlinien ablesen zu können. Die vorliegende Erfindung bietet daher den Vorteil, dass auch ohne Verlagern der Fokusebene 16 alle Iso-Tiefenlinien der Tumortiefenvorschaukarte 10 die benötigte Einschnitttiefe repräsentieren, sodass dem Chirurgen ein unmittelbares Hilfsmittel für die Entscheidung über die jeweiligen Einschnitttiefen zur Verfügung gestellt wird.As in 4 can be seen, the tumor depth preview map 10, whose iso-depth lines 18 show the respective distances of the tumor from the surface of the tissue 12, do not show the symmetry of the tumor. It is therefore significantly different from a depth preview map, which shows the respective distances of the tumor from the focal plane 6 with its iso-depth lines. Such a tumor depth preview map would in 4 reflect the symmetry of the tumor. The main difference between the two tumor depth preview maps is not the symmetry consideration, but rather that the iso-depth lines can show the surgeon immediately how deep an incision should be made into the tissue. 4 shown depth preview map, whose iso-depth lines 18 represent the distances from the surface of the tissue 12, the treating surgeon can directly see how deep he has to cut into the tissue 12. If, on the other hand, the distance of the tumor from the focal plane 16 were shown in the depth preview map in the form of iso-depth lines, the surgeon would only be able to read the incision depth directly from the iso-depth lines 18 for those tissue areas that coincide with the focal plane 16 and which, in the present example, are formed by the floor 17 of the operation site. For other tissue areas, the focal plane would have to be shifted in order to then be able to read the incision depth from the newly generated iso-depth lines. The present invention therefore offers the advantage that even without shifting the focal plane 16, all iso-depth lines of the tumor depth preview map 10 represent the required incision depth, so that the surgeon is provided with an immediate aid for deciding on the respective incision depths.

Statt der Iso-Tiefenlinien können grundsätzlich auch andere Techniken zum Repräsentieren der Tiefe des Tumors unterhalb der Oberfläche des Gewebes 12 herangezogen werden. Insbesondere können dabei grundsätzlich Techniken aus dem Bereich der Augmented Reality zur Fusionierung von Bilddaten verwendet werden. Dies ermöglicht eine nahtlose und realitätsgetreue Einblendung von Abstandsinformationen in die Operationsszene.Instead of the iso-depth lines, other techniques can also be used to represent the depth of the tumor below the surface of the tissue 12. In particular, techniques from the field of augmented reality can be used to fuse image data. This enables a seamless and realistic display of distance information in the surgical scene.

5 zeigt als ein Ausführungsbeispiel für das erfindungsgemäße optische Beobachtungsgerätesystem ein Operationsmikroskop-System 68, mit dem sich die mit Bezug auf 4 beschriebene Tumortiefenvorschaukarte generieren und auf einer Anzeigeeinheit darstellen lässt. Statt der Tiefenvorschaukarte kann auch jede andere geeignete Darstellung der Tiefeninformationen, d.h. der Abstände des Tumors von der Oberfläche des Gewebes 12, mit der Vorrichtung realisiert werden. 5 shows as an embodiment of the optical observation device system according to the invention a surgical microscope system 68 with which the 4 described tumor depth preview map can be generated and displayed on a display unit. Instead of the depth preview map, any other suitable display of the depth information, ie the distances of the tumor from the surface of the tissue 12, can be realized with the device.

Das Operationsmikroskop-System 68 umfasst ein Operationsmikroskop 2, mit dem ein visuelles Bild einer Operationsszene, d.h. eines Beobachtungsbereiches 1 mit einem Tumor 6, gewonnen wird. Das Operationsmikroskop 2 erzeugt zudem das Bild repräsentierende elektronische Bilddaten und gibt diese aus. Zum Generieren der elektronischen Bilddaten kann beispielsweise die Kamera 21 aus 1 Verwendung finden.The surgical microscope system 68 comprises a surgical microscope 2, with which a visual image of a surgical scene, ie an observation area 1 with a tumor 6, is obtained. The surgical microscope 2 also generates electronic image data representing the image and outputs it. To generate the electronic image data, for example, the camera 21 can be made of 1 find use.

Weiterhin umfasst das Operationsmikroskop-System 68 eine Schnittstellenanordnung 63 mit einem Datenausgang 63A und einem Dateneingang 63B. Über den Datenausgang 63A werden Bilddaten, die das mit dem Operationsmikroskop 2 gewonnene Bild repräsentieren, an eine Registrierungseinheit 61 ausgeben. Über den Dateneingang 63B werden aktuelle Topografiedaten des Beobachtungsbereichs 1 von einer Topografie-Erfassungseinheit 60 sowie Tiefenbilddaten des Tumors 6 im Beobachtungsbereich 1 von einem Tomografiesystem 66 empfangen.The surgical microscope system 68 also includes an interface arrangement 63 with a data output 63A and a data input 63B. Image data representing the image obtained with the surgical microscope 2 are output to a registration unit 61 via the data output 63A. Current topography data of the observation area 1 from a topography detection unit 60 and depth image data of the tumor 6 in the observation area 1 are received from a tomography system 66 via the data input 63B.

Die Topografie-Erfassungseinheit 60 kann auf einem geeigneten Sensor, beispielsweise einem stereoskopischen Sensor, einem Laserscanner, einem Time-of-Flight-Sensor oder auf strukturierter Beleuchtung beruhen. Ein stereoskopischer Sensor kann zum Beispiel zwei in dem Operationsmikroskop 2 integrierte Kameras, ähnlich der Kamera 21 aus 1, umfassen. Durch die Miteinbeziehung aktueller Topografieinformationen können die Tiefeninformationen sowie deren Visualisierung auch den aktuellen Gegebenheiten angepasst werden. Insbesondere können auftretende Deformationen berücksichtigt werden.The topography detection unit 60 can be based on a suitable sensor, for example a stereoscopic sensor, a laser scanner, a time-of-flight sensor or structured lighting. A stereoscopic sensor can, for example, be two cameras integrated in the surgical microscope 2, similar to the camera 21 from 1 By including current topography information, the depth information and its visualization can also be adapted to the current conditions. In particular, occurring deformations can be taken into account.

Die Tiefenbilddaten sind im vorliegenden Ausführungsbeispiel 3D-Daten, die mittels eines Tomografieverfahrens von der Lage des Tumors 6 unterhalb des Gewebes 12 gewonnen worden sind.In the present embodiment, the depth image data are 3D data that have been obtained from the position of the tumor 6 below the tissue 12 by means of a tomography method.

Die vom Tomografiesystem 66 generierten Tiefenbilddaten liegen auch in der Registrierungseinheit 61 vor. Mittels der Registrierungseinheit 61 werden die präoperativ gewonnenen 3D-Daten mit den vom Datenausgang 63A des Operationsmikroskop-Systems 68 erhaltenen Bilddaten unter Zuhilfenahme einer geeigneten rigiden oder nichtrigiden Transformation registriert, sodass eine optimale Übereinstimmung der 3D-Daten mit den Bilddaten vorliegt. Von der Registrierungseinheit 61 werden dann Registrierungsdaten, welche die Registrierung der 3D-Daten mit den Bilddaten repräsentieren, ausgegeben die von dem Dateneingang 63B der Schnittstellenanordnung 63 empfangen werden.The depth image data generated by the tomography system 66 are also present in the registration unit 61. By means of the registration unit 61, the 3D data obtained preoperatively are registered with the image data obtained from the data output 63A of the surgical microscope system 68 with the aid of a suitable rigid or non-rigid transformation, so that there is an optimal match between the 3D data and the image data. The registration unit 61 then outputs registration data, which represent the registration of the 3D data with the image data, which are received by the data input 63B of the interface arrangement 63.

Mit der Schnittstellenanordnung 63 ist eine Auswertungseinheit 62 verbunden, an welche die Schnittstelleneinheit 63 die empfangenen Registrierungsdaten, die empfangenen Topografiedaten des Beobachtungsbereichs 1 und die empfangenen Tiefenbilddaten weitergibt. Die Tiefenbilddaten können der Auswertungseinheit 62 komplette 3D-Informationen des Tumors 6 bereitstellen. Alternativ besteht die Möglichkeit, dass das Operationsmikroskop-System 68 basierend auf der jeweils aktuellen Fokusebene „virtuelle Tiefen“ in einem definierten Wertebereich an ein Navigationsgerät sendet, und das Navigationsgerät dann für die gesendeten „virtuelle Tiefen“ die jeweilige Konturlinie des Tumors 6 als Tiefenbilddaten an die Auswertungseinheit 62 ausgibt.An evaluation unit 62 is connected to the interface arrangement 63, to which the interface unit 63 forwards the received registration data, the received topography data of the observation area 1 and the received depth image data. The depth image data can provide the evaluation unit 62 with complete 3D information. of the tumor 6. Alternatively, it is possible for the surgical microscope system 68 to send “virtual depths” in a defined value range to a navigation device based on the current focal plane, and the navigation device then outputs the respective contour line of the tumor 6 as depth image data to the evaluation unit 62 for the sent “virtual depths”.

Die Auswertungseinheit 62 ermittelt auf der Basis der Topografiedaten, der 3D-Daten des Tumors 6 und der von der Registrierungseinheit 61 zur Verfügung gestellten Registrierungsdaten die Abstände der von den 3D-Daten erfassten Tiefenbereiche von der Gewebeoberfläche 12 und gibt die ermittelten Abstände aus. Aufgrund der Registrierung sind die Positionen des Tumors 6 im Gewebe 12 und die Topografie der Oberfläche des Gewebes 12 im selben Koordinatensystem bekannt, sodass die Abstände des Tumors von der Oberfläche des Gewebes berechnet werden können.The evaluation unit 62 determines the distances of the depth ranges recorded by the 3D data from the tissue surface 12 on the basis of the topography data, the 3D data of the tumor 6 and the registration data provided by the registration unit 61 and outputs the determined distances. Due to the registration, the positions of the tumor 6 in the tissue 12 and the topography of the surface of the tissue 12 are known in the same coordinate system, so that the distances of the tumor from the surface of the tissue can be calculated.

Mit der Auswertungseinheit 62 ist zum Empfangen der ermittelten Abstände eine Visualisierungseinheit 64 verbunden. Die Visualisierungseinheit 64 dient dazu, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände, beispielsweise in Form der in 4 gezeigten Tiefenkarte 10 dargestellt sind. Das Visualisierungsbild wird dann von der Visualisierungseinheit 64 beispielsweise an das Display 37 aus 1 ausgegeben, wo die Tumortiefenvorschaukarte 10 mit den Iso-Tiefenlinien 18 in den Strahlengang des Operationsmikroskops 2 eingeblendet wird und mittels des Strahlteilers 13A dem Bild des Beobachtungsbereiches 1 überlagert wird, so dass im Okular sowohl die Operationsszene 1 als auch die die Tiefe des Tumors 6 unterhalb der Gewebeoberfläche 12 angebenden Iso-Tiefenlinien 18 der Tumortiefenvorschaukarte 10 zu sehen sind.A visualization unit 64 is connected to the evaluation unit 62 to receive the determined distances. The visualization unit 64 serves to generate a visualization image in which the received distances, for example in the form of the 4 shown depth map 10. The visualization image is then sent from the visualization unit 64, for example, to the display 37 of 1 output, where the tumor depth preview map 10 with the iso-depth lines 18 is displayed in the beam path of the surgical microscope 2 and is superimposed on the image of the observation area 1 by means of the beam splitter 13A, so that both the surgical scene 1 and the iso-depth lines 18 of the tumor depth preview map 10 indicating the depth of the tumor 6 below the tissue surface 12 can be seen in the eyepiece.

Im vorliegenden Ausführungsbeispiel erfolgt eine Visualisierung der Abstände jedoch nicht nur im Okular des Operationsmikroskops 2, wobei das Display 37 als Anzeigeeinheit dient, sondern auch auf einem externen Monitor 67 und ein Head Mounted Display (HMD), welches im vorliegenden Ausführungsbeispiel durch eine Datenbrille 65 repräsentiert ist.In the present embodiment, however, the distances are not only visualized in the eyepiece of the surgical microscope 2, with the display 37 serving as a display unit, but also on an external monitor 67 and a head-mounted display (HMD), which in the present embodiment is represented by data glasses 65.

Um ein Visualisierungsbild für den Monitor 67 und/oder die Datenbrille 65 generieren zu können, ist die Visualisierungseinheit 64 im vorliegenden Ausführungsbeispiel auch mit der Kamera 21 aus dem in 1 dargestellten Operationsmikroskop 2 verbunden. Die Visualisierungseinheit 64 kann daher das den Beobachtungsbereich 1 darstellende Bild bzw. die von der Kamera 21 von diesem Bild generierten Bilddaten empfangen. Die ein elektronisches Bild des Beobachtungsbereich 1 repräsentierenden Bilddaten werden dann von der Visualisierungseinheit 64 mit den von der Auswertungseinheit 62 generierten und ausgegebenen Abständen kombiniert, sodass ein elektronisches Bild entsteht, welches sowohl den Beobachtungsbereich 1 als auch die Iso-Tiefenlinien 18 der Tumortiefenvorschaukarte 10 (oder eine andere geeignete Darstellung der Abstandsinformationen) enthält. Dieses elektronische Bild wird dann an den externen Monitor 67 und/oder das HMD, im vorliegenden Ausführungsbeispiel also an die Datenbrille 65, ausgegeben.In order to be able to generate a visualization image for the monitor 67 and/or the data glasses 65, the visualization unit 64 in the present embodiment is also connected to the camera 21 from the 1 The visualization unit 64 can therefore receive the image representing the observation area 1 or the image data generated from this image by the camera 21. The image data representing an electronic image of the observation area 1 are then combined by the visualization unit 64 with the distances generated and output by the evaluation unit 62, so that an electronic image is created which contains both the observation area 1 and the iso-depth lines 18 of the tumor depth preview map 10 (or another suitable representation of the distance information). This electronic image is then output to the external monitor 67 and/or the HMD, in the present embodiment, to the data glasses 65.

Die Tiefenvorschaukarte kann als linienhafte Anzeige der Iso-Tiefenlinien realisiert sein, wobei die Linien solide, gestrichelt, punktiert oder in einer beliebigen Kombination davon ausgestaltet sind. Die Anzeige der Tiefenvorschaukarte kann aber auch mittels einer opaken Darstellung erfolgen. Möglich ist zudem auch jegliche Form einer Überblendung von Iso-Tiefenlinien bzw. opaker Darstellung mit der aktuellen Beobachtungsszene bzw. Operationsszene um ein realistisches „Look-and-Feel“ zu ermöglichen. Für sichtbare bzw. nicht sichtbare Bereiche des malignen Gewebes können unterschiedliche Visualisierungsparameter gewählt werden. In einer weiteren Ausprägung können die Tiefeninformationen auch lokal begrenzt angezeigt werden, um das Sichtfeld des Operateurs nicht über Gebühr zu beschränken.The depth preview map can be implemented as a linear display of the iso-depth lines, whereby the lines are solid, dashed, dotted or in any combination thereof. The depth preview map can also be displayed using an opaque display. Any form of blending of iso-depth lines or opaque display with the current observation scene or operation scene is also possible in order to enable a realistic "look and feel". Different visualization parameters can be selected for visible or invisible areas of the malignant tissue. In another variant, the depth information can also be displayed locally so as not to unduly restrict the surgeon's field of vision.

Die vorliegende Erfindung wurde zu Erläuterungszwecken anhand von Ausführungsbeispielen beschrieben. Ein Fachmann versteht jedoch, dass von den dargestellten Ausführungsbeispielen abgewichen werden kann. So sind in dem in 5 gezeigten Ausführungsbeispiel für das optische Beobachtungsgerätsystem die Registrierungseinheit, die Topografie-Erfassungseinheit und das Tomografiesystem nicht Teil des optischen Beobachtungsgerätsystems. In anderen möglichen Ausführungsformen der Erfindung können die Registrierungseinheit und/oder die Topografie-Erfassungseinheit und/oder das Tomografiesystem Teil des optischen Beobachtungsgerätsystems sein. Die Erfindung soll daher nicht durch die dargestellten Ausführungsbeispiele beschränkt sein, sondern lediglich durch die beigefügten Ansprüche.The present invention has been described for illustrative purposes using exemplary embodiments. However, a person skilled in the art will understand that deviations from the illustrated exemplary embodiments may occur. For example, in the 5 In the embodiment shown for the optical observation device system, the registration unit, the topography detection unit and the tomography system are not part of the optical observation device system. In other possible embodiments of the invention, the registration unit and/or the topography detection unit and/or the tomography system can be part of the optical observation device system. The invention should therefore not be limited by the embodiments shown, but only by the appended claims.

BezugszeichenlisteList of reference symbols

11
OperationsszeneOperation scene
22
OperationsmikroskopSurgical microscope
33
OperationsfeldSurgical field
44
OperationsbesteckSurgical instruments
55
Objektivlens
66
Tumortumor
77
divergentes Strahlenbündeldivergent beam
88th
Finger des ChirurgenSurgeon's finger
99
StrahlenbündelBeam
9A, 9B9A, 9B
stereoskopischer Teilstrahlengangstereoscopic partial beam path
1010
TumortiefenvorschaukarteTumor depth preview map
1111
VergrößerungswechslerMagnification changer
1212
Gewebetissue
13A, 13B13A, 13B
SchnittstellenanordnungInterface arrangement
15A, 15B15A, 15B
StrahlteilerprismaBeam splitter prism
1616
FokusebeneFocal plane
1717
BodenFloor
1818
Iso-TiefenlinieIso depth line
1919
KameraadapterCamera adapter
2121
Kameracamera
2323
BildsensorImage sensor
2727
BinokulartubusBinocular tube
29A, 29B29A, 29B
TubusobjektivTube lens
31A, 31B31A, 31B
ZwischenbildebeneIntermediate image plane
33A, 33B33A, 33B
Prismaprism
35A, 35B35A, 35B
OkularlinseEyepiece lens
3737
DisplayDisplay
3939
Optikoptics
40A, 40B40A, 40B
SpektralfilterSpectral filter
4141
WeißlichtquelleWhite light source
4343
UmlenkspiegelDeflecting mirror
4545
BeleuchtungsoptikLighting optics
4747
SpektralfilterSpectral filter
4949
LaserLaser
5050
Vario-ObjektivVario lens
5151
PositivgliedPositive link
5252
NegativgliedNegative link
5353
VerschiebewegDisplacement path
6060
Topografie-ErfassungseinheitTopography acquisition unit
6161
RegistrierungseinheitRegistration unit
6262
AuswertungseinheitEvaluation unit
6363
SchnittstellenanordnungInterface arrangement
63A63A
DatenausgangData output
63B63B
DateneingangData input
6464
VisualisierungseinheitVisualization unit
6565
DatenbrilleData glasses
6666
TomografiesystemTomography system
6767
Monitormonitor
6868
optisches Beobachtungsgerätsystemoptical observation device system

Claims (19)

Optisches Beobachtungsgerätsystem (68), mit: - einem optischen Beobachtungsgerät (2) zum Erzeugen eines Bildes eines Beobachtungsbereiches (1) mit einem interessierenden Objekt (6) und von das Bild repräsentierenden Bilddaten; - eine Schnittstellenanordnung (63) mit einem Datenausgang (63A) zum Ausgeben der Bilddaten an eine Registrierungseinheit (61), welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren, einem Dateneingang (63B) zum Empfang der Tiefenbilddaten des interessierenden Objekts (6), zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit (60) sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit (61); - eine Auswertungseinheit (62), die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche (12) des Beobachtungsbereiches (1) zu ermitteln und die ermittelten Abstände auszugeben, - einer mit der Auswertungseinheit (62) zum Empfang der Abstände verbundene Visualisierungseinheit (64), wobei die Visualisierungseinheit (64) dazu ausgebildet ist, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind, und das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit (37, 65, 67) auszugeben.Optical observation device system (68), comprising: - an optical observation device (2) for generating an image of an observation area (1) with an object of interest (6) and image data representing the image; - an interface arrangement (63) with a data output (63A) for outputting the image data to a registration unit (61), which generates registration data representing a registration of depth image data with the image data, a data input (63B) for receiving the depth image data of the object of interest (6), for receiving topography data associated with the image data from a topography detection unit (60) and for receiving the registration data from the registration unit (61); - an evaluation unit (62) which is designed to use the topography data, the depth image data and the registration data to determine the distances of the depth regions of the object of interest (6) recorded by the depth image data from the surface (12) of the observation area (1) and to output the determined distances, - a visualization unit (64) connected to the evaluation unit (62) for receiving the distances, wherein the visualization unit (64) is designed to generate a visualization image in which the received distances are shown and to output the visualization image for display on a display unit (37, 65, 67). Optisches Beobachtungsgerätsystem (68) nach Anspruch 1, in dem die Registrierungseinheit (61) Teil des optischen Beobachtungsgerätesystems ist.Optical observation device system (68) according to Claim 1 in which the registration unit (61) is part of the optical observation device system. Optisches Beobachtungsgerätsystem (68) nach Anspruch 1 oder Anspruch 2, in dem die Topografie-Erfassungseinheit (60) Teil des optischen Beobachtungsgerätesystems ist.Optical observation device system (68) according to Claim 1 or Claim 2 in which the topography detection unit (60) is part of the optical observation device system. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 3, in dem die Anzeigeeinheit (37, 65, 67) Teil des optischen Beobachtungsgerätesystems (68) ist.Optical observation device system (68) according to one of the Claims 1 until 3 in which the display unit (37, 65, 67) is part of the optical observation device system (68). Optisches Beobachtungsgerätsystem (68) nach Anspruch 4, in dem die Anzeigeeinheit wenigstens ein im optischen Beobachtungsgerät angeordnetes Display (37) umfasst mit dem ein Überlagerungsbild in den optischen Strahlengang des optischen Beobachtungsgerätes eingeblendet werden kann.Optical observation device system (68) according to Claim 4 , in which the display unit comprises at least one display (37) arranged in the optical observation device with which an overlay image can be projected into the optical beam path of the optical observation device can be displayed. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 5, in dem die Anzeigeeinheit einen Monitor umfasst.Optical observation device system (68) according to one of the Claims 1 until 5 in which the display unit comprises a monitor. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 6, in dem die Visualisierungseinheit (64) zum Empfang der das Bild des Beobachtungsbereiches (1) repräsentierenden Bilddaten mit dem optischen Beobachtungsgerät (2) verbunden ist und dazu ausgelegt ist, ein Visualisierungsbild zu generieren, in dem sowohl das empfangene Bild des Beobachtungsbereiches (1) als auch die empfangenen Abstände dargestellt sind.Optical observation device system (68) according to one of the Claims 1 until 6 , in which the visualization unit (64) for receiving the image data representing the image of the observation area (1) is connected to the optical observation device (2) and is designed to generate a visualization image in which both the received image of the observation area (1) and the received distances are shown. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 7, in dem die Topografie-Erfassungseinheit (60) einen stereoskopischen Sensor und/oder einen Laserscanner und/oder einen Sensor zur Laufzeitmessung von Lichtpulsen und/oder eine Vorrichtung zur strukturierten Beleuchtung umfasst und/oder auf einem DFD-Verfahren, und/oder auf einem SFM-Verfahren und/oder auf einem SLAM-Verfahren beruht.Optical observation device system (68) according to one of the Claims 1 until 7 in which the topography detection unit (60) comprises a stereoscopic sensor and/or a laser scanner and/or a sensor for measuring the time of flight of light pulses and/or a device for structured illumination and/or is based on a DFD method, and/or on an SFM method and/or on a SLAM method. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 8, in dem die Registrierungseinheit (61) Teil eines Navigationsgerätes ist.Optical observation device system (68) according to one of the Claims 1 until 8th in which the registration unit (61) is part of a navigation device. Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 9, in dem die Visualisierungseinheit (64) dazu ausgelegt ist, die empfangenen Abstände im Visualisierungsbild als Tiefenlinien darzustellen, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches (1) repräsentieren.Optical observation device system (68) according to one of the Claims 1 until 9 in which the visualization unit (64) is designed to display the received distances in the visualization image as depth lines, each representing a specific depth below the surface of the observation area (1). Optisches Beobachtungsgerätsystem (68) nach einem der Ansprüche 1 bis 9, in dem die Visualisierungseinheit (64) dazu ausgelegt ist, bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches (1) farblich und/oder in verschiedenen Graustufen zu markieren.Optical observation device system (68) according to one of the Claims 1 until 9 in which the visualization unit (64) is designed to mark certain depth ranges below the surface of the observation area (1) in color and/or in different shades of gray. Optisches Beobachtungsgerätsystem (68) nach einem der vorangehenden Ansprüche, in dem das optische Beobachtungsgerät ein Operationsmikroskop (2) oder ein Endoskop ist.Optical observation device system (68) according to one of the preceding claims, in which the optical observation device is a surgical microscope (2) or an endoscope. Darstellungsverfahren zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt (6) in einem mit einem optischen Beobachtungsgerät (2) beobachteten Beobachtungsbereich (1), in dem - mittels des optischen Beobachtungsgeräts (2) ein Bildes des zu Beobachtungsbereiches (1) und das Bild repräsentierenden Bilddaten erzeugt werden, - mittels einer Topografie-Erfassungseinheit (60) aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches (1) erfasst werden, - mittels einer Registrierungseinheit (61) die Bilddaten und von der Registrierungseinheit (61) empfangene Tiefenbilddaten des interessierenden Objekts (6) im Beobachtungsbereich (1) miteinander registriert werden und entsprechende Registrierungsdaten generiert werden, - mittels einer Auswertungseinheit (62) anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche des Beobachtungsbereiches (1) ermittelt werden, - mittels einer Visualisierungseinheit (64) ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und - das Visualisierungsbild mittels einer Anzeigeeinheit (60) angezeigt wird.Display method for displaying depth information about an object of interest (6) in an observation area (1) observed with an optical observation device (2), in which - an image of the observation area (1) and image data representing the image are generated by means of the optical observation device (2), - current topography data of the observation area (1) associated with the image data are recorded by means of a topography recording unit (60), - the image data and depth image data of the object of interest (6) received by the registration unit (61) in the observation area (1) are registered with one another by means of a registration unit (61) and corresponding registration data are generated, - the distances of the depth areas of the object of interest (6) recorded by the depth image data from the surface of the observation area (1) are determined by means of an evaluation unit (62) based on the topography data, the depth image data and the registration data, - a visualization image is generated by means of a visualization unit (64) in which the received distances are shown, and - the visualization image is displayed by means of a display unit (60). Darstellungsverfahren nach Anspruch 13, in dem die gesamten Tiefenbilddaten von einem Navigationsgerät für die Auswertungseinheit (62) bereitgestellt werden.Representation method according to Claim 13 in which the entire depth image data is provided by a navigation device for the evaluation unit (62). Darstellungsverfahren nach Anspruch 13, in dem das das optische Beobachtungsgerät (2) basierend auf der aktuellen Fokusebene virtuelle Tiefen in einem definierten Wertebereich an ein Navigationsgerät sendet, und das Navigationsgerät für empfangenen die virtuellen Tiefen die jeweiligen Konturen der Tiefenbilddaten an die Auswertungseinheit (62) sendet.Representation method according to Claim 13 in which the optical observation device (2) sends virtual depths in a defined value range to a navigation device based on the current focal plane, and the navigation device sends the respective contours of the depth image data to the evaluation unit (62) for received virtual depths. Darstellungsverfahren nach einem der Ansprüche 13 bis 15, in dem die Tiefenbilddaten vor der Durchführung des Darstellungsverfahrens gewonnen werden.Representation method according to one of the Claims 13 until 15 in which the depth image data is obtained before the representation process is carried out. Darstellungsverfahren nach einem der Ansprüche 13 bis 16, in dem die empfangenen Abstände im Visualisierungsbild als Tiefenlinien dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches (1) repräsentieren, und/oder bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches (1) farblich markiert werden.Representation method according to one of the Claims 13 until 16 , in which the received distances are displayed in the visualization image as depth lines, each representing a certain depth below the surface of the observation area (1), and/or certain depth ranges below the surface of the observation area (1) are marked in color. Darstellungsverfahren nach einem der Ansprüche 13 bis 17, in dem die Visualisierungseinheit (64) ein Visualisierungsbild generiert, in dem sowohl das empfangene Bild des Beobachtungsbereiches (1) als auch die empfangenen Abstände dargestellt sind.Representation method according to one of the Claims 13 until 17 in which the visualization unit (64) generates a visualization image in which both the received image of the observation area (1) and the received distances are shown. Computerprogrammprodukt zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt (6) unter Verwendung von Bilddaten, Tiefenbilddaten und Topografiedaten des interessierenden Objekts (6), welches Anweisungen zum Durchführen der folgenden Schritte beinhaltet: - Registrieren der Bilddaten und der Tiefenbilddaten des interessierenden Objekts (6) und Generieren entsprechender Registrierungsdaten, - Ermitteln der Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche des Beobachtungsbereiches (1) anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten und - Generieren und Ausgeben eines Visualisierungsbildes, in dem die Abstände dargestellt sind.Computer program product for displaying depth information about an object of interest (6) using image data, depth image data and topography data of the object of interest (6), which includes instructions for carrying out the following steps: - registering the image data and the depth image data of the object of interest (6) and generating corresponding registration data, - determining the distances of the depth regions of the object of interest (6) captured by the depth image data from the surface of the observation area (1) based on the topography data, the depth image data and the registration data and - generating and outputting a visualization image in which the distances are shown.
DE102016117263.4A 2016-09-14 2016-09-14 Optical observation device system Active DE102016117263B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016117263.4A DE102016117263B4 (en) 2016-09-14 2016-09-14 Optical observation device system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016117263.4A DE102016117263B4 (en) 2016-09-14 2016-09-14 Optical observation device system

Publications (2)

Publication Number Publication Date
DE102016117263A1 DE102016117263A1 (en) 2018-03-15
DE102016117263B4 true DE102016117263B4 (en) 2024-05-29

Family

ID=61247125

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016117263.4A Active DE102016117263B4 (en) 2016-09-14 2016-09-14 Optical observation device system

Country Status (1)

Country Link
DE (1) DE102016117263B4 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018110641B3 (en) 2018-05-03 2019-07-25 Carl Zeiss Meditec Ag Microscopy method for imaging an object and microscope
DE102020102476B4 (en) * 2020-01-31 2024-02-08 Carl Zeiss Meditec Ag Method for marking an area of a tumor
DE102020129739B4 (en) 2020-11-11 2023-03-02 Karl Storz Se & Co. Kg Endoscopic and/or exoscopic imaging device for spectral imaging, endoscope and/or exoscope with an imaging device
CN113936063A (en) * 2020-12-30 2022-01-14 诡谷子人工智能科技(深圳)有限公司 Double-light-path imaging device, image depth detection method and storage medium
AT526091B1 (en) * 2022-12-06 2023-11-15 Swarovski Optik Ag & Co Kg Long-range optical device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025979A1 (en) 1994-03-24 1995-09-28 Philips Electronics N.V. Operating microscope
US20010027272A1 (en) 1999-03-30 2001-10-04 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
WO2003105709A1 (en) 2002-06-13 2003-12-24 Möller-Wedel GmbH Method and instrument for surgical navigation
DE102005050918A1 (en) 2005-10-24 2007-01-11 Siemens Ag Apparatus for monitoring microsurgery especially neurosurgery using an operation microscope
DE102006017003A1 (en) 2006-04-11 2007-10-18 Friedrich-Alexander-Universität Erlangen-Nürnberg Endoscope for depth data acquisition in e.g. medical area, has modulation unit controlling light source based on modulation data so that source transmits modulated light signal and evaluation unit evaluating signal to estimate depth data
DE102011085176A1 (en) 2011-10-25 2013-04-25 Siemens Aktiengesellschaft Method for generating angiogram of blood vessel of human/animal, involves transferring position and superposition of blood vessels in three dimensional image data set into two-dimensional data to display representation of blood vessels
DE102012220115A1 (en) 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Imaging system, imaging device operating system and imaging method
DE102014210121A1 (en) 2014-05-27 2015-08-27 Carl Zeiss Meditec Ag Surgical microscope and image-guided surgery system and method for their operation
DE102014107443A1 (en) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Microscope system with depth preview

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995025979A1 (en) 1994-03-24 1995-09-28 Philips Electronics N.V. Operating microscope
US20010027272A1 (en) 1999-03-30 2001-10-04 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
WO2003105709A1 (en) 2002-06-13 2003-12-24 Möller-Wedel GmbH Method and instrument for surgical navigation
DE102005050918A1 (en) 2005-10-24 2007-01-11 Siemens Ag Apparatus for monitoring microsurgery especially neurosurgery using an operation microscope
DE102006017003A1 (en) 2006-04-11 2007-10-18 Friedrich-Alexander-Universität Erlangen-Nürnberg Endoscope for depth data acquisition in e.g. medical area, has modulation unit controlling light source based on modulation data so that source transmits modulated light signal and evaluation unit evaluating signal to estimate depth data
DE102011085176A1 (en) 2011-10-25 2013-04-25 Siemens Aktiengesellschaft Method for generating angiogram of blood vessel of human/animal, involves transferring position and superposition of blood vessels in three dimensional image data set into two-dimensional data to display representation of blood vessels
DE102012220115A1 (en) 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Imaging system, imaging device operating system and imaging method
DE102014210121A1 (en) 2014-05-27 2015-08-27 Carl Zeiss Meditec Ag Surgical microscope and image-guided surgery system and method for their operation
DE102014107443A1 (en) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Microscope system with depth preview

Also Published As

Publication number Publication date
DE102016117263A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
DE102016117263B4 (en) Optical observation device system
US10274714B2 (en) Surgical microscope for generating an observation image of an object region
EP2950130A1 (en) Microscope system with depth preview
DE102008018636B4 (en) Device and method for endoscopic 3D data acquisition
EP1333306B1 (en) Method and system for stereoscopic microscopy
DE102017108371B4 (en) Medical optical display system and method for operating the same
DE102015103426B4 (en) Microscope system and method for automated alignment of a microscope
WO2014060412A1 (en) Stereoscopic imaging system
DE102004061875A1 (en) Device for diagnostic support
DE102017105941B3 (en) Surgical microscope with an image sensor and a display and method for operating a surgical microscope
CH693619A5 (en) Image-representative device and method for displaying image.
DE10027166A1 (en) Stereo-optical microscope for use in delicate surgical operations has CCD optical system that enables image of view seen by surgeon using microscope to be displayed on screen in theatre or remotely
DE102007054450A1 (en) Image providing device for surgeon, has common camera i.e. digital camera, provided for image acquisition of operation field and for determining camera position and orientation by navigation system
DE102013009817B4 (en) Microscopy system for observation of fluorescence in ophthalmology
DE102018106651A1 (en) Visualization system and method for generating holographic representations from optical signals
DE102014114013B4 (en) Medical optical observation device and method for contrasting polarization-rotating tissue
DE102014103044A1 (en) Surgical assistance system
DE102017110816A1 (en) An optical observation apparatus and method for efficiently performing an automatic focusing algorithm
DE102018110806A1 (en) Surgical microscope with a lighting device
DE102015100765A1 (en) Surgical microscope and method for highlighting Augenlinsenstücken
DE3623394C2 (en) Surgical microscope
DE69708334T2 (en) IN SITU OPTICAL INFORMATION SYSTEM
WO2021219473A1 (en) Medical optical system, data processing system, computer program, and non-volatile computer-readable storage medium
DE102018123781B4 (en) Method for performing shading correction and observation optical system
DE102016100566B4 (en) Assistance system for a medical optical observation device and method for improving the visibility of a blood leakage site in an image obtained with a medical optical observation device and medical optical observation device system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division