DE102016117263B4 - Optical observation device system - Google Patents
Optical observation device system Download PDFInfo
- Publication number
- DE102016117263B4 DE102016117263B4 DE102016117263.4A DE102016117263A DE102016117263B4 DE 102016117263 B4 DE102016117263 B4 DE 102016117263B4 DE 102016117263 A DE102016117263 A DE 102016117263A DE 102016117263 B4 DE102016117263 B4 DE 102016117263B4
- Authority
- DE
- Germany
- Prior art keywords
- depth
- image data
- data
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 79
- 238000012800 visualization Methods 0.000 claims abstract description 64
- 238000012876 topography Methods 0.000 claims abstract description 37
- 238000011156 evaluation Methods 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 29
- 238000005286 illumination Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 206010028980 Neoplasm Diseases 0.000 description 47
- 210000001519 tissue Anatomy 0.000 description 32
- 238000003325 tomography Methods 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000003211 malignant effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000002271 resection Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000004020 luminiscence type Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000007850 fluorescent dye Substances 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 210000002023 somite Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/18—Arrangements with more than one light path, e.g. for comparing two specimens
- G02B21/20—Binocular arrangements
- G02B21/22—Stereoscopic arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Optisches Beobachtungsgerätsystem (68), mit:- einem optischen Beobachtungsgerät (2) zum Erzeugen eines Bildes eines Beobachtungsbereiches (1) mit einem interessierenden Objekt (6) und von das Bild repräsentierenden Bilddaten;- eine Schnittstellenanordnung (63) mit einem Datenausgang (63A) zum Ausgeben der Bilddaten an eine Registrierungseinheit (61), welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren, einem Dateneingang (63B) zum Empfang der Tiefenbilddaten des interessierenden Objekts (6), zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit (60) sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit (61);- eine Auswertungseinheit (62), die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts (6) von der Oberfläche (12) des Beobachtungsbereiches (1) zu ermitteln und die ermittelten Abstände auszugeben,- einer mit der Auswertungseinheit (62) zum Empfang der Abstände verbundene Visualisierungseinheit (64), wobei die Visualisierungseinheit (64) dazu ausgebildet ist, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind, und das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit (37, 65, 67) auszugeben.Optical observation device system (68), with:- an optical observation device (2) for generating an image of an observation area (1) with an object of interest (6) and image data representing the image;- an interface arrangement (63) with a data output (63A) for outputting the image data to a registration unit (61), which generates registration data representing a registration of depth image data with the image data, a data input (63B) for receiving the depth image data of the object of interest (6), for receiving topography data associated with the image data from a topography detection unit (60) and for receiving the registration data from the registration unit (61);- an evaluation unit (62) which is designed to use the topography data, the depth image data and the registration data to determine the distances of the depth regions of the object of interest (6) recorded by the depth image data from the surface (12) of the observation area (1) and to output the determined distances,- a data input (63B) connected to the evaluation unit (62) a visualization unit (64) connected to receive the distances, wherein the visualization unit (64) is designed to generate a visualization image in which the received distances are shown and to output the visualization image for display on a display unit (37, 65, 67).
Description
Die vorliegende Erfindung betrifft ein Optisches Beobachtungsgerätsystem, beispielsweise ein Operationsmikroskop-System, und insbesondere ein Operationsmikroskop-System für neurochirurgische Anwendungen. Die Erfindung betrifft weiterhin ein Darstellungsverfahren zum Darstellen von Tiefeninformationen, beispielsweise in einem Operationsmikroskop, insbesondere in einem Operationsmikroskop für neurochirurgische Anwendungen.The present invention relates to an optical observation device system, for example a surgical microscope system, and in particular to a surgical microscope system for neurosurgical applications. The invention further relates to a display method for displaying depth information, for example in a surgical microscope, in particular in a surgical microscope for neurosurgical applications.
Eine Tumorresektion mittels Operationsmikroskop stellt eine generelle Herausforderung in der Chirurgie dar. Insbesondere bei der Resektion in funktionalen Gebieten muss die exakte dreidimensionale Morphologie des Tumors für den Chirurgen bekannt sein, um eine möglichst exakte Schnittgrenze zwischen funktionalem Gewebe und malignem Gewebe während einer Intervention wählen zu können.Tumor resection using a surgical microscope represents a general challenge in surgery. Especially when resectioning in functional areas, the surgeon must know the exact three-dimensional morphology of the tumor in order to be able to choose the most precise cutting boundary between functional tissue and malignant tissue during an intervention.
Mit aktuell verfügbaren Navigationslösungen wird der Tumorrand, welcher basierend auf prä-operativen Daten berechnet wird, beispielsweise aus MRI-Untersuchungen, nur für die aktuelle Fokusebene bzw. Fokusschicht bzw. einzelne benachbarte Schichten durch das Okular im Operationsmikroskop angezeigt.With currently available navigation solutions, the tumor margin, which is calculated based on pre-operative data, for example from MRI examinations, is only displayed for the current focal plane or focal layer or individual adjacent layers through the eyepiece in the surgical microscope.
Für eine bessere Darstellung und Erkennung der dreidimensionalen Tumormorphologie muss der Chirurg eine entsprechende Morphologie entweder aus dem Gedächtnis abrufen oder er muss während der Intervention seinen gewohnten Blick durch das Okular des Operationsmikroskops aufgeben, um eine externe Visualisierungseinheit zu betrachten. Sowohl die vorab gelernte Morphologie als auch der kurzzeitige Blick an eine externe Visualisierungseinheit stellen Risiken für den Patienten dar, da der Operationsfluss unterbrochen wird.For a better representation and recognition of the three-dimensional tumor morphology, the surgeon must either recall the corresponding morphology from memory or give up his usual view through the eyepiece of the surgical microscope during the intervention in order to look at an external visualization unit. Both the previously learned morphology and the brief look at an external visualization unit pose risks for the patient because the flow of the operation is interrupted.
Aus
Aus
Aus
Aus
Aus
Die
Die
Die beschreibt
Es ist Aufgabe der vorliegenden Erfindung ein vorteilhaftes optisches Beobachtungsgerätsystem und ein vorteilhaftes Darstellungsverfahren zum Darstellen von Tiefeninformationen zur Verfügung zu stellen.It is an object of the present invention to provide an advantageous optical observation device system and an advantageous display method for displaying depth information.
Die oben genannte Aufgabe der vorliegenden Erfindung wird durch ein optisches Beobachtungsgerätsystem nach Patentanspruch 1 und durch ein Darstellungsverfahren nach Patentanspruch 13 gelöst. Die abhängigen Ansprüche enthalten weitere, vorteilhafte Ausgestaltungen der Erfindung.The above-mentioned object of the present invention is achieved by an optical observation device system according to claim 1 and by a display method according to claim 13. The dependent claims contain further advantageous embodiments of the invention.
Ein erfindungsgemäßes optisches Beobachtungsgerätsystem umfasst:
- - Ein optisches Beobachtungsgerät zum Erzeugen eines Bildes eines Beobachtungsbereiches mit einem interessierenden Objekt und von das Bild repräsentierenden Bilddaten.
- - Eine Schnittstellenanordnung mit einem Datenausgang zum Ausgeben der Bilddaten an eine Registrierungseinheit, welche Registrierungsdaten generiert, die eine Registrierung von Tiefenbilddaten mit den Bilddaten repräsentieren.
- - An optical observation device for producing an image of an observation area including an object of interest and image data representing the image.
- - An interface arrangement with a data output for outputting the image data to a registration unit which generates registration data representing a registration of depth image data with the image data.
Als Tiefenbilddaten kommen bspw. mittels Magnetresonanztomografie (MRT), Computertomografie (CT), Positronen-Emissions-Tomografie (PET) oder anderer Tomografieverfahren gewonnene 3D-Bilder des interessierenden Objekts oder aus solchen 3D-Bildern für das interessierende Objekt gewonnene Tiefendaten in Betracht.Depth image data can be, for example, 3D images of the object of interest obtained using magnetic resonance imaging (MRI), computed tomography (CT), positron emission tomography (PET) or other tomography methods, or depth data obtained from such 3D images for the object of interest.
Die Registrierungseinheit kann Teil des optischen Beobachtungsgerätesystems sein, oder sie kann eine externe Registrierungseinheit sein, bspw. als Teil eines externen Navigationssystems. Sie ist zum Empfang des mit dem optischen Beobachtungsgerät erzeugten Bildes mit dem Datenausgang verbunden und dazu ausgebildet, die Tiefenbilddaten und das mit dem optischen Beobachtungsgerät erzeugte Bild miteinander zu registrieren und entsprechende Registrierungsdaten auszugeben. Im Rahmen einer Bildregistrierung wird eines der zu registrierenden Bilder als Referenzbild herangezogen und das andere Bild mittels einer Transformation in seiner Position und Orientierung (rigide Transformation) und/oder in seiner Skalierung (nicht-rigide Transformation) derart an das Referenzbild angepasst, dass eine bestmögliche Übereinstimmung der Bildinhalte erreicht wird. Auch wenn Bewegungen des interessierenden Objekts oder innerhalb des interessierenden Objekts vorkommen können (wie beispielsweise der sog. Brainshift, falls es sich bei dem interessierenden Objekt um einen Gehirnabschnitt handelt) ist es vorteilhaft, die Registrierung anhand einer nicht-rigiden Transformation vorzunehmen. Beispielsweise können für die Berücksichtigung des Brainshifts Markierungselemente (sog. Fiducial Markers) auf den betreffenden Gehirnabschnitt aufgebracht werden, die sowohl in den Tiefenbilddaten als auch in den Bilddaten abgebildet sind. Im Rahmen einer nicht rigiden Registrierung können die in den Tiefenbilddaten abgebildeten Markierungselemente dann mit den in den Bilddaten abgebildeten Markierungselementen zur Deckung gebracht werden.The registration unit can be part of the optical observation device system, or it can be an external registration unit, e.g. as part of an external navigation system. It is connected to the data output to receive the image generated with the optical observation device and is designed to register the depth image data and the image generated with the optical observation device with each other and to output corresponding registration data. As part of an image registration, one of the images to be registered is used as a reference image and the other image is adapted to the reference image by means of a transformation in its position and orientation (rigid transformation) and/or in its scaling (non-rigid transformation) in such a way that the best possible match of the image contents is achieved. Even if movements of the object of interest or within the object of interest can occur (such as the so-called brain shift if the object of interest is a section of the brain), it is advantageous to carry out the registration using a non-rigid transformation. For example, to take the brain shift into account, marker elements (so-called fiducial markers) can be applied to the relevant brain section, which are shown in both the depth image data and the image data. As part of a non-rigid registration, the marker elements shown in the depth image data can then be made to coincide with the marker elements shown in the image data.
Außerdem umfasst die Schnittstellenanordnung einen Dateneingang zum Empfang der Tiefenbilddaten des interessierenden Objekts, zum Empfang von den Bilddaten zugeordneten Topografiedaten von einer Topografie-Erfassungseinheit sowie zum Empfang der Registrierungsdaten von der Registrierungseinheit. Der Dateneingang kann dabei durch einen einzigen, zum Empfang all der genannten Daten genutzten Dateneingang realisiert sein oder durch getrennte Dateneingänge, wobei jeder Dateneingang nur bestimmte der genannten Daten empfängt.In addition, the interface arrangement comprises a data input for receiving the depth image data of the object of interest, for receiving topography data associated with the image data from a topography detection unit and for receiving the registration data from the registration unit. The data input can be implemented by a single data input used to receive all of the aforementioned data or by separate data inputs, with each data input only receiving certain of the aforementioned data.
Die Topografie-Erfassungseinheit kann Teil des optischen Beobachtungsgerätesystems sein oder als ein externes Gerät ausgeführt sein. Sie kann bspw. einen stereoskopischen Sensor und/oder einen Laserscanner und/oder einen Sensor zur Laufzeitmessung von Lichtpulsen, etwa eine Time-of-Flight-Kamera (TOF-Kamera), und/oder eine Vorrichtung zur strukturierten Beleuchtung umfassen. Wenn die Topografie-Erfassungseinheit Teil des optischen Beobachtungsgerätesystems ist, kann der stereoskopische Sensor zum Beispiel zwei in das optische Beobachtungsgerät integrierte Kameras umfassen. Die Topografie-Erfassungseinheit kann aber auch auf einem der folgenden Topografieverfahren beruhen: DFD (depth from defocus), in dem aus dem Grad der Defokussierung auf den Abstand von der Fokusebene geschlossen wird, SFM (structure from motion), SLAM (simultaneous localization and mapping).The topography detection unit can be part of the optical observation device system or be designed as an external device. It can, for example, comprise a stereoscopic sensor and/or a laser scanner and/or a sensor for measuring the time of flight of light pulses, such as a time-of-flight camera (TOF camera), and/or a device for structured illumination. If the topography detection unit is part of the optical observation device system, the stereoscopic sensor can, for example, comprise two cameras integrated into the optical observation device. The topography detection unit can, however, also be based on one of the following topography methods: DFD (depth from defocus), in which the distance from the focal plane is determined from the degree of defocus, SFM (structure from motion), SLAM (simultaneous localization and mapping).
Außerdem umfasst ein erfindungsgemäßes optisches Beobachtungsgerätsystem:
- - Eine Auswertungseinheit, die dazu ausgebildet ist, anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches zu ermitteln und die ermittelten Abstände auszugeben. Es werden somit relative Abstände ermittelt und ausgegeben. Die Auswertungseinheit kann eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung (ASIC, Application Specific Integrated Circuit), oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft.
- - Eine mit der Auswertungseinheit zum Empfang der Abstände verbundene Visualisierungseinheit. Die Visualisierungseinheit ist dazu ausgebildet, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände dargestellt sind. Außerdem ist die Visualisierungseinheit dazu ausgebildet, das Visualisierungsbild zur Anzeige auf einer Anzeigeeinheit auszugeben. Die Anzeigeeinheit kann dabei Teil des optischen Beobachtungsgerätesystems oder eine externe Anzeigeeinheit sein.
- - An evaluation unit which is designed to use the topography data, the depth image data and the registration data to determine the distances of the depth areas of the object of interest recorded by the depth image data from the surface of the observation area and to output the determined distances. Relative distances are thus determined and output. The evaluation unit can be a unit specially designed for the described purpose, for example in the form of an application-specific integrated circuit (ASIC), or in the form of software which runs on a processor of the optical observation device system or on a computer, for example on a commercially available PC.
- - A visualization unit connected to the evaluation unit for receiving the distances. The visualization unit is designed to generate a visualization image in which the received distances are shown. In addition, the visualization unit is designed to output the visualization image for display on a display unit. The display unit can be part of the optical observation device system or an external display unit.
Die Visualisierungseinheit kann wie die Auswertungseinheit eine speziell für den beschrieben Zweck konstruierte Einheit sein bspw. in Form einer anwendungsspezifischen integrierten Schaltung oder in Form von Software, die auf einem Prozessor des optischen Beobachtungsgerätsystems oder auf einem Computer, bspw. auf einem handelsüblichen PC, läuft. Insbesondere können die Software für die Auswertungseinheit und die Software für die Visualisierungseinheit auf demselben Prozessor oder Computer laufen. Grundsätzlich kann die Visualisierung der Abstände sowohl als transparente als auch als opake Überlagerung erfolgen. Die Abstände können auch lediglich lokal begrenzt angezeigt werden, um das Sichtfeld der untersuchenden Person, beispielsweise eines Operateurs, nicht unnötig zu beschränken.The visualization unit, like the evaluation unit, can be a unit specially designed for the described purpose, e.g. in the form of an application-specific integrated circuit or in the form of software that runs on a processor of the optical observation device system or on a computer, e.g. on a standard PC. In particular, the software for the evaluation unit and the software for the visualization unit can run on the same processor or computer. In principle, the visualization of the distances can be done either as a transparent or as an opaque overlay. The distances can also be displayed only locally so as not to unnecessarily restrict the field of view of the person examining, e.g. an operator.
Das Anzeigen des Visualisierungsbildes kann bspw. im Einblick des optischen Beobachtungsgerätes erfolgen. Falls der Einblick von wenigstens einem Okular gebildet wird, kann die Anzeigeeinheit wenigstens ein im optischen Beobachtungsgerät angeordnetes Display, mit dem ein Überlagerungsbild in den optischen Strahlengang des optischen Beobachtungsgerätes eingeblendet werden kann, umfassen. Das Visualisierungsbild braucht dann nur die Abstände darzustellen und als Überlagerungsbild in den Strahlengang eingeblendet zu werden. Im Okular sind dem Bild des Beobachtungsobjekts dann die Abstände überlagert. Wenn die Darstellung in einem elektronischen Einblick des optischen Beobachtungsgeräts oder auf einem externen Display erfolgen soll, kann die Visualisierungseinheit zum Empfang der das Bild des Beobachtungsbereiches repräsentierenden Bilddaten auch mit dem optischen Beobachtungsgerät verbunden sein. Außerdem kann sie dann dazu ausgelegt sein, ein Visualisierungsbild zu generieren, in dem sowohl das empfangene Bild des Beobachtungsbereiches als auch die empfangenen Abstände dargestellt sind. Mit anderen Worten, es kann eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände erfolgen. Das auf diese Weise sowohl die Bilddaten als auch die Abstände darstellende Visualisierungsbild kann dann in einem elektronischen Einblick oder in einem externen Display des optischen Beobachtungsgerätes, etwa einem Head Mounted Display (HMD), als Anzeigeeinheit dargestellt werden.The visualization image can be displayed, for example, in the view of the optical observation device. If the view is formed by at least one eyepiece, the display unit can comprise at least one display arranged in the optical observation device, with which an overlay image can be displayed in the optical beam path of the optical observation device. The visualization image then only needs to show the distances and be displayed as an overlay image in the beam path. The distances are then superimposed on the image of the object being observed in the eyepiece. If the display is to take place in an electronic view of the optical observation device or on an external display, the visualization unit can also be connected to the optical observation device to receive the image data representing the image of the observation area. In addition, it can then be designed to generate a visualization image in which both the received image of the observation area and the received distances are displayed. In other words, an electronic overlay of the image data and the received distances can take place. The visualization image, which represents both the image data and the distances in this way, can then be displayed as a display unit in an electronic viewfinder or in an external display of the optical observation device, such as a head-mounted display (HMD).
Bei dem optischen Beobachtungsgerät kann es sich bspw. um ein Operationsmikroskop oder ein Endoskop handeln, bei dem Beobachtungsbereich dann beispielsweise um Gewebe, insbesondere Gewebe mit einem Tumor als interessierendem Objekt. Die Registrierungseinheit dient dann dazu, bspw. präoperativ (etwa mittels CT oder MRT) von dem Tumor gewonnene Tiefenbilddaten und das mit dem Operationsmikroskop oder Endoskop erzeugte Bild miteinander zu registrieren und so die Tiefenbilddaten des Tumors auf den aktuellen Beobachtungsbereich bzw. die aktuelle Operationsszene zu registrieren. The optical observation device can be, for example, a surgical microscope or an endoscope, and the observation area can then be tissue, in particular tissue with a tumor as the object of interest. The registration unit is then used to register, for example, depth image data obtained from the tumor preoperatively (e.g. using CT or MRI) and the image created with the surgical microscope or endoscope, and thus to register the depth image data of the tumor to the current observation area or the current surgical scene.
Das oben in Zusammenhang mit Tumorresektion beschriebene Problem der unzureichenden Visualisierungsmöglichkeit eines Tumors während eines operativen Eingriffs kann mit Hilfe des mit einem Operationsmikroskop oder einem Endoskop als optischem Beobachtungsgerät ausgestatteten erfindungsgemäßen optisches Beobachtungsgerätsystems durch eine Darstellung der Abstände im Visualisierungsbild gelöst werden. So kann die gesamte Morphologie des Tumors beispielsweise in Form von Tiefenlinien (insbesondere Iso-Tiefenlinien, sog. Isobathen) dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren und damit einen relativen Abstand zur Oberfläche. Die Visualisierungseinheit ist dann dazu ausgelegt, die empfangenen Abstände im Visualisierungsbild als Tiefenlinien darzustellen, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Die Tiefenlinien können dann bspw. direkt in das optische Beobachtungsgerät, etwa in das Okular eines Operationsmikroskops, eingeblendet werden, wobei die Linien durchgezogen, gestrichelt, punktiert oder in einer beliebigen Kombination davon dargestellt werden können. Zusätzlich oder alternativ kann die Visualisierungseinheit dazu ausgelegt sein, bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich und/oder in verschiedenen Graustufen zu markieren. So können bspw. zur besseren Unterscheidung einzelne charakteristische Tiefenbereiche farblich oder durch unterschiedliche Graustufen codiert werden.The problem of the inadequate visualization of a tumor during a surgical procedure described above in connection with tumor resection can be solved with the aid of the optical observation device system according to the invention equipped with a surgical microscope or an endoscope as an optical observation device by displaying the distances in the visualization image. The entire morphology of the tumor can thus be displayed, for example, in the form of depth lines (in particular iso-depth lines, so-called isobaths), each of which represents a specific depth below the surface of the observation area and thus a relative distance to the surface. The visualization unit is then designed to display the received distances in the visualization image as depth lines, each of which represents a specific depth below the surface of the observation area. The depth lines can then be displayed directly in the optical observation device, for example in the eyepiece of a surgical microscope, whereby the lines can be displayed as solid, dashed, dotted or in any combination thereof. Additionally or alternatively, the visualization unit can be designed to mark certain depth ranges below the surface of the observation area in color and/or in different shades of gray. For example, individual characteristic depth ranges can be coded in color or with different shades of gray for better differentiation.
Bei Verwendung der Erfindung muss der Chirurg seinen gewohnten Blick durch das Okular des Operationsmikroskops nicht aufgeben, um die Tiefen des Tumors unter der Gewebeoberfläche zu erfahren. Er muss sich auch nicht auf eine vorab gelernte Morphologie verlassen. Dies verbessert den Operationsfluss und reduziert die oben Risiken für den Patienten. Denkbar ist auch jegliche Form einer Überblendung von Tiefenlinien bzw. opaker Darstellung mit der aktuellen Operationsszene bzw. dem Beobachtungsbereich um ein realistisches „Look-and-Feel“ zu ermöglichen. Vorteilhafterweise können für sichtbare bzw. für nicht sichtbare Bereiche des Beobachtungsbereiches unterschiedliche Visualisierungsparameter gewählt werden.When using the invention, the surgeon does not have to give up his usual view through the eyepiece of the surgical microscope in order to experience the depths of the tumor beneath the tissue surface. He also does not have to rely on a previously learned morphology. This improves the flow of the operation and reduces the above-mentioned risks for the patient. Any form of blending of depth lines or opaque representation with the current surgical scene or the observation area is also conceivable in order to enable a realistic "look and feel". Advantageously, different visualization parameters can be selected for visible and non-visible areas of the observation area.
Insgesamt hat das erfindungsgemäße optisches Beobachtungsgerätsystem den Vorteil, dass es eine verbesserte Darstellung der Gesamtmorphologie eines Beobachtungsobjektes innerhalb eines Beobachtungsbereichs, beispielsweise eine verbesserte Darstellung der Gesamtmorphologie von malignem Gewebe innerhalb einer Operationsszene, ermöglicht.Overall, the optical observation device system according to the invention has the advantage that it enables an improved representation of the overall morphology of an observation object within an observation area, for example an improved representation of the overall morphology of malignant tissue within a surgical scene.
Erfindungsgemäß wird außerdem Darstellungsverfahren zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt in einem mit einem optischen Beobachtungsgerät beobachteten Beobachtungsbereich, bspw. eines Gewebebereiches mit einem Tumor als interessierendem Objekt, zur Verfügung gestellt, in dem
- - mittels des optischen Beobachtungsgeräts, das bspw. ein Operationsmikroskop oder ein Endoskop sein kann, ein Bildes des Beobachtungsbereiches und das Bild repräsentierenden Bilddaten erzeugt werden,
- - mittels einer Topografie-Erfassungseinheit aktuelle, den Bilddaten zugeordnete Topografiedaten des Beobachtungsbereiches erfasst werden,
- - mittels einer Registrierungseinheit, die zur rigiden oder nicht rigiden Registrierung ausgelegt sein kann, die Bilddaten und von der Registrierungseinheit empfangene Tiefenbilddaten des interessierenden Objekts miteinander registriert werden und entsprechende Registrierungsdaten generiert werden,
- - mittels einer Auswertungseinheit anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten die Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches ermittelt werden,
- - mittels einer Visualisierungseinheit ein Visualisierungsbild generiert wird, in dem die empfangenen Abstände dargestellt sind, und
- - das Visualisierungsbild mittels einer Anzeigeeinheit angezeigt wird.
- - an image of the observation area and image data representing the image are generated by means of the optical observation device, which can be, for example, a surgical microscope or an endoscope,
- - using a topography acquisition unit, current topography data of the observation area associated with the image data are recorded,
- - by means of a registration unit, which can be designed for rigid or non-rigid registration, the image data and depth image data of the object of interest received by the registration unit are registered with each other and corresponding registration data are generated,
- - using an evaluation unit based on the topography data, the depth image data and the registration data, the distances of the depth areas of the object of interest recorded by the depth image data from the surface of the observation area are determined,
- - a visualization image is generated by means of a visualization unit in which the received distances are shown, and
- - the visualization image is displayed by means of a display unit.
Die empfangenen Abstände können im Visualisierungsbild als bspw. als Tiefenlinien dargestellt werden, die jeweils eine bestimmte Tiefe unterhalb der Oberfläche des Beobachtungsbereiches repräsentieren. Außerdem können bestimmte Tiefenbereiche unterhalb der Oberfläche des Beobachtungsbereiches farblich markiert werden. Bspw. können solche Bereiche, die zwischen zwei benachbarten Tiefenlinien liegen, eingefärbt werden.The received distances can be shown in the visualization image as depth lines, for example, each of which represents a certain depth below the surface of the observation area. In addition, certain depth ranges below the surface of the observation area can be marked in color. For example, areas that lie between two neighboring depth lines can be colored.
Das Visualisierungsbild kann bspw. mittels wenigstens eines Displays in den Strahlengang des optischen Beobachtungsgerätes eingeblendet werden, so dass im Okular dem Bild des Beobachtungsbereiches die Abstandsinformationen über die Abstände verschiedener Bereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches überlagert sind. Die Visualisierung im Okular des Operationsmikroskops kann zum Beispiel als perspektivisch korrekte Überlagerung oder als Bild im Bild (PiP - Picture in Picture) am Rande des Sichtfeldes, um das Verdecken von relevanten Bildinformationen zu minimieren, erfolgen. Die Visualisierungseinheit kann aber auch ein Visualisierungsbild generieren, in dem sowohl das Bild des Beobachtungsbereiches als auch die Abstände dargestellt sind, so dass eine elektronische Überlagerung der Bilddaten und der empfangenen Abstände in einem elektronischen Einblick des optischen Beobachtungsgerätes oder einem externen Display, bspw. einem HMD, dargestellt werden können.The visualization image can, for example, be displayed in the beam path of the optical observation device using at least one display, so that the distance information about the distances of different areas of the object of interest from the surface of the observation area is superimposed on the image of the observation area in the eyepiece. The visualization in the eyepiece of the surgical microscope can, for example, be carried out as a perspective-correct overlay or as a picture in a picture (PiP - Picture in Picture) at the edge of the field of view in order to minimize the covering of relevant image information. The visualization unit can also generate a visualization image in which both the image of the observation area and the distances are shown, so that an electronic overlay of the image data and the received distances can be shown in an electronic view of the optical observation device or an external display, e.g. an HMD.
In dem Darstellungsverfahren können die Tiefenbilddaten bspw. mittels eines Tomografieverfahrens gewonnen werden. Außerdem können die Tiefenbilddaten vor der Durchführung des Darstellungsverfahrens gewonnen werden. Falls das Darstellungsverfahren im Rahmen einer Operation zum Einsatz kommt können die Tiefenbilddaten also bspw. mittels des Tomografieverfahrens präoperativ gewonnen werden.In the display process, the depth image data can be obtained using a tomography process, for example. The depth image data can also be obtained before the display process is carried out. If the display process is used as part of an operation, the depth image data can be obtained preoperatively using the tomography process, for example.
Zum Registrieren der Bilddaten mit den Tiefenbilddaten kann im Rahmen des Darstellungsverfahren entweder eine eigens zur Durchführung des Verfahrens zur Verfügung gestellte Registrierungseinheit Verwendung finden oder eine externe Registrierungseinheit wie bspw. eine Registrierungseinheit eines Navigationssystems.To register the image data with the depth image data, either a registration unit provided specifically for carrying out the process or an external registration unit such as a registration unit of a navigation system can be used within the scope of the display process.
Das erfindungsgemäße Darstellungsverfahren kann mit Hilfe des zuvor beschriebenen erfindungsgemäßen optischen Beobachtungsgerätsystems durchgeführt werden. Es hat somit grundsätzlich die Vorteile wie das zuvor beschriebene erfindungsgemäße optische Beobachtungsgerätsystem. Durch die Miteinbeziehung aktueller Topografieinformationen können die Tiefeninformationen sowie deren Visualisierung den aktuellen Gegebenheiten angepasst werden. Außerdem können, falls das optische Beobachtungsgerät ein Operationsmikroskop oder ein Endoskop und der Beobachtungsbereich mit dem interessierenden Objekt ein Gewebebereich mit einem Tumor ist, intraoperative Bilddaten dazu verwendet werden, eine mögliche geographische Abweichung von prä- und intraoperativen Daten für die Visualisierung der Tiefeninformationen zu kompensieren. Dazu können verschiedene Bildverarbeitungsalgorithmen und/oder verschiedene Beleuchtungsmodi und/oder Marker, z.B. Kontrastmittel, zum Einsatz kommen.The display method according to the invention can be carried out using the optical observation device system according to the invention described above. It therefore basically has the same advantages as the optical observation device system according to the invention described above. By including current topography information, the depth information and its visualization can be adapted to the current conditions. In addition, if the optical observation device is a surgical microscope or an endoscope and the observation area with the object of interest is a tissue area with a tumor, intraoperative image data can be used to compensate for a possible geographical deviation from pre- and intraoperative data for the visualization of the depth information. Various image processing algorithms and/or different lighting modes and/or markers, e.g. contrast agents, can be used for this purpose.
Grundsätzlich können die Tiefenbilddaten mit Hilfe eines Navigationsgerätes gewonnen werden. Konkret können die Tiefeninformationen mittels MRI (Magnetresonanztomografie), CT (Computertomografie) oder Ähnlichem erfasst werden. Das Navigationsgerät kann die Daten segmentieren, also beispielsweise in einem Gewebebereich Knochen oder Tumorgewebe zuordnen, und kann sie entweder als Rohdaten oder bereits rechnerisch auf die optische Achse des optischen Beobachtungsgeräts korrigiert liefern. In einer Ausprägung davon stellt das Navigationsgerät die gesamten Tiefenbilddaten des Beobachtungsbereiches über eine Schnittstelle für die Auswertungseinheit bereit. In einer anderen Ausprägung sendet das optische Beobachtungsgerät basierend auf der aktuellen Fokusebene „virtuelle Tiefen“ (Abstand des verstellbaren Bildfokus relativ zum optischen Beobachtungsgerät) in einem definierten Wertebereich an das Navigationsgerät. Diese sendet dann für die empfangenen virtuellen Tiefen die jeweilige Kontur der Tiefenbilddaten an die Auswertungseinheit.In principle, the depth image data can be obtained using a navigation device. Specifically, the depth information can be recorded using MRI (magnetic resonance imaging), CT (computer tomography) or similar. The navigation device can segment the data, for example assigning bone or tumor tissue to a tissue area, and can deliver it either as raw data or already mathematically corrected to the optical axis of the optical observation device. In one form of this, the navigation device provides the entire depth image data of the observation area via an interface for the evaluation unit. In another variant, the optical observation device sends "virtual depths" (distance of the adjustable image focus relative to the optical observation device) in a defined range of values to the navigation device based on the current focus plane. This then sends the respective contour of the depth image data to the evaluation unit for the received virtual depths.
Die Erfindung stellt außerdem ein Computerprogrammprodukt zum Darstellen von Tiefeninformationen zu einem interessierenden Objekt unter Verwendung von Bilddaten, Tiefenbilddaten und Topografiedaten des interessierenden Objekts zur Verfügung. Das Computerprogrammprodukt beinhaltet gespeicherte Anweisungen zum Durchführen der folgenden Schritte:
- - Registrieren der Bilddaten und der Tiefenbilddaten des interessierenden Objekts und Generieren entsprechender Registrierungsdaten,
- - Ermitteln der Abstände der von den Tiefenbilddaten erfassten Tiefenbereiche des interessierenden Objekts von der Oberfläche des Beobachtungsbereiches anhand der Topografiedaten, der Tiefenbilddaten und der Registrierungsdaten und
- - Generieren und Ausgeben eines Visualisierungsbildes, in dem die Abstände dargestellt sind.
- - Registering the image data and the depth image data of the object of interest and generating corresponding registration data,
- - Determining the distances of the depth ranges of the object of interest captured by the depth image data from the surface of the observation area using the topography data, the depth image data and the registration data and
- - Generate and output a visualization image showing the distances.
Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung werden im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die beigefügten Figuren näher beschrieben. Alle bisher und im Folgenden beschriebenen Merkmale sind dabei sowohl einzeln als auch in einer beliebigen Kombination miteinander vorteilhaft. Die im Folgenden beschriebenen Ausführungsbeispiele dienen lediglich der Erläuterung der Erfindung und sollen den Gegenstand der Erfindung nicht auf die einzelnen Ausführungsbeispiele beschränken.
-
1 zeigt schematisch den Aufbau eines Operationsmikroskops. -
2 zeigt schematisch Beispiel für ein Vario-Objektiv. -
3 zeigt schematisch eine chirurgische Operationsszene mit Tiefenvorschaukarte. -
4 zeigt schematisch die chirurgische Operationsszene aus3 in einer Schnittansicht. -
5 zeigt schematisch ein Operationsmikroskop-System als ein Ausführungsbeispiel für ein erfindungsgemäßes optisches Beobachtungsgerätsystem.
-
1 shows schematically the structure of a surgical microscope. -
2 shows a schematic example of a varifocal lens. -
3 shows a schematic of a surgical operation scene with depth preview map. -
4 shows schematically the surgical operation scene from3 in a sectional view. -
5 shows schematically a surgical microscope system as an embodiment of an optical observation device system according to the invention.
Nachfolgend wird mit Bezug auf die
Das in
Beobachterseitig des Objektivs 5 ist ein Vergrößerungswechsler 11 angeordnet, der entweder wie im dargestellten Ausführungsbeispiel als Zoom-System zur stufenlosen Änderung des Vergrößerungsfaktors oder als so genannter Galilei-Wechsler zur stufenweisen Änderung des Vergrößerungsfaktors ausgebildet sein kann. In einem Zoom-System, das bspw. aus einer Linsenkombination mit drei Linsen aufgebaut ist, können die beiden objektseitigen Linsen verschoben werden, um den Vergrößerungsfaktor zu variieren. Tatsächlich kann das Zoom-System aber auch mehr als drei Linsen, bspw. vier oder mehr Linsen aufweisen, wobei die äußeren Linsen dann auch fest angeordnet sein können. In einem Galilei-Wechsler existieren dagegen mehrere feste Linsenkombinationen, die unterschiedliche Vergrößerungsfaktoren repräsentieren und im Wechsel in den Strahlengang eingebracht werden können. Sowohl ein Zoom-System, als auch ein Galilei-Wechsler wandeln ein objektseitiges paralleles Strahlenbündel in ein beobachterseitiges paralleles Strahlenbündel mit einem anderen Bündeldurchmesser um. Der Vergrößerungswechsler 11 ist im vorliegenden Ausführungsbeispiel bereits Teil des binokularen Strahlengangs des Operationsmikroskops 2, d.h. er weist eine eigene Linsenkombination für jeden stereoskopischen Teilstrahlengang 9A, 9B des Operationsmikroskops 2 auf. Das Einstellen eines Vergrößerungsfaktors mittels des Vergrößerungswechslers 11 erfolgt im vorliegenden Ausführungsbeispiel über ein motorisch angetriebenes Stellglied (nicht dargestellt), das zusammen mit dem Vergrößerungswechsler 11 Teil einer Vergrößerungswechseleinheit zum Einstellen des Vergrößerungsfaktors ist.A magnification changer 11 is arranged on the observer side of the lens 5, which can be designed either as a zoom system for continuously changing the magnification factor, as in the embodiment shown, or as a so-called Galilean changer for gradually changing the magnification factor. In a zoom system that is made up of a lens combination with three lenses, for example, the two lenses on the object side can be moved to vary the magnification factor. In fact, however, the zoom system can also have more than three lenses, for example four or more lenses, in which case the outer lenses can also be fixed. In a Galilean changer, on the other hand, there are several fixed lens combinations that represent different magnification factors and can be alternately introduced into the beam path. Both a zoom system and a Galilean changer convert a parallel beam on the object side into a parallel beam on the observer side with a different beam diameter. In the present embodiment, the magnification changer 11 is already part of the binocular beam path of the
An den Vergrößerungswechsler 11 schließt sich beobachterseitig eine Schnittstellenanordnung 13A, 13B an, über die externe Geräte an das Operationsmikroskop 2 angeschlossen werden können und die im vorliegenden Ausführungsbeispiel Strahlteilerprismen 15A, 15B umfasst. Grundsätzlich können aber auch andere Arten von Strahlteilern Verwendung finden, bspw. teildurchlässige Spiegel. Die Schnittstellen 13A, 13B dienen im vorliegenden Ausführungsbeispiel zum Auskoppeln eines Strahlenbündels aus dem Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15B) bzw. zum Einkoppeln eines Strahlenbündels in den Strahlengang des Operationsmikroskops 2 (Strahlteilerprisma 15A).The magnification changer 11 is connected to an
Das Strahlteilerprisma 15A in dem Teilstrahlengang 9A dient im vorliegenden Ausführungsbeispiel dazu, mit Hilfe eines Displays 37, bspw. einer Digital Mirror Device (DMD) oder eines LCD-Displays, und einer zugehörigen Optik 39 über das Strahlteilerprisma 15A Informationen oder Daten für einen Betrachter in den Teilstrahlengang 9A des Operationsmikroskops 1 einzuspiegeln. Im anderen Teilstrahlengang 9B ist an der Schnittstelle 13B ein Kameraadapter 19 mit einer daran befestigten Kamera 21 angeordnet, die mit einem elektronischen Bildsensor 23, bspw. mit einem CCD-Sensor oder einem CMOS-Sensor, ausgestattet ist. Mittels der Kamera 21 kann ein elektronisches und insbesondere ein digitales Bild des Gewebebereichs 3 aufgenommen werden. Als Bildsensor kann insbesondere auch ein Hyperspektralsensor Verwendung finden, in dem nicht nur drei Spektralkanäle (bspw. rot, grün und blau) vorhanden sind, sondern eine Vielzahl von Spektralkanälen.In the present exemplary embodiment, the
An die Schnittstelle 13 schließt sich im dargestellten Beispiel beobachterseitig ein Binokulartubus 27 an. Dieser weist zwei Tubusobjektive 29A, 29B auf, welche das jeweilige parallele Strahlenbündel 9A, 9B auf eine Zwischenbildebene 31 fokussieren, also das Beobachtungsobjekt 3 auf die jeweilige Zwischenbildebene 31A, 31B abbilden. Die in den Zwischenbildebenen 31A, 31B befindlichen Zwischenbilder werden schließlich von Okularlinsen 35A, 35B wiederum nach Unendlich abgebildet, so dass ein Betrachter das Zwischenbild mit entspanntem Auge betrachten kann. Außerdem erfolgt im Binokulartubus mittels eines Spiegelsystems oder mittels Prismen 33A, 33B eine Vergrößerung des Abstandes zwischen den beiden Teilstrahlenbündeln 9A, 9B, um diesen an den Augenabstand des Betrachters anzupassen. Mit dem Spiegelsystem oder den Prismen 33A, 33B erfolgt zudem eine Bildaufrichtung. Statt die Zwischenbilder mittels Okularen zu betrachten, besteht auch die Möglichkeit, die Zwischenbilder mittels in der Zwischenbildebene angeordneter Bildsensoren, die bspw. als CCD-Sensoren oder CMOS-Sensoren ausgebildet sein können, aufzunehmen und die aufgenommenen Bilder elektronisch auf Displays darzustellen. Die elektronische Darstellung ermöglicht eine freiere Positionierung des Betrachters relativ zum Beobachtungsobjekt. Die Displays können bspw. in einem am Operationsmikroskop vorhandenen Einblick angeordnet sein, oder sie können in einem vom Operationsmikroskop losgelösten Head Mounted Display (HMD) wie etwa einer Datenbrille angeordnet sein.In the example shown, a
Das Operationsmikroskop 2 ist außerdem mit einer Beleuchtungsvorrichtung ausgestattet, mit der der das Objektfeld 3 mit zumeist breitbandigem Beleuchtungslicht beleuchtet werden kann. Hierzu weist die Beleuchtungsvorrichtung im vorliegenden Ausführungsbeispiel eine Weißlichtquelle 41, etwa eine Halogenglühlampe oder eine Gasentladungslampe, auf. Aber auch Lumineszenzstrahler wie bspw. Leuchtdioden (LEDs) oder organische Leuchtdioden (OLEDs) kommen als Lichtquellen in Frage. Hierbei kann das Weißlicht auch durch eine Kombination mehrerer farbiger Lumineszenzstrahler generiert werden. Das von der Weißlichtquelle 41 ausgehende Licht wird über einen Umlenkspiegel 43 oder ein Umlenkprisma in Richtung auf das Objektfeld 3 gelenkt, um dieses auszuleuchten. In der Beleuchtungsvorrichtung ist weiterhin eine Beleuchtungsoptik 45 vorhanden, die für eine gleichmäßige Ausleuchtung des gesamten beobachteten Objektfeldes 3 sorgt.The
Es sei darauf hingewiesen, dass der in
In dem in
Die Beleuchtungsvorrichtung kann zudem mit einer Einheit zum Wechsel der Beleuchtungslichtquelle ausgestattet sein. Diese ist in
In der in
Ein Beispiel für ein Vario-Objektiv ist schematisch in
Obwohl in
Die
Die
Wie in
Statt der Iso-Tiefenlinien können grundsätzlich auch andere Techniken zum Repräsentieren der Tiefe des Tumors unterhalb der Oberfläche des Gewebes 12 herangezogen werden. Insbesondere können dabei grundsätzlich Techniken aus dem Bereich der Augmented Reality zur Fusionierung von Bilddaten verwendet werden. Dies ermöglicht eine nahtlose und realitätsgetreue Einblendung von Abstandsinformationen in die Operationsszene.Instead of the iso-depth lines, other techniques can also be used to represent the depth of the tumor below the surface of the
Das Operationsmikroskop-System 68 umfasst ein Operationsmikroskop 2, mit dem ein visuelles Bild einer Operationsszene, d.h. eines Beobachtungsbereiches 1 mit einem Tumor 6, gewonnen wird. Das Operationsmikroskop 2 erzeugt zudem das Bild repräsentierende elektronische Bilddaten und gibt diese aus. Zum Generieren der elektronischen Bilddaten kann beispielsweise die Kamera 21 aus
Weiterhin umfasst das Operationsmikroskop-System 68 eine Schnittstellenanordnung 63 mit einem Datenausgang 63A und einem Dateneingang 63B. Über den Datenausgang 63A werden Bilddaten, die das mit dem Operationsmikroskop 2 gewonnene Bild repräsentieren, an eine Registrierungseinheit 61 ausgeben. Über den Dateneingang 63B werden aktuelle Topografiedaten des Beobachtungsbereichs 1 von einer Topografie-Erfassungseinheit 60 sowie Tiefenbilddaten des Tumors 6 im Beobachtungsbereich 1 von einem Tomografiesystem 66 empfangen.The
Die Topografie-Erfassungseinheit 60 kann auf einem geeigneten Sensor, beispielsweise einem stereoskopischen Sensor, einem Laserscanner, einem Time-of-Flight-Sensor oder auf strukturierter Beleuchtung beruhen. Ein stereoskopischer Sensor kann zum Beispiel zwei in dem Operationsmikroskop 2 integrierte Kameras, ähnlich der Kamera 21 aus
Die Tiefenbilddaten sind im vorliegenden Ausführungsbeispiel 3D-Daten, die mittels eines Tomografieverfahrens von der Lage des Tumors 6 unterhalb des Gewebes 12 gewonnen worden sind.In the present embodiment, the depth image data are 3D data that have been obtained from the position of the
Die vom Tomografiesystem 66 generierten Tiefenbilddaten liegen auch in der Registrierungseinheit 61 vor. Mittels der Registrierungseinheit 61 werden die präoperativ gewonnenen 3D-Daten mit den vom Datenausgang 63A des Operationsmikroskop-Systems 68 erhaltenen Bilddaten unter Zuhilfenahme einer geeigneten rigiden oder nichtrigiden Transformation registriert, sodass eine optimale Übereinstimmung der 3D-Daten mit den Bilddaten vorliegt. Von der Registrierungseinheit 61 werden dann Registrierungsdaten, welche die Registrierung der 3D-Daten mit den Bilddaten repräsentieren, ausgegeben die von dem Dateneingang 63B der Schnittstellenanordnung 63 empfangen werden.The depth image data generated by the
Mit der Schnittstellenanordnung 63 ist eine Auswertungseinheit 62 verbunden, an welche die Schnittstelleneinheit 63 die empfangenen Registrierungsdaten, die empfangenen Topografiedaten des Beobachtungsbereichs 1 und die empfangenen Tiefenbilddaten weitergibt. Die Tiefenbilddaten können der Auswertungseinheit 62 komplette 3D-Informationen des Tumors 6 bereitstellen. Alternativ besteht die Möglichkeit, dass das Operationsmikroskop-System 68 basierend auf der jeweils aktuellen Fokusebene „virtuelle Tiefen“ in einem definierten Wertebereich an ein Navigationsgerät sendet, und das Navigationsgerät dann für die gesendeten „virtuelle Tiefen“ die jeweilige Konturlinie des Tumors 6 als Tiefenbilddaten an die Auswertungseinheit 62 ausgibt.An
Die Auswertungseinheit 62 ermittelt auf der Basis der Topografiedaten, der 3D-Daten des Tumors 6 und der von der Registrierungseinheit 61 zur Verfügung gestellten Registrierungsdaten die Abstände der von den 3D-Daten erfassten Tiefenbereiche von der Gewebeoberfläche 12 und gibt die ermittelten Abstände aus. Aufgrund der Registrierung sind die Positionen des Tumors 6 im Gewebe 12 und die Topografie der Oberfläche des Gewebes 12 im selben Koordinatensystem bekannt, sodass die Abstände des Tumors von der Oberfläche des Gewebes berechnet werden können.The
Mit der Auswertungseinheit 62 ist zum Empfangen der ermittelten Abstände eine Visualisierungseinheit 64 verbunden. Die Visualisierungseinheit 64 dient dazu, ein Visualisierungsbild zu generieren, in dem die empfangenen Abstände, beispielsweise in Form der in
Im vorliegenden Ausführungsbeispiel erfolgt eine Visualisierung der Abstände jedoch nicht nur im Okular des Operationsmikroskops 2, wobei das Display 37 als Anzeigeeinheit dient, sondern auch auf einem externen Monitor 67 und ein Head Mounted Display (HMD), welches im vorliegenden Ausführungsbeispiel durch eine Datenbrille 65 repräsentiert ist.In the present embodiment, however, the distances are not only visualized in the eyepiece of the
Um ein Visualisierungsbild für den Monitor 67 und/oder die Datenbrille 65 generieren zu können, ist die Visualisierungseinheit 64 im vorliegenden Ausführungsbeispiel auch mit der Kamera 21 aus dem in
Die Tiefenvorschaukarte kann als linienhafte Anzeige der Iso-Tiefenlinien realisiert sein, wobei die Linien solide, gestrichelt, punktiert oder in einer beliebigen Kombination davon ausgestaltet sind. Die Anzeige der Tiefenvorschaukarte kann aber auch mittels einer opaken Darstellung erfolgen. Möglich ist zudem auch jegliche Form einer Überblendung von Iso-Tiefenlinien bzw. opaker Darstellung mit der aktuellen Beobachtungsszene bzw. Operationsszene um ein realistisches „Look-and-Feel“ zu ermöglichen. Für sichtbare bzw. nicht sichtbare Bereiche des malignen Gewebes können unterschiedliche Visualisierungsparameter gewählt werden. In einer weiteren Ausprägung können die Tiefeninformationen auch lokal begrenzt angezeigt werden, um das Sichtfeld des Operateurs nicht über Gebühr zu beschränken.The depth preview map can be implemented as a linear display of the iso-depth lines, whereby the lines are solid, dashed, dotted or in any combination thereof. The depth preview map can also be displayed using an opaque display. Any form of blending of iso-depth lines or opaque display with the current observation scene or operation scene is also possible in order to enable a realistic "look and feel". Different visualization parameters can be selected for visible or invisible areas of the malignant tissue. In another variant, the depth information can also be displayed locally so as not to unduly restrict the surgeon's field of vision.
Die vorliegende Erfindung wurde zu Erläuterungszwecken anhand von Ausführungsbeispielen beschrieben. Ein Fachmann versteht jedoch, dass von den dargestellten Ausführungsbeispielen abgewichen werden kann. So sind in dem in
BezugszeichenlisteList of reference symbols
- 11
- OperationsszeneOperation scene
- 22
- OperationsmikroskopSurgical microscope
- 33
- OperationsfeldSurgical field
- 44
- OperationsbesteckSurgical instruments
- 55
- Objektivlens
- 66
- Tumortumor
- 77
- divergentes Strahlenbündeldivergent beam
- 88th
- Finger des ChirurgenSurgeon's finger
- 99
- StrahlenbündelBeam
- 9A, 9B9A, 9B
- stereoskopischer Teilstrahlengangstereoscopic partial beam path
- 1010
- TumortiefenvorschaukarteTumor depth preview map
- 1111
- VergrößerungswechslerMagnification changer
- 1212
- Gewebetissue
- 13A, 13B13A, 13B
- SchnittstellenanordnungInterface arrangement
- 15A, 15B15A, 15B
- StrahlteilerprismaBeam splitter prism
- 1616
- FokusebeneFocal plane
- 1717
- BodenFloor
- 1818
- Iso-TiefenlinieIso depth line
- 1919
- KameraadapterCamera adapter
- 2121
- Kameracamera
- 2323
- BildsensorImage sensor
- 2727
- BinokulartubusBinocular tube
- 29A, 29B29A, 29B
- TubusobjektivTube lens
- 31A, 31B31A, 31B
- ZwischenbildebeneIntermediate image plane
- 33A, 33B33A, 33B
- Prismaprism
- 35A, 35B35A, 35B
- OkularlinseEyepiece lens
- 3737
- DisplayDisplay
- 3939
- Optikoptics
- 40A, 40B40A, 40B
- SpektralfilterSpectral filter
- 4141
- WeißlichtquelleWhite light source
- 4343
- UmlenkspiegelDeflecting mirror
- 4545
- BeleuchtungsoptikLighting optics
- 4747
- SpektralfilterSpectral filter
- 4949
- LaserLaser
- 5050
- Vario-ObjektivVario lens
- 5151
- PositivgliedPositive link
- 5252
- NegativgliedNegative link
- 5353
- VerschiebewegDisplacement path
- 6060
- Topografie-ErfassungseinheitTopography acquisition unit
- 6161
- RegistrierungseinheitRegistration unit
- 6262
- AuswertungseinheitEvaluation unit
- 6363
- SchnittstellenanordnungInterface arrangement
- 63A63A
- DatenausgangData output
- 63B63B
- DateneingangData input
- 6464
- VisualisierungseinheitVisualization unit
- 6565
- DatenbrilleData glasses
- 6666
- TomografiesystemTomography system
- 6767
- Monitormonitor
- 6868
- optisches Beobachtungsgerätsystemoptical observation device system
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016117263.4A DE102016117263B4 (en) | 2016-09-14 | 2016-09-14 | Optical observation device system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016117263.4A DE102016117263B4 (en) | 2016-09-14 | 2016-09-14 | Optical observation device system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016117263A1 DE102016117263A1 (en) | 2018-03-15 |
DE102016117263B4 true DE102016117263B4 (en) | 2024-05-29 |
Family
ID=61247125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016117263.4A Active DE102016117263B4 (en) | 2016-09-14 | 2016-09-14 | Optical observation device system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016117263B4 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018110641B3 (en) | 2018-05-03 | 2019-07-25 | Carl Zeiss Meditec Ag | Microscopy method for imaging an object and microscope |
DE102020102476B4 (en) * | 2020-01-31 | 2024-02-08 | Carl Zeiss Meditec Ag | Method for marking an area of a tumor |
DE102020129739B4 (en) | 2020-11-11 | 2023-03-02 | Karl Storz Se & Co. Kg | Endoscopic and/or exoscopic imaging device for spectral imaging, endoscope and/or exoscope with an imaging device |
CN113936063A (en) * | 2020-12-30 | 2022-01-14 | 诡谷子人工智能科技(深圳)有限公司 | Double-light-path imaging device, image depth detection method and storage medium |
AT526091B1 (en) * | 2022-12-06 | 2023-11-15 | Swarovski Optik Ag & Co Kg | Long-range optical device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1995025979A1 (en) | 1994-03-24 | 1995-09-28 | Philips Electronics N.V. | Operating microscope |
US20010027272A1 (en) | 1999-03-30 | 2001-10-04 | Olympus Optical Co., Ltd. | Navigation apparatus and surgical operation image acquisition/display apparatus using the same |
WO2003105709A1 (en) | 2002-06-13 | 2003-12-24 | Möller-Wedel GmbH | Method and instrument for surgical navigation |
DE102005050918A1 (en) | 2005-10-24 | 2007-01-11 | Siemens Ag | Apparatus for monitoring microsurgery especially neurosurgery using an operation microscope |
DE102006017003A1 (en) | 2006-04-11 | 2007-10-18 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Endoscope for depth data acquisition in e.g. medical area, has modulation unit controlling light source based on modulation data so that source transmits modulated light signal and evaluation unit evaluating signal to estimate depth data |
DE102011085176A1 (en) | 2011-10-25 | 2013-04-25 | Siemens Aktiengesellschaft | Method for generating angiogram of blood vessel of human/animal, involves transferring position and superposition of blood vessels in three dimensional image data set into two-dimensional data to display representation of blood vessels |
DE102012220115A1 (en) | 2012-11-05 | 2014-05-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Imaging system, imaging device operating system and imaging method |
DE102014210121A1 (en) | 2014-05-27 | 2015-08-27 | Carl Zeiss Meditec Ag | Surgical microscope and image-guided surgery system and method for their operation |
DE102014107443A1 (en) | 2014-05-27 | 2015-12-03 | Carl Zeiss Meditec Ag | Microscope system with depth preview |
-
2016
- 2016-09-14 DE DE102016117263.4A patent/DE102016117263B4/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1995025979A1 (en) | 1994-03-24 | 1995-09-28 | Philips Electronics N.V. | Operating microscope |
US20010027272A1 (en) | 1999-03-30 | 2001-10-04 | Olympus Optical Co., Ltd. | Navigation apparatus and surgical operation image acquisition/display apparatus using the same |
WO2003105709A1 (en) | 2002-06-13 | 2003-12-24 | Möller-Wedel GmbH | Method and instrument for surgical navigation |
DE102005050918A1 (en) | 2005-10-24 | 2007-01-11 | Siemens Ag | Apparatus for monitoring microsurgery especially neurosurgery using an operation microscope |
DE102006017003A1 (en) | 2006-04-11 | 2007-10-18 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Endoscope for depth data acquisition in e.g. medical area, has modulation unit controlling light source based on modulation data so that source transmits modulated light signal and evaluation unit evaluating signal to estimate depth data |
DE102011085176A1 (en) | 2011-10-25 | 2013-04-25 | Siemens Aktiengesellschaft | Method for generating angiogram of blood vessel of human/animal, involves transferring position and superposition of blood vessels in three dimensional image data set into two-dimensional data to display representation of blood vessels |
DE102012220115A1 (en) | 2012-11-05 | 2014-05-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Imaging system, imaging device operating system and imaging method |
DE102014210121A1 (en) | 2014-05-27 | 2015-08-27 | Carl Zeiss Meditec Ag | Surgical microscope and image-guided surgery system and method for their operation |
DE102014107443A1 (en) | 2014-05-27 | 2015-12-03 | Carl Zeiss Meditec Ag | Microscope system with depth preview |
Also Published As
Publication number | Publication date |
---|---|
DE102016117263A1 (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016117263B4 (en) | Optical observation device system | |
US10274714B2 (en) | Surgical microscope for generating an observation image of an object region | |
EP2950130A1 (en) | Microscope system with depth preview | |
DE102008018636B4 (en) | Device and method for endoscopic 3D data acquisition | |
EP1333306B1 (en) | Method and system for stereoscopic microscopy | |
DE102017108371B4 (en) | Medical optical display system and method for operating the same | |
DE102015103426B4 (en) | Microscope system and method for automated alignment of a microscope | |
WO2014060412A1 (en) | Stereoscopic imaging system | |
DE102004061875A1 (en) | Device for diagnostic support | |
DE102017105941B3 (en) | Surgical microscope with an image sensor and a display and method for operating a surgical microscope | |
CH693619A5 (en) | Image-representative device and method for displaying image. | |
DE10027166A1 (en) | Stereo-optical microscope for use in delicate surgical operations has CCD optical system that enables image of view seen by surgeon using microscope to be displayed on screen in theatre or remotely | |
DE102007054450A1 (en) | Image providing device for surgeon, has common camera i.e. digital camera, provided for image acquisition of operation field and for determining camera position and orientation by navigation system | |
DE102013009817B4 (en) | Microscopy system for observation of fluorescence in ophthalmology | |
DE102018106651A1 (en) | Visualization system and method for generating holographic representations from optical signals | |
DE102014114013B4 (en) | Medical optical observation device and method for contrasting polarization-rotating tissue | |
DE102014103044A1 (en) | Surgical assistance system | |
DE102017110816A1 (en) | An optical observation apparatus and method for efficiently performing an automatic focusing algorithm | |
DE102018110806A1 (en) | Surgical microscope with a lighting device | |
DE102015100765A1 (en) | Surgical microscope and method for highlighting Augenlinsenstücken | |
DE3623394C2 (en) | Surgical microscope | |
DE69708334T2 (en) | IN SITU OPTICAL INFORMATION SYSTEM | |
WO2021219473A1 (en) | Medical optical system, data processing system, computer program, and non-volatile computer-readable storage medium | |
DE102018123781B4 (en) | Method for performing shading correction and observation optical system | |
DE102016100566B4 (en) | Assistance system for a medical optical observation device and method for improving the visibility of a blood leakage site in an image obtained with a medical optical observation device and medical optical observation device system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R083 | Amendment of/additions to inventor(s) | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |