DE102010064320B4 - Optischer Zeiger für ein Chirurgieassistenzsystem - Google Patents

Optischer Zeiger für ein Chirurgieassistenzsystem Download PDF

Info

Publication number
DE102010064320B4
DE102010064320B4 DE102010064320.3A DE102010064320A DE102010064320B4 DE 102010064320 B4 DE102010064320 B4 DE 102010064320B4 DE 102010064320 A DE102010064320 A DE 102010064320A DE 102010064320 B4 DE102010064320 B4 DE 102010064320B4
Authority
DE
Germany
Prior art keywords
pointer
light sources
image
imaging
examination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010064320.3A
Other languages
English (en)
Other versions
DE102010064320A1 (de
Inventor
Johannes Reinschke
Lydia Reinschke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102010064320.3A priority Critical patent/DE102010064320B4/de
Priority to PCT/EP2011/072934 priority patent/WO2012089529A1/de
Publication of DE102010064320A1 publication Critical patent/DE102010064320A1/de
Application granted granted Critical
Publication of DE102010064320B4 publication Critical patent/DE102010064320B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body

Abstract

Vorrichtung mit einem optischen Zeiger (10) zur Positionsanzeige, wobei der optische Zeiger (10) mindestens zwei Lichtquellen (12) unterschiedlicher Farbe aufweist, die mindestens zwei Lichtquellen (12) ausgestaltet sind, Lichtstrahlen auszusenden, wobei die Lichtstrahlen der mindestens zwei Lichtquellen (12) auf mindestens eine vorgebbare Position an einer Oberfläche (50) eines Untersuchungsobjektes ausrichtbar sind, so dass die mindestens eine Position in einem dreidimensionalen Koordinatensystem anzeigbar ist, wobei die Positionsanzeige durch eine Verschiebung der den optischen Zeiger (10) abbildenden Lichtstrahlen der mindestens zwei Lichtquellen (12) ablesbar ist, und wobei die mindestens zwei Lichtquellen (12) auf der Oberfläche (50) des Untersuchungsobjektes Linien als Zeiger-Bild (13) erzeugen.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung mit einem optischen Zeiger. Daneben wird eine Anordnung und deren Verwendung zur robotergestützten Chirurgie angegeben.
  • Im Bereich der Chirurgieassistenzsysteme sind Vorrichtungen bekannt, die manuelle laparoskopische Eingriffe verbessern, indem der Operateur nicht mehr direkt die laparoskopischen oder endoskopischen Instrumente bedient, sondern diese Bedienung der Instrumente über roboterähnliche Kinematiken mit elektromechanischen Aktuatoren erfolgt. Die Aktuatoren und damit die Kinematiken und laparoskopischen oder endoskopischen Instrumente werden von einer Bedienstation aus gesteuert.
  • Hierzu kennt man beispielsweise aus der US 5,198,877 eine Vorrichtung und ein Verfahren, die optisch zahlreiche Punkte auf der Oberfläche eines Objekts erfassen, um dessen Form unter Verwendung von zwei Stufen aus der Ferne zu erfassen. Die erste Stufe verwendet einen beweglichen berührungslosen Scanner, der im Normalbetrieb einen schmalen Lichtstrahl über das Objekt leitet und einen einzelnen Punkt des Objekts zu einem bestimmten Zeitpunkt beleuchtet. Die Position dieses Punktes in Bezug auf den Scanner wird von mehreren linearen Photodetektoranordnungen hinter Linsen im Scanner erfasst. Diese erfassen die Position, indem sie die relative Winkelparallaxe des Punktes messen. Die zweite Stufe verwendet mehrere feste, aber weit voneinander entfernte photoelektronische Sensoren, ähnlich denen im Scanner, um die Positionen mehrerer am Scanner befestigter Lichtquellen zu erfassen und so die absoluten räumlichen Positionen und Orientierungen des Scanners zu definieren. Einzelne Lichtquellen zeichnen sich durch eine Zeitmultiplexfunktion im Ein-Aus-Zustand aus. Ein Koordinatencomputer berechnet die absoluten räumlichen Positionen, an denen der Scanner-Lichtstrahl zu einem bestimmten Zeitpunkt und kontinuierlich in Echtzeit auf das Objekt trifft, um ein Computermodell des Objekts zu erzeugen. Weiter kennt man aus der US2004/0092958A1 eine stereotaktische chirurgische Vorrichtung mit mindestens zwei Lichtleitern, die geeignet sind, Licht in einem vorbestimmten Ausmaß in einem vorbestimmten Abstand von einer vorbestimmten Position auf der chirurgischen Vorrichtung zu konvergieren. Die chirurgische Vorrichtung kann ferner einen Lichtdetektor und einen Prozessor zum Empfangen von Bildinformationen vom Lichtdetektor beinhalten. Die Logik der chirurgischen Vorrichtung wird auf den Prozessor angewendet, um den Prozessor zu veranlassen, zu bestimmen, wann das Licht in dem vorbestimmten Ausmaß konvergiert ist, und daraufhin ein Signal bereitzustellen.
  • Außerdem kennt man aus der WO 2009/011 643 A1 ein System, bei welchem mittels eines Projektors Bewegungen eines Patienten auf dem Tisch eines Strahlungsapparatus erfasst werden.
  • Weiterhin werden zur Chirurgieassistenz bei manuellen chirurgischen Eingriffen 3D-Bildgebungsverfahren zu Hilfe genommen. Dabei wird z.B. ein Computertomographie-Scanner (CT-Scanner) prä- und intraoperativ im Operationssaal benutzt.
  • Prinzipiell sind robotergestützte Chirurgieassistenzsysteme bekannt, in denen ein robotergeführter Führungslaser eingesetzt wird. Die Anzeige von Prozessschritten durch einen solchen Führungslaser ist jedoch nicht fehlerüberprüfbar. Insbesondere kann der Chirurg, als Anwender eines derartigen Chirurgieassistenzsystems, nicht auf eine korrekte Lage seines Patienten zum Führungslaser schließen. Besonders für Eingriffe an Untersuchungsobjekten mit weichem, leicht beweglichem Gewebe muss die korrekte Position des Untersuchungsobjektes relativ zum Zeiger in regelmäßigen zeitlichen Abständen kontrolliert werden.
  • Es ist Aufgabe der vorliegenden Erfindung, eine verbesserte Vorrichtung zur Positionsanzeige eines Operationsschritts bereitzustellen, wodurch insbesondere eine bessere Kontrolle über die Positionsanzeige gewährleistet ist. Eine weitere Aufgabe der Erfindung ist es, eine Anordnung zur robotergestützten Chirurgie anzugeben.
  • Die Aufgabe ist durch eine Vorrichtung gemäß dem Patentanspruch 1 und durch eine Anordnung gemäß Patentanspruch 6 gelöst. Weiterbildungen und vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Die erfindungsgemäße Vorrichtung dient zur Positionsanzeige, insbesondere der Positionsanzeige eines Operationsschrittes während eines chirurgischen Eingriffs. Dabei kann der chirurgische Eingriff manuell oder robotergestützt vorgenommen werden. Die erfindungsgemäße Vorrichtung weist einen optischen Zeiger auf, wobei der Zeiger mindestens zwei Lichtquellen unterschiedlicher Farbe aufweist. Die Lichtquellen sind ausgestaltet, Lichtstrahlen auszusenden, wobei die Lichtstrahlen von mindestens zwei Lichtquellen auf mindestens eine vorgebbare Position an einer Oberfläche eines Untersuchungsobjektes ausrichtbar sind. Dabei stellt das Untersuchungsobjekt zugleich das Operationsobjekt dar. Die Vorrichtung ist so ausgestaltet, dass eine Position in einem dreidimensionalen Koordinatensystem anzeigbar ist. Dies hat den Vorteil, dass die optische Anzeige des nächsten Operationsschrittes direkt eine Tiefenkontrolle vornimmt, die darin besteht, dass ein Chirurg oder eine bildgebende Kontrolleinheit einen Versatz der mindestens zwei Bilder der Lichtquellen auf der Oberfläche des Untersuchungs- bzw. des Operationsobjektes feststellen kann. Die Lichtquellen sind dabei derart ausgestaltet, dass diese auf der Oberfläche des Untersuchungsobjektes als Zeiger-Bild Linien erzeugen, wodurch die Kontrolle über die Positionsanzeige weiter verbessert wird.
  • Zweckdienlich haben die Lichtquellen Farben, die nicht natürlicherweise im menschlichen Körper vorkommen, beispielsweise grünes und blaues Licht.
  • In einer Ausgestaltung der Vorrichtung ist jede der Lichtquellen unabhängig voneinander schaltbar. In einer weiteren Ausführungsform ist die Intensität jeder der Lichtquellen modulierbar.
  • Bei der Vorrichtung sind die Lichtquellen so ausgestaltet, dass diese auf der Oberfläche des Untersuchungsobjektes Linien als Zeiger-Bild erzeugen. Insbesondere erzeugen die Lichtquellen zueinander parallele Linien als Zeiger-Bild. Die Linien können somit direkt einen Soll-Schnittverlauf anzeigen.
  • Beispielsweise sind die erzeugten Linienbilder auf der Oberfläche des Untersuchungsobjektes unterbrochene Linien oder gepunktete Linien. Einzelne auf eine Linie angeordnete Punkte als Zeiger-Bild bieten den Vorteil einer noch einfacheren Sichtprüfung der Übereinstimmung der Zeiger-Bilder, wobei eine Übereinstimmung dann vorliegt, wenn die Zeiger-Bilder so übereinander liegen, dass sie als ein Bild erscheinen.
  • Die erfindungsgemäße Anordnung zur robotergestützten Prozessschrittanzeige und/oder automatisierten Sichtkontrolle der Prozessschrittanzeige bei einem chirurgischen Eingriff umfasst einen Tisch zur Ablage eines Untersuchungsobjektes und eine Vorrichtung mit einem optischen Zeiger gemäß der Erfindung.
  • Insbesondere kann die Vorrichtung so ausgestaltet sein, dass die mindestens zwei Lichtquellen unabhängig voneinander relativ zum Tisch bewegbar sind. Alternativ sind die Lichtquellen in einer festen Position zueinander, beispielsweise auf einem Manipulator angeordnet, wobei eine Verfahrbarkeit des Manipulators, relativ zum Tisch, in drei Raumrichtungen gestattet, jede beliebige vorgebbare Position in einem dreidimensionalen Arbeitsraum anzuzeigen. Zusätzlich zur Verfahrbarkeit in drei Raumrichtungen kann der Manipulator auch in drei Achsrichtungen schwenkbar sein, so dass insgesamt sechs Bewegungsfreiheitsgrade entstehen.
  • Die Vorrichtung mit dem optischen Zeiger wird beispielsweise in eine bekannte Position und Orientierung zu dem Tisch gebracht, der zur Ablage eines Untersuchungsobjektes dient. Insbesondere wird anhand des erzeugten Bildes eine Grundposition der Vorrichtung mit dem optischen Zeiger relativ zum Tisch eingestellt.
  • Zur Bewegung der Lichtquellen oder des Manipulators können Aktuatoren umfasst sein.
  • In einer Ausgestaltung der Anordnung ist mindestens eine erste Einrichtung zur Bildgebung umfasst. Insbesondere kann diese eine Einrichtung zur 3D-Bildgebung sein. Damit kann z.B. ein Bild von dem Untersuchungsobjekt erzeugt werden. Eine Einrichtung zur 3D-Bildgebung kann ein CT-Scanner sein. Vorzugsweise ist die Einrichtung zur 3D-Bildgebung ein C-Bogen. Alternativ kann eine Stereokamera zur 3D-Bildgebung eingesetzt werden. Zweckdienlicherweise ist das Untersuchungsobjekt auf dem vorgesehenen Tisch positioniert. Zusätzlich ist eine Rechnereinheit umfasst, wobei die Rechnereinheit ausgestaltet ist, eine Bildverarbeitung vorzunehmen, unter Hinzunahme der Bildinformation aus der ersten Einrichtung zur Bildgebung einen Prozessschritt zu berechnen, insbesondere einen chirurgischen Eingriff. Die Rechnereinheit ist weiter ausgestaltet, den Zeiger der Vorrichtung zur Positionsanzeige zu steuern. Z.B. wird von der Rechnereinheit ein Betätigungssignal an den Zeiger gesendet. Die Rechnereinheit ist insbesondere Teil eines Expertensystems, das die Arbeit des Chirurgen bei klassischer offener Chirurgie, in minimal-invasiven chirurgischen Eingriffen sowie in robotergestützten minimal-invasiven chirurgischen Eingriffen unterstützt. Mittels der erfindungsgemäßen Vorrichtung zur Positionsanzeige kann zusätzlich eine Tiefenkontrolle erfolgen. Besonders bei schwierigen chirurgischen Eingriffen kann durch die Führung bzw. Navigation durch ein Expertensystem eine schnellere Durchführung des chirurgischen Eingriffs ermöglicht werden, Fehler vermieden werden sowie eine automatische Dokumentation des Operationsverlaufs gewährleistet werden.
  • Eine zweckdienliche Ausgestaltung der Anordnung weist zusätzlich einen Monitor auf. Des Weiteren ist vorzugsweise wenigstens eine zweite Einrichtung zur Bildgebung umfasst. Diese ist insbesondere eine Kamera und dient zur Erfassung der Oberfläche des Untersuchungsobjektes mit dem Zeiger-Bild des optischen Zeigers. Dabei ist die Rechnereinheit ausgestaltet, auf dem Monitor eine Überlagerung von zumindest einem Bild der ersten Einrichtung zur Bildgebung und einem Bild der zweiten Einrichtung zur Bildgebung darzustellen. Die Kamera zur Erfassung der Oberfläche des Untersuchungsobjektes erfasst einen Oberflächenabschnitt des Untersuchungsobjektes, der das Zeiger-Bild des optischen Zeigers umfasst. Somit können zusätzlich zum Operateur weitere Nutzer der Anordnung, insbesondere die Operationsassistenten, die Operationsschritte auf dem Monitor überwachen und die Übereinstimmung der Operationsschritte mit der Navigation durch den optischen Zeiger kontrollieren.
  • In einer weiteren Ausgestaltung der Anordnung ist die Rechnereinheit ausgestaltet, eine Positionskontrolle, insbesondere in Tiefenrichtung, vorzunehmen. Dazu erfolgt zunächst eine Auswertung des Bildes der zweiten Einrichtung zur Bildgebung, das zweckdienlicherweise einen Oberflächenabschnitt des Untersuchungsobjektes zeigt, der das Zeiger-Bild des optischen Zeigers umfasst mittels eines Bildauswerteprogramms. Anhand der von den Lichtquellen des optischen Zeigers erzeugten Zeiger-Bilder auf der Oberfläche des Untersuchungsobjektes wird eine Tiefenkontrolle vorgenommen. Die Tiefenkontrolle umfasst mindestens die einfache Überprüfung einer Übereinstimmung der Zeiger-Bilder oder einer Nicht-Übereinstimmung der Zeiger-Bilder auf der Oberfläche des Untersuchungsobjekts. Dabei bedeutet eine Übereinstimmung, dass die Zeiger-Bilder so übereinander liegen, dass sie als ein Zeiger-Bild erscheinen, und Nicht-Übereinstimmung, dass die zwei Zeiger-Bilder einen Abstand größer Null haben. Stimmen die Zeiger-Bilder der Lichtquellen des optischen Zeigers auf der Oberfläche des Untersuchungsobjektes nicht überein, das heißt, liegen die Zeiger-Bilder nicht so übereinander, dass sie als ein Zeiger-Bild erscheinen, kann aus dem Abstand der Zeiger-Bilder der zwei Lichtquellen des Zeigers auf der Oberfläche des Untersuchungsobjektes eine Verschiebung des Untersuchungsobjektes ermittelt werden.
  • Bei einer weiteren Ausgestaltung der Anordnung ist die Rechnereinheit so ausgestaltet, dass bei Nicht-Übereinstimmung der Zeiger-Bilder der Lichtquellen des optischen Zeigers auf der Oberfläche des Untersuchungsobjektes ein Warnsignal ausgegeben wird.
  • In einer weiteren Ausgestaltung der Anordnung ist eine, insbesondere die zweite, der Einrichtungen zur Bildgebung eines Untersuchungsobjektes eine Mono-Kamera oder eine Stereokamera. Insbesondere ist die zweite Einrichtung zur Bildgebung eine Videokamera oder eine spezielle laparoskopische Videokamera. Vorteilhafterweise ist der optische Zeiger zusammen mit der laparoskopischen Kamera in einem laparoskopischen Instrument integriert. Insbesondere kann die laparoskopische Kamera als eine Monokamera oder als eine Stereokamera ausgebildet sein.
  • In einer weiteren Ausgestaltung der Anordnung ist eine, insbesondere die erste, der Einrichtungen zur Bildgebung eines Untersuchungsobjektes ein Computertomographie-Scanner. Alternativ kann diese Einrichtung zur Bildgebung ein C-Bogen sein. Zweckdienlicherweise umfasst die Anordnung zwei Einrichtungen zur Bildgebung, wobei eine der Einrichtungen zur Bildgebung die Oberfläche des Untersuchungsobjektes erfasst und eine der Einrichtungen zur Bildgebung zur 3D-Bildgebung dient, beispielsweise eine Stereokamera und ein Computertomographie-Scanner. Anstelle eines Computertomographie-Scanners ist zur 3D-Bildgebung auch ein Magnetresonanztomograph oder eine Stereokamera einsetzbar. Insbesondere kann jedes 3D-Bildgebungsverfahren eingesetzt werden, insbesondere medizinische Bildgebungsverfahren wie Röntgencomputertomographie, Magnetresonanztomographie oder Positronen-Emissionstomographie. Anstelle der laparoskopischen Kamera kann eine beliebige Kamera eingesetzt werden, die die Oberfläche des Untersuchungsobjektes mit dem Zeiger-Bild erfassen kann.
  • Ein Verfahren zur ärztlich überwachten Computerchirurgie kann einen ersten Schritt zur Planung eines chirurgischen Eingriffs umfassen, in dem ein 3D-Bild eines Untersuchungsobjektes erzeugt wird und in dem unter Hinzunahme der Bildinformation des 3D-Bildes Prozessschritte eines Eingriffs am Untersuchungsobjekt virtuell festgelegt und/oder berechnet werden. Des Weiteren umfasst das Verfahren zweckdienlicherweise einen zweiten Schritt zur Vorbereitung des chirurgischen Eingriffs, in dem das Untersuchungsobjekt vorbereitet und positioniert wird und in dem - bei fester Positionierung des Untersuchungsobjektes - ein zweites 3D-Bild des Untersuchungsobjektes erzeugt wird und anschließend die Übereinstimmung des zweiten 3D-Bildes mit dem ersten 3D-Bild überprüft bzw. eine Korrespondenz-Relation zwischen beiden Bildern hergestellt wird. Auf Basis dieser Korrespondenz-Relation werden die im ersten Schritt geplanten virtuellen Prozessschritte an das zweite 3D-Bild angepasst. Des Weiteren umfasst das Verfahren einen dritten Schritt zur Durchführung des chirurgischen Eingriffs, in dem je ein festgelegter und/oder berechneter Prozessschritt zunächst angezeigt wird, und zwar als virtueller Prozessschritt beispielsweise auf einem Monitor und als realer Prozessschritt auf dem Untersuchungsobjekt mit Hilfe des Zeigers. Die Gültigkeit des realen Prozessschritts kann überwacht und/oder kontrolliert werden, indem die Übereinstimmung der Position des virtuellen Prozessschritts mit der real am Untersuchungsobjekt angezeigten Position überprüft wird. Des Weiteren umfasst der dritte Schritt die Durchführung des Prozessschritts nach Bestätigung durch den Arzt.
  • Der erste Schritt hat insbesondere den Vorteil, dass eine Planung des Operationsverlaufs außerhalb des Operationssaals vorgenommen werden kann, insbesondere die Identifikation der vorzunehmenden Operationsart sowie die detaillierte Planung aller aufeinanderfolgenden Prozessschritte des chirurgischen Eingriffs. Insbesondere umfasst die Planung die Verwendung eines Expertensystems. Der zweite Schritt hat insbesondere den Vorteil, dass die Operationsplanung an die die Positionierung des Untersuchungsobjekts während der Operation angepasst wird. Der dritte Schritt hat den Vorteil, dass jeder einzelne Prozessschritt durch die Positionsanzeige mit dem Zeiger überwachbar und/oder kontrollierbar ist, bevor der Prozessschritt durchgeführt wird. Insbesondere erfolgt die Überprüfung der Übereinstimmung der Position automatisch, z. B. mittels einer Bildauswerte-Software. Insbesondere kann bei Nicht-Übereinstimmung eine Warnung erfolgen.
  • Beispielsweise umfasst der dritte Schritt eine Kameraüberwachung des chirurgischen Eingriffs, wobei das Kamerabild auf einen Monitor ausgegeben werden kann. Insbesondere werden die einzelnen Prozessschritte zusätzlich zu der Anzeige auf dem Untersuchungsobjekt mittels des optischen Zeigers auch auf dem Monitor angezeigt. Dafür kann der Monitor ein Kamerabild, insbesondere ein Stereokamerabild oder ein 3D-Bild, zeigen. Handelt es sich bei dem Prozessschritt um einen Einschnitt in das Untersuchungsobjekt, kann die Positionsanzeige, auf dem Untersuchungsobjekt oder auf dem Monitor, die Position und auch die Schnittweite des zu setzenden Schnitts in das Untersuchungsobjekt anzeigen. Insbesondere zeigt der Monitor, der zur Kontrolle des chirurgischen Eingriffs dient, ein dreidimensionales Bild, insbesondere eine Art virtuelle Realität in Form einer Überlagerung eines 3D-Bildes aus einer Einrichtung zur 3D-Bildgebung und eines zweiten Bildes des Untersuchungsobjektes, das auch das Zeiger-Bild auf der Oberfläche des Untersuchungsobjektes beinhaltet. Vorzugsweise enthält diese Überlagerung von Bildern auch eine Anzeige des nächsten durchzuführenden Prozessschrittes. Dazu kann auch eine Anleitung gegeben werden, z. B. in Form von Text, der zusätzlich auf dem Monitor ausgegeben wird, oder alternativ als Audioinformation. D.h., beispielsweise kann ein Audioguide umfasst sein, der die für den durchzuführenden Prozessschritt notwendigen Informationen und Anleitungen gibt. Insbesondere kann die Anleitung auch beinhalten, welche chirurgischen Instrumente zu verwenden sind. Insbesondere kann auch ein Video, beispielsweise ein Stereovideo, den nächsten durchzuführenden Prozessschritt anzeigen.
  • In einem Verfahren für die ärztlich überwachte Roboter-Chirurgie wird der Prozessschritt z.B. automatisch durchgeführt. Zweckdienlicherweise sind in dem dritten Schritt zur Durchführung des chirurgischen Eingriffs mehrere festgelegte und/oder berechnete Prozessschritte umfasst, die automatisch durchgeführt werden. Insbesondere werden die Prozessschritte durch den robotergeführten Manipulator durchgeführt, der mittels der Rechnereinheit kontrolliert werden kann. Insbesondere bezieht sich die Führung auf von der Rechnereinheit berechneten Prozessschritten. Ein automatisch durchgeführter Prozessschritt kann von einer Videokamera erfasst und auf einem Monitor ausgegeben werden. Die Videokamera kann eine Stereovideokamera sein. Vor der automatischen Durchführung eines Prozessschritts durch den Roboter bzw. Manipulator muss zwingend eine Abfrage an den Anwender der Anordnung gehen, insbesondere an den Chirurgen, ob er mit dem angezeigten nächsten Prozessschritt einverstanden ist. Erst nach der Bestätigung durch den Anwender wird der Prozessschritt von dem Roboter durchgeführt.
  • Die Verwendung einer Anordnung zur ärztlich überwachten Roboterchirurgie, umfasst also z.B. einen ersten Schritt, der zur Planung eines chirurgischen Eingriffs dient, worin mittels einer Einrichtung zur 3D-Bildgebung ein 3D-Bild eines Untersuchungsobjektes erzeugt und mittels einer Rechnereinheit, die ausgestaltet ist, eine Bildverarbeitung vorzunehmen, unter Hinzunahme der Bildinformation aus dem 3D-Bild, ein Prozessschritt eines Eingriffs am Untersuchungsobjekt festgelegt und/oder berechnet wird. Des Weiteren ist ein zweiter Schritt zur Vorbereitung des chirurgischen Eingriffs umfasst, in dem das Untersuchungsobjekt vorbereitet und auf einem Tisch abgelegt und positioniert wird. Danach wird ein zweites 3D-Bild des Untersuchungsobjektes mittels der Einrichtung zur 3D-Bildgebung erzeugt und dessen Relation mit dem ersten 3D-Bild berechnet. Des Weiteren werden mittels der Rechnereinheit die aktuellen Positionen der Prozessschritte aus dem ersten Schritt bestimmt. Des Weiteren ist ein dritter Schritt zur Durchführung des chirurgischen Eingriffs umfasst, worin je ein Prozessschritt, insbesondere seine Position am oder im Untersuchungsobjekt, zunächst durch ein Zeiger-Bild mittels des optischen Zeigers auf der Oberfläche des Untersuchungsobjektes angezeigt wird, wobei der optische Zeiger von der Rechnereinheit betätigt wird. In dem dritten Schritt wird die Position des Prozessschrittes am Untersuchungsobjekt überwacht und/oder kontrolliert, indem eine zweite Einrichtung zur Bildgebung einen Oberflächenabschnitt des Untersuchungsobjektes mit dem Zeiger-Bild erfasst, und indem die Rechnereinheit die Übereinstimmung des Bildes des Oberflächenabschnitts mit dem 3D-Bild überprüft und/oder anhand des Zeiger-Bildes eine Tiefenkontrolle vornimmt. Des Weiteren wird in dem dritten Schritt der Prozessschritt durchgeführt.
  • Vorteilhafterweise umfasst die Verwendung einen zweiten Schritt, in dem die Positionen der Prozessschritte von der Rechnereinheit automatisch eingestellt werden, und einen dritten Schritt, in dem die Prozessschritte von einem Roboter durchgeführt werden, wobei der Roboter von der Rechnereinheit betätigt wird.
  • Insbesondere kann ein Anwender, z.B. ein Chirurg, über einen Monitor einen Videofilm des nächsten durchzuführenden Prozessschritts ansehen, wobei der Videofilm insbesondere eine virtuelle Realität wiedergibt in dem Sinne, dass am Monitor eine Überlagerung von wenigstens zwei Bildern ausgegeben wird, welche insbesondere ein 3D-Bild und ein Bild der Oberfläche des Untersuchungsobjektes sind. Zweckdienlicherweise umfasst das Bild der Oberfläche des Untersuchungsobjektes einen Oberflächenabschnitt, der von der durchzuführenden Operation betroffen ist. Insbesondere ist ein Oberflächenabschnitt umfasst, der das Zeiger-Bild zur Prozessschrittanzeige umfasst, das auf der Oberfläche des Untersuchungsobjektes sichtbar ist. Vorzugsweise wird zusätzlich zu dem Videofilm eine Anleitung zum nächsten Prozessschritt gegeben, die insbesondere als Text zusätzlich auf dem Monitor angezeigt werden kann. Alternativ oder zusätzlich wird die Anleitung als Audioinformation wiedergegeben. Der Roboter ist z. B. durch die Rechnereinheit und den Manipulator realisiert. Insbesondere kann der Manipulator den optischen Zeiger und die zweite Einrichtung zur Bildgebung umfassen. Zusätzlich kann der Manipulator robotergeführte chirurgische Instrumente umfassen. Vorzugsweise ist eine Überprüfung aller robotergeführten Prozessschritte durch den Anwender, insbesondere den Chirurgen, vorgesehen, indem dessen Einverständnis vor jedem Prozessschritt abgefragt wird.
  • Die Anordnung zur robotergestützten Prozessschrittanzeige und/oder automatisierten Sichtkontrolle der Prozessschrittanzeige bei einem chirurgischen Eingriff umfasst also zunächst zweckdienlicherweise eine Vorrichtung mit einem optischen Zeiger zur Positionsanzeige. Der Vorgang der Positions- und/oder Prozessschrittermittlung läuft insbesondere automatisiert ab. Die Positions- und Prozessschrittanzeige erfolgt beispielsweise robotergestützt. Vorzugsweise ist auch die Sichtkontrolle automatisiert in dem die zweite Einrichtung zur Bildgebung entweder robotergestützt dem optischen Zeiger nachführbar ausgestaltet oder mit dem optischen Zeiger mechanisch verbunden ist.
  • Anhand eines Ausführungsbeispiels und der dazugehörigen Figuren wird die Erfindung näher vorgestellt. Die Figuren sind schematisch und stellen keine maßstabsgetreuen Abbildungen dar:
    • 1 zeigt eine Ausführungsform der Anordnung zur robotergestützten Vornahme eines chirurgischen Eingriffs.
    • 2 zeigt eine Seitenansicht der Lichtquellen, der Lichtstrahlen sowie der Oberfläche des Untersuchungsobjektes.
    • 3 zeigt eine Draufsicht auf die Lichtquellen, die Lichtstrahlen sowie das erzeugte Zeiger-Bild der Lichtquelle auf der Oberfläche des Untersuchungsobjektes.
  • Anhand eines Ausführungsbeispiels wird die Erfindung näher vorgestellt.
  • Bei der in 1 gezeigten Ausführungsform der Anordnung ist eine Vorrichtung mit einem optischen Zeiger 10 zusammen mit mehreren Systemkomponenten zu einem CT-basierten Chirurgieassistenzsystem angeordnet. Es sind ein Manipulator 11 und zwei Lichtquellen 12 gezeigt sowie ein Tisch 20, auf dem ein Patient positioniert werden kann, eine Rechnereinheit 40, ein Monitor 41 sowie ein CT-Scanner 30 zur 3D-Bildgebung. Zusätzlich sind auf dem Tisch 20 die von den zwei Lichtquellen 12 erzeugten Zeiger-Bilder 13 dargestellt, wobei diese während der Nutzung des Systems auf dem Patienten zu sehen sind, insbesondere auf den von dem chirurgischen Eingriff betroffenen Organen.
  • 1 zeigt eine Ausführungsform der Vorrichtung zur Positionsanzeige 10, in der der Manipulator 11 sowie beide Lichtquellen 12 beweglich sind. Der gezeigte Tisch 20 ist in den CT-Scanner zur 3D-Bildgebung 30 einfahrbar. Der Monitor 41 ist so angebracht, dass der Chirurg aus seiner Arbeitsposition den Monitor 41 einsehen kann. Die Rechnereinheit 40 ist mit dem CT-Scanner zur 3D-Bildgebung 30, mit dem Monitor 40 und mit der Vorrichtung zur Positionsanzeige 10 verbunden. Die Rechnereinheit 40 ist außerhalb des Operationssaals angeordnet. Die Rechnereinheit 40 ist insbesondere Teil einer Arbeitsstation eines Expertensystems, mit einer Eingabeeinrichtung sowie einem zweiten Monitor. An der Rechnereinheit 40 kann der detaillierte Plan des chirurgischen Eingriffs erfolgen. Dazu kann ein erzeugtes 3D-Bild ausgewertet werden.
  • Chirurgieassistenzsysteme werden ganz besonders durch die erfindungsgemäße Vorrichtung mit einem optischen Zeiger 10 verbessert, da eine derartige Positions- und insbesondere Tiefenkontrolle über die zwei Zeiger-Bilder vom Anwender direkt wahrgenommen werden kann. Zusätzlich und gleichzeitig ist die Sichtkontrolle automatisierbar mittels einer zweiten Einrichtung zur Bildgebung.
  • Der Tisch 20, auf dem der Patient positioniert wird, ist in der Höhe verstellbar sowie horizontal, relativ zu CT-Scanner 30 und Manipulator 11, verfahrbar. Alternativ oder zusätzlich ist auch der CT-Scanner 30 verfahrbar. Die Positionierung und Orientierung von Tisch 20 und CT-Scanner 30 werden von der Rechnereinheit 40 registriert und ausgewertet, so dass diese Positionsinformation für die Positionsanzeige zur Verfügung steht. Die Vorrichtung zur Positionsanzeige 10 ist auf eine Grundeinstellung relativ zum Tisch 20 kalibrierbar.
  • 2 zeigt eine Seitenansicht der zwei Lichtquellen 12, die ausgesendeten Lichtstrahlen sowie die Oberfläche 50, wie etwa die Haut des Patienten oder die Oberfläche eines Organs oder Knochens. 2 zeigt den Fall der Übereinstimmung der Bilder. Die Lichtstrahlen der beiden Lichtquellen schneiden sich genau an einer Position an der Oberfläche 50 und liegen auf der Oberfläche 50 übereinander, so dass sie als ein Punkt auf der Oberfläche 50 erscheinen. Bei falscher Kalibrierung oder Bewegung des Patienten relativ zu den Lichtquellen 12 verschiebt sich die Oberfläche 50, was darin resultiert, dass anstatt eines Punktes zwei Punkte auf der Oberfläche 50 sichtbar sind. Aus den unterschiedlichen Farben der beiden Lichtquellen 12 ist somit auch ablesbar, ob die Oberfläche 50 vertikal nach oben oder nach unten verschoben wurde.
  • 3 zeigt eine Draufsicht auf die beiden Lichtquellen 12, deren Verbindungslinie 51 sowie die von den beiden Lichtquellen 12 erzeugten Linienbilder 13, die in dem gezeigten Fall in 3 nicht übereinstimmen, sondern parallel zueinander in einem auswertbaren Abstand zur Mittenlinie 52 auf die Oberfläche 50 treffen. Schneiden sich die Lichtstrahlen oberhalb der Oberfläche 50, liegt das grüne Linienbild 13 vom Betrachter aus links von dem zweiten blauen Linienbild 13. Daraus kann schon qualitativ erkannt werden, ob die Oberfläche 50 nach oben oder nach unten aus der Grundposition bewegt wurde.

Claims (11)

  1. Vorrichtung mit einem optischen Zeiger (10) zur Positionsanzeige, wobei der optische Zeiger (10) mindestens zwei Lichtquellen (12) unterschiedlicher Farbe aufweist, die mindestens zwei Lichtquellen (12) ausgestaltet sind, Lichtstrahlen auszusenden, wobei die Lichtstrahlen der mindestens zwei Lichtquellen (12) auf mindestens eine vorgebbare Position an einer Oberfläche (50) eines Untersuchungsobjektes ausrichtbar sind, so dass die mindestens eine Position in einem dreidimensionalen Koordinatensystem anzeigbar ist, wobei die Positionsanzeige durch eine Verschiebung der den optischen Zeiger (10) abbildenden Lichtstrahlen der mindestens zwei Lichtquellen (12) ablesbar ist, und wobei die mindestens zwei Lichtquellen (12) auf der Oberfläche (50) des Untersuchungsobjektes Linien als Zeiger-Bild (13) erzeugen.
  2. Vorrichtung nach Anspruch 1, wobei jede der mindestens zwei Lichtquellen (12) unabhängig schaltbar ist.
  3. Vorrichtung nach einem der vorstehenden Ansprüche, wobei die Intensität jeder der mindestens zwei Lichtquellen (12) modulierbar ist.
  4. Vorrichtung nach einem der vorstehenden Ansprüche, wobei die mit den mindestens zwei Lichtquellen (12) auf der Oberfläche (50) des Untersuchungsobjektes als Zeiger-Bild (13) erzeugten Linien zueinander parallele Linien sind.
  5. Vorrichtung nach Anspruch 4, wobei die von den mindestens zwei Lichtquellen (12) erzeugbaren Zeiger-Bilder (13) auf der Oberfläche (50) des Untersuchungsobjektes unterbrochene Linien sind, insbesondere auf einer Linie angeordnete Punkte sind.
  6. Anordnung zur robotergestützten Prozessschrittanzeige und/oder automatisierten Sichtkontrolle der Prozessschrittanzeige bei einem chirurgischen Eingriff, mit einem Tisch (20) zur Ablage eines Untersuchungsobjektes und einer Vorrichtung nach einem der vorstehenden Ansprüche.
  7. Anordnung nach Anspruch 6, wobei mindestens eine Einrichtung zur Bildgebung (30), insbesondere zur 3D-Bildgebung, von dem Untersuchungsobjekt, das auf dem Tisch (20) positionierbar ist, sowie eine Rechnereinheit (40) umfasst ist, wobei die Rechnereinheit (40) ausgestaltet ist eine Bildverarbeitung vorzunehmen, unter Hinzunahme der Bildinformation aus der Einrichtung zur Bildgebung einen Prozessschritt, insbesondere eines chirurgischen Eingriffs, zu berechnen und den optischen Zeiger (10) der Vorrichtung zur Positionsanzeige zu betätigen.
  8. Anordnung nach Anspruch 6 oder 7, wobei ein Monitor (41) und mindestens zwei Einrichtungen zur Bildgebung umfasst sind, wobei mindestens eine der Einrichtungen zur Bildgebung eine Einrichtung zur 3D-Bildgebung ist und mindestens eine der Einrichtungen zur Bildgebung eine Kamera, zur Erfassung der Oberfläche des Untersuchungsobjektes mit dem Zeiger-Bild des optischen Zeigers, ist, und wobei die Rechnereinheit ausgestaltet ist, auf dem Monitor (41) eine Überlagerung von zumindest einem 3D-Bild der Einrichtung zur 3D-Bildgebung und einem Bild der Kamera zur Erfassung der Oberfläche des Untersuchungsobjektes, wobei das Bild der Kamera einen Oberflächenabschnitt des Untersuchungsobjektes erfasst, der das Zeiger-Bild des optischen Zeigers umfasst, auszugeben.
  9. Anordnung nach Anspruch 8, wobei die Rechnereinheit (40) ausgestaltet ist eine Positionskontrolle, insbesondere eine Tiefenkontrolle, vorzunehmen mittels eines Bildauswerteprogramms anhand der von den mindestens zwei Lichtquellen (12) des optischen Zeigers (10) erzeugten Zeiger-Bilder (13) auf der Oberfläche (50) des Untersuchungsobjektes.
  10. Anordnung nach Anspruch 9, wobei die Rechnereinheit (40) ausgestaltet ist, bei Nichtübereinstimmung der Zeiger-Bilder (13) der mindestens zwei Lichtquellen (12) des optischen Zeigers (10) auf der Oberfläche (50) des Untersuchungsobjektes, ein Warnsignal auszugeben.
  11. Anordnung nach einem der Ansprüche 8 bis 10, wobei eine der Einrichtungen zur Bildgebung (30) eines Untersuchungsobjektes eine Mono-Kamera oder eine Stereokamera, insbesondere eine Videokamera oder eine laparoskopische Videokamera, ist, und eine der Einrichtungen zur Bildgebung (30) eines Untersuchungsobjektes ein Computertomographie-Scanner oder ein C-Bogen ist.
DE102010064320.3A 2010-12-29 2010-12-29 Optischer Zeiger für ein Chirurgieassistenzsystem Active DE102010064320B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102010064320.3A DE102010064320B4 (de) 2010-12-29 2010-12-29 Optischer Zeiger für ein Chirurgieassistenzsystem
PCT/EP2011/072934 WO2012089529A1 (de) 2010-12-29 2011-12-15 Optischer zeiger für ein chirurgieassistenzsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010064320.3A DE102010064320B4 (de) 2010-12-29 2010-12-29 Optischer Zeiger für ein Chirurgieassistenzsystem

Publications (2)

Publication Number Publication Date
DE102010064320A1 DE102010064320A1 (de) 2012-07-05
DE102010064320B4 true DE102010064320B4 (de) 2019-05-23

Family

ID=45373711

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010064320.3A Active DE102010064320B4 (de) 2010-12-29 2010-12-29 Optischer Zeiger für ein Chirurgieassistenzsystem

Country Status (2)

Country Link
DE (1) DE102010064320B4 (de)
WO (1) WO2012089529A1 (de)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4679076A (en) * 1983-06-08 1987-07-07 Vikterloef Karl Johan Means for registering coordinates
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
GB2328280A (en) * 1997-07-31 1999-02-17 Tricorder Technology Plc Scanning to obtain size, shape or other 3D surface features
EP1142536A1 (de) * 2000-04-05 2001-10-10 BrainLAB AG Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
US20040092958A1 (en) 2001-11-15 2004-05-13 Limonadi Farhad M. Stereotactic wands, endoscopes and methods using such wands and endoscopes
DE10308383A1 (de) * 2003-02-27 2004-09-16 Storz Endoskop Produktions Gmbh Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts
US20050107808A1 (en) * 1998-11-20 2005-05-19 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
US20050219552A1 (en) * 2002-06-07 2005-10-06 Ackerman Jermy D Methods and systems for laser based real-time structured light depth extraction
WO2009011643A1 (en) 2007-07-13 2009-01-22 C-Rad Positioning Ab Patient monitoring at radiation machines

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8182491B2 (en) * 2004-08-06 2012-05-22 Depuy Spine, Inc. Rigidly guided implant placement
DE102008013615A1 (de) * 2008-03-11 2009-09-24 Siemens Aktiengesellschaft Verfahren und Markierungsvorrichtung zur Markierung einer Führungslinie eines Eindringungsinstruments, Steuerungseinrichtung und Aufnahmesystem

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4679076A (en) * 1983-06-08 1987-07-07 Vikterloef Karl Johan Means for registering coordinates
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
GB2328280A (en) * 1997-07-31 1999-02-17 Tricorder Technology Plc Scanning to obtain size, shape or other 3D surface features
US20050107808A1 (en) * 1998-11-20 2005-05-19 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
EP1142536A1 (de) * 2000-04-05 2001-10-10 BrainLAB AG Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
US20040092958A1 (en) 2001-11-15 2004-05-13 Limonadi Farhad M. Stereotactic wands, endoscopes and methods using such wands and endoscopes
US20050219552A1 (en) * 2002-06-07 2005-10-06 Ackerman Jermy D Methods and systems for laser based real-time structured light depth extraction
DE10308383A1 (de) * 2003-02-27 2004-09-16 Storz Endoskop Produktions Gmbh Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts
WO2009011643A1 (en) 2007-07-13 2009-01-22 C-Rad Positioning Ab Patient monitoring at radiation machines

Also Published As

Publication number Publication date
DE102010064320A1 (de) 2012-07-05
WO2012089529A1 (de) 2012-07-05

Similar Documents

Publication Publication Date Title
EP3558599B1 (de) Verfahren zum kalibrieren eines manipulators eines diagnostischen und/oder therapeutischen manipulatorsystems
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP3076369B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
DE102019004235B4 (de) System und verfahren zur bildbasierten registrierung und kalibrierung
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE102014218557B4 (de) Benutzerschnittstelle und Verfahren zur automatisierten Positionierung eines Patiententisches relativ zu einer medizintechnischen Anlage
EP3412242A1 (de) Ausgabe von positionsinformationen eines medizintechnischen instruments
EP0682919A2 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE102014218558A1 (de) Benutzerschnittstelle und Verfahren zur automatisierten Positionierung eines Untersuchungstisches relativ zu einer medizintechnischen bildgebenden Anlage
DE19848765A1 (de) Positionsverifizierung in Kamerabildern
EP2914194A1 (de) Bildgebendes system, operationsvorrichtung mit dem bildgebenden system und verfahren zur bildgebung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
EP2111814B1 (de) Verfahren zum Registrieren eines mit fächerförmigen Abbildungsstrahlen generierten 2D-Bilddatensatzes im Bereich der Medizin und dazugehöriges Computerprogrammprodukt sowie Verfahren und System zur automatischen Registrierung eines Körpers basierend auf 2D-Bilddaten zum Einsatz in medizinischen Navigationssystemen
DE102017203438A1 (de) Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102021103411A1 (de) Chirurgisches Assistenzsystem und Darstellungsverfahren
DE102011050240A1 (de) Vorrichtung und Verfahren zur Bestimmung der relativen Position und Orientierung von Objekten
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE69929026T2 (de) Bildgebungsverfahren für bildgesteuerte chirurgie
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102010064320B4 (de) Optischer Zeiger für ein Chirurgieassistenzsystem
DE102006055133B4 (de) Verfahren zur Positionierung einer Röntgenaufnahmeeinrichtung relativ zu einem Untersuchungszentrum
DE102010020287B4 (de) Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts
EP3499461B1 (de) Darstellung von markern in der medizinischen bildgebung
DE102014223386A1 (de) Roboterregistrierung bei bildgebenden Modalitäten

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE