DE19961971B4 - Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments - Google Patents

Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments Download PDF

Info

Publication number
DE19961971B4
DE19961971B4 DE19961971A DE19961971A DE19961971B4 DE 19961971 B4 DE19961971 B4 DE 19961971B4 DE 19961971 A DE19961971 A DE 19961971A DE 19961971 A DE19961971 A DE 19961971A DE 19961971 B4 DE19961971 B4 DE 19961971B4
Authority
DE
Germany
Prior art keywords
endoscope
instrument
image
tracking
efs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19961971A
Other languages
English (en)
Other versions
DE19961971A1 (de
Inventor
Wolfgang Dr. Eppler
Ralf Dr. Mikut
Udo Dr. Voges
Rainer Dr. Stotzka
Helmut Breitwieser
Reinhold Oberle
Harald Dr. Fischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karlsruher Institut fuer Technologie KIT
Original Assignee
Forschungszentrum Karlsruhe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Forschungszentrum Karlsruhe GmbH filed Critical Forschungszentrum Karlsruhe GmbH
Priority to DE19961971A priority Critical patent/DE19961971B4/de
Priority to PCT/EP2000/011062 priority patent/WO2001046577A2/de
Priority to EP00977518A priority patent/EP1240418A1/de
Publication of DE19961971A1 publication Critical patent/DE19961971A1/de
Priority to US10/172,436 priority patent/US20020156345A1/en
Application granted granted Critical
Publication of DE19961971B4 publication Critical patent/DE19961971B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Vorrichtung zum automatischen Nachführen eines Endoskops und Verfolgen eines chirurgischen Instruments, bestehend aus:
• dem Endoskop,
das ein Bild aus dem Körperinneren aufnimmt, um es auf einem Monitor darzustellen,
• einem Bildverarbeitungssystem,
das auf dem vom Endoskop gewonnenen Bild die Instrumentenspitze erkennt und seine Position ermittelt,
• einem Steuerungssystem,
das aufgrund der ihm bekannten aktuellen Position des Endoskops und der erkannten Position der Instrumentenspitze Steuerungsinformationen für ein Endoskop-Führungs-System, EFS, aufbereitet,
• einem Überwachungssystem,
das das Steuerungssystem und das Gesamtsystem überwacht,
• einem Bediensystem,
das den Bediener zwischen unterschiedlichen Funktionen des EFS wählen lässt und ihm verschiedene Informationen wie den Systemstatus anzeigt,
• dem Endoskop-Führungs-System, EFS,
das das Endoskop mit Kamera aufnimmt/hält und entsprechend der vom Steuerungssystem übermittelten Steuerungsinformation führt,
und die Einrichtungen zur:
Fehlertoleranzbearbeitung,
intuitiven Bedienung und
Souveränität hat,
wobei bei der Fehlertoleranzbearbeitung:...

Description

  • Die Erfindung betrifft eine Vorrichtung zur sicheren automatischen Nachführung eines Endoskops und Verfolgen (Tracking) eines chirurgischen Instrumentes mit einem elektrisch angetriebenen und gesteuerten Endoskop-Führungs-System, EFS, für die minimal invasive Chirurgie.
  • Bei minimal invasiven Operationen orientiert sich der Chirurg an einem Monitorbild (Original-Monitor). Ein Endoskop mit Kamera und die zur Operation notwendigen Instrumente werden durch Trokare in die Körperhöhle des Patienten eingeführt.
  • Zum gegenwärtigen Stand der Technik sind sowohl das Endoskop als auch die Kamera häufig noch manuell geführt. Der Chirurg, der die Instrumente führt, weist einen Assistenten an, das Endoskop mit Kamera so nachzuführen, dass das Instrument im Bild sichtbar bleibt. Die Vorteile dieser Vorgehensweise bestehen darin, dass der das Endoskop führende Assistent gefährliche Situationen vermeidet, Fehler erkennt, mit dem Chirurgen kommuniziert und das Endoskop nur dann nachfährt, wenn es notwendig ist. Nachteilig sind ein erhöhter Personalaufwand gegenüber konventionellen Operationen und das unvermeidliche Zittern des Assistenten.
  • Zur Vermeidung der genannten Nachteile wurden Systeme eingeführt, die das Endoskop automatisch führen. Ein solches Endoskop-Führungs-System zum Führen einer endoskopischen Kameraeinheit ist elektrisch angetrieben und kann an jeden Operationstisch angebracht werden. Zur Fernbedienung dient eine Bedienkomponente, meist ein Joystick, der in der Regel am Arbeitsinstrument befestigt ist, oder auch eine Spracheingabe. Das eingeführte Endoskop wie auch separat eingeführte Instrumente haben jeweils hinsichtlich der Bewegung einen invarianten Punkt, die Trokareinstichstelle, der auf oder in der Körperwand des Patienten bestehen muss, damit diese Geräte schwenkbar und neigbar sind, ohne den Patienten dabei mehr als mit dem Durchstich zu verletzen. Die Kamera des Endoskop-Führungs-Systems ist dabei so geführt und montiert, dass die untere Bildkante parallel zur Patientenauflage verläuft und das Bild nicht auf dem Kopf zu stehen kommt (siehe z. B. DE 196 09 034 ). Eine Verdrehung der Kamera ist wohl möglich, erschwert aber die räumliche Orientierung.
  • Ein in den Körper des Patienten ragendes Endoskop eines solchen Endoskop-Führungs-Systems verfügt über mehrere Freiheitsgrade. Beispielsweise hat das EFS in DE 196 09 034 vier Freiheitsgrade der Bewegung, und zwar um eine erste Achse senkrecht zum Operationstisch durch die Einstichstelle am Körper, um eine zweite Achse senkrecht zu der ersten und senkrecht zur Einstichrichtung, entlang einer dritten Achse, der Trokarachse, und um diese letztere Achse. Die ersten drei Freiheitsgrade sind über Endschalter begrenzt. Mit der Bedienkomponente, z. B. am Instrumentengriff des vom Chirurgen bedienten Instruments, wird die Endoskopkamera in ihrer Blickrichtung gelenkt. Jeder der vier Freiheitsgrade kann so mit sicherheitsbegrenzter Geschwindigkeit verändert werden.
  • Auf der Basis einer derart vorhandenen Endoskopsteuerung ist ein automatisches Trackingsystem installierbar. Ein solches Steuerungssystem ist aus der US 5,820,545 bekannt. Die darin ins Auge gefasste Instrumentenspitze ist bei jeder Bewegung ständig nachführbar, was Unruhe für den Betrachter bedeutet. Hierzu ist eine Elektronik notwendig, die, da speziell angefertigt, einen erheblichen wirtschaftlichen Aufwand bedeutet. Soll die dritte Dimension erfasst werden, muss dazu die entsprechende 3-D-Kameraeinrichtung vorgesehen werden, was den apparativen Aufwand erhöht. Eine Fehlerbehandlung, wie sie aufgrund von Reflexionen oder wechselnder Beleuchtung z. B. notwendig wird, ist nicht vorgesehen.
  • Bei dem Nachfahrsystem gemäß der US 5,836,869 wird der Bildausschnitt der aktuellen Instrumentenspitze nachgefahren. Der operierende Chirurg bekommt zwei verschiedene Bilder zu sehen. Es wird eine Farb-, Geometrie- oder Helligkeitskodierung des In struments und eine Positionserkennung über Magnetsonden am Arbeitsinstrument beschrieben. Es können zwei Bilder betrachtet werden, nämlich der Zoom einer Situation und die Übersicht. Das Tracking wird auf Instrumente oder farb-/geometriemarkierte Organe bezogen. Mehrfarbige Markierungen zur Umschaltung der Trackingziele und zur Erhöhung der Sicherheit durch Redundanz werden erwähnt. Stellglied ist jeweils der Kamerazoom bzw. die Position der CCD-Chips in der Kamera oder eine elektronisch realisierte Bildauswahl auf dem Monitor. Das System benutzt durchweg Spezialkameras.
  • Bei allen verwendeten Verfahren stehen meist mehr Freiheitsgrade zur Verfügung als zur Positionierung des EFS notwendig sind, um die Instrumentenspitze auf die gewünschte Sollposition zu bringen. Diese Freiheitsgrade werden dazu verwendet, die auszuführenden Bewegungen zu minimieren. Ein mögliches Verfahren ist die Ermittlung optimaler Stellgrößen unter Verwendung einer Jacobi-Matrix, wobei auch Stellrestriktionen einbezogen werden können ( US 5,887,121 ).
  • Cinguin, P. et al. stellen in IEEE Engineering in Medicine and Biology, May/Dune 1995 auf den Seiten 254 bis 263 einen Aufsatz unter dem Titel: „Computer Assisted Medical Interventions” vor. Das Verfahren und die Anwendung der CAMI werden beschrieben. Es wird auf die Probleme mit der geometrischen Lokalisation hingewiesen, wobei Hardwareprobleme hauptsächlich die Positions- und Gestaltsensoren betreffen und Softwareprobleme sich im Wesentlichen auf Registrierungsverfahren beschränken. Beide Problemkreise begründeten die Entwicklung und Zusammenfassung von passiven und halbaktiven Systemen.
  • Bei allen genannten Verfahren gehen die Vorteile verloren, die die manuelle Führung durch einen Assistenten bietet. Das Nachführverhalten ist unruhig, weil die Systeme versuchen, einen vorgegebenen Punkt auf dem Monitor genau zu erreichen und auch bei kleinen Abweichungen, die z. B. durch Bewegungen des Instruments verursacht werden, sofort das Endoskop nachführen.
  • Die Systeme sind kaum in der Lage, auftretende Fehler automatisch zu detektieren. Es findet nur eine sehr einfache unidirektionale Kommunikation vom Chirurgen zum EFS statt. Der Chirurg erhält keine Hinweise über mögliche Fehlerursachen.
  • Der Erfindung liegt die Aufgabe zugrunde, eine schnelle, fehlertolerante und kostengünstige Vorrichtung für das automatische Verfolgen einer Instrumentenspitze mit einem sparsam bewegten Endoskop bereitzustellen und damit den operierenden Chirurgen von der Endoskopführung zu entlasten.
  • Die Erfindung wird durch eine Vorrichtung mit den Merkmalen des Anspruchs 1 gelöst und hat zum Ziel, die Vorteile einer manuellen Führung des Endoskops auch bei einer automatischen Nachführung beizubehalten.
  • Mit der Vorrichtung sind mehrere Überwachungskonzepte gegeben:
    • A. die Fehlertoleranzbearbeitung,
    • B. die intuitiven Bedienung und
    • C. die Souveränität.
  • Der Bildverarbeitungs- und Endoskopsteuerungsteil ist von dem Original-Monitor des operierenden Chirurgen strikt getrennt. Fehler in diesen Teilen beeinflussen nicht die von ihm verfolgten Sequenzen. Das Erkennen der Instrumentenspitze und die Steuerung des Endoskops mit seinen Achsen und der Zoomsteuerung wird als Einheit behandelt, da das hiermit realisierte Sicherheitskonzept Fehler sowohl bei der Bilderkennung als auch bei der Belegung der Stellgrößen mit hoher Zuverlässigkeit feststellen kann. Feststellbare Fehlerzustände sind:
    Mehrfacherkennung des Instrumentes aufgrund von Reflexionen, keine Erkennung des Instrumentes wegen Verschmutzung,
    zeitlich stark verzögerte Erkennung des Instruments derart, dass die Abtastrate der Endoskopregelung wegen zu geringer Leistung des Rechners nicht mehr eingehalten werden kann,
    unrealistisch sprunghafte Ortsveränderung des Instruments wegen begrenzter Drehzahl der Stellmotoren und eine zu starke, sicher heitskritische Annäherung der Optik an das Instrument oder an ein Organ.
  • Die Endoskopeinstellung ist nur veränderbar, wenn die Instrumentenspitze einen bestimmten Rahmen im Bildzentrum des O-Monitors verlässt (zulässiger Bereich). Dadurch bleibt das Bild für den Chirurgen ruhig, wenn er das Instrument innerhalb dieses Rahmens in der Nähe des Bildzentrums bewegt.
  • Die Instrumentenspitze ist durch Form, Farbe oder auch nur durch ihre charakteristische Form markiert, um eine schnelle Erkennung zu erreichen. Dennoch ist nicht zu vermeiden, dass sich bei unterschiedlichen Instrumenten die Merkmale ändern. Deswegen führt eine Online-Adaption der charakteristischen Eigenschaften der Markierung mit neuronalen oder statistischen Lernverfahren hier zu einer sicheren und flexiblen Instrumentenerkennung.
  • Um die Vorrichtung zusammenstellen zu können, reichen Standardkomponenten als Rechner, Betriebssystem und Kameras vollständig aus. Das System kommt zur Beobachtung mit einer einzigen Kamera, einer 2-D-Kamera aus. Es führt das Tracking anhand von zweidimensionalen Bildinformationen durch. Bei Verwendung einer 3-D-Kamera reicht die Nutzung eines Videokanals daher aus (Anspruch 9), wodurch der Hardware-Aufwand zur Bildverarbeitung reduzierbar ist.
  • Die Instrumentenspitze soll in der Bildmitte des O-Monitors haltbar sein. Daher bleiben Bewegungen senkrecht zur Bildebene unberücksichtigt. Sollen sie dennoch erkennbar sein, für eine Zoom-Steuerung etwa oder für eine Kamerabewegung senkrecht zur Bildebene, müssen weitere Maßnahmen ergreifbar sein. Eine ist ein weiterer Sensor am Trokar des Instruments, der die Eintauchtiefe misst (Anspruch 7), damit reduziert sich die bei der 3-D-Aufnahme notwendige zweikanalige Bildverarbeitung auf einen Kanal wie bei der 2-D-Aufnahme. Eine weitere ist, aus der perspektivischen Verzerrung der parallelen Kanten des Instruments den Abstand zwischen Endoskop und Instrumentenspitze grob berechen bar zu machen. Das setzt voraus, dass die Brennweite der Kamera sowie die Breiten- und Längenmaße des Instruments bekannt ist.
  • Oberste Priorität hat das Eingreifen des operierenden Chirurgen, der in die Endoskopsteuerung jederzeit mit höchster Priorität eingreifen und das Tracking abbrechen kann.
  • An Einstellungsarbeit geht vor der Operation während der Funktionsprüfung die konzentrale Einteilung des Monitorbereichs voraus. Es gibt drei Bereiche auf dem O-Monitor:
    den gesamten Bildschirm, den für die Instrumente zulässigen Aufenthaltsbereich und den Mittelpunktsbereich. Die Endoskopeinstellung ist automatisch nur veränderbar, wenn die Instrumentenspitze den zulässigen Bereich verlässt (Anspruch 2), wodurch das Bild angenehm ruhig bleibt. Um das ausführen zu können, ist der Bereich der Instrumentenspitze im Rechner abbildbar, ein zur Identifizierung ausreichendes Modell ist davon erstellbar (Anspruch 3). Eine Möglichkeit, das tun zu können, ist in Anspruch 4 erwähnt und besteht aus der Erzeugung eines Gradientenbilds, Segmentierung der Objektkanten und Ermittlung der dritten Dimension durch Berechnung der Kantengeraden mittels linearer Regression. Dabei kann das Gradientenbild durch ein Sobel-Filter erzeugbar sein (Anspruch 5).
  • Um eine hohe Qualität der Sicherheit zu erreichen, ist genügende Redundanz einzurichten. Die grundsätzliche Erzeugung der Multi-Sensor-Umgebung durch Positionssensoren und Bildverarbeitung ist durch weitere Positionssensoren am Führungssystem des Instruments (Anspruch 6) oder durch die Erfassung der Eintauchtiefe am Trokar (Anspruch 7) ergänzbar.
  • Der Vorteil der Redundanz besteht darin, dass die Bildverarbeitung und die redundanten Sensoren unterschiedliche Vor- und Nachteile aufweisen. Beispielsweise ist die Bildverarbeitung empfindlich gegenüber einer Verdeckung der Instrumentenspitze und Verschmutzungen der Optik. Positionssensoren am Instrumentenführungssystem können je nach verwendetem Messprinzip bei e lektromagnetischen Störungen im Operationssaal fehlerhafte Informationen liefern, Ungenauigkeiten aufgrund unterschiedlicher Länge der verwendeten Instrumente oder Ungenauigkeiten bei der Ermittlung der Bezugs-Koordinatensysteme zwischen Endoskop- und Instrumentenführung aufweisen, oder sie können während der Operation ausfallen. Existieren nun sowohl Bildverarbeitung als auch Positionssensoren für die Instrumentenführung, sind die Ergebnisse vergleichbar und auf Konsistenz überprüfbar. Aufgrund der Entwicklung der Fehler kann in vielen Fällen darauf geschlossen werden, welches der Sensorsignale die gegenwärtige Situation fehlerfrei wiedergibt.
  • Die Verwendung der Positionssensoren am Instrumentenschaft oder am Instrumentenführungssystem kann sogar dazu führen, dass die Bildverarbeitung vollständig ersetzbar ist.
  • Der Grad der Redundanz der Freiheitsgrade des Endoskop-Führungs-Systems ist durch die Anzahl der überschüssigen Achsen bestimmbar, die nicht direkt für die Zentrierung des Objekts im O-Monitorbild notwendig sind. Dies können sowohl extrakorporale Achsen des EFS sein – Drehung um die Vertikalachse, um die Horizontalachse und Drehung um als auch Translation längs der Trokarachse – aber auch weitere Freiheitsgrade, die sich etwa durch den Einsatz von Endoskopen mit flexiblen, schwenkbaren Distalbereichen ergeben. Damit bestehen sog. intrakorporale Achsen bzw. Freiheitsgrade (Anspruch 8).
  • Die Vorrichtung gewährt eine sehr hohe Sicherheit und lässt eine große Fehlertoleranz zu. Die Vorrichtung arbeitet in einfachen Erkennungssituationen mit einer erhöhten Verarbeitungsgeschwindigkeit insbesondere in der Bildverarbeitung und ist in der Lage, bei komplizierten Erkennungssituationen, wie ungünstige Beleuchtung, Ähnlichkeiten zwischen Instrumentenspitzen und Umgebung, mit einer reduzierten Geschwindigkeit nachzufahren. Die Nachführung des Endoskops bleibt mindestens so schnell, dass keine Ungeduld beim operierenden Chirurgen provozierbar ist.
  • Da das Endoskop durch das Führungssystem sparsam bewegbar ist, besteht ein ruhiges und doch wahres Bild auf dem O-Monitor, das den Chirurgen nicht unnötig ablenkt. Eine weitere Entlastung ergibt sich dadurch.
  • Die Vorrichtung erlaubt optional die Integration zusätzlicher Sensorinformationen wie der von Magnetsonden am Führungssystem des Arbeitsinstruments, Messung der Eintauchtiefe am Trokar, um bei der Multi-Sensor-Umgebung den temporären Ausfall einzelner Sensoren durch Verschmutzung der Instrumentenspitze bei optischer Messung zu kompensieren, die Plausibilität der ausgewerteten Sensorinformationen zu überprüfen und damit schließlich die Sicherheit zu erhöhen.
  • Wird das Instrument von einem Instrumenten-Führungssystem, IFS, geführt, sei es hand- oder maschinengeführt, so kommt auch über dieses Information an das EFS.
  • Das System ist aus handelsüblichen Baukomponenten bzw. Teilsystemen aufgebaut und ist daher wirtschaftlich akzeptabel realisierbar.
  • Die Vorrichtung wird im Folgenden anhand der Zeichnung in ihrer Struktur näher erläutert. Es zeigen:
  • 1 Hierarchie der Vorrichtung,
  • 2 Systemstruktur
  • 3 Zustandsgraph des automatischen Nachführens,
  • 4 Bildbereiche auf dem Original-Monitor,
  • 5 Abbildung der Instrumentengeometrie und
  • 6 Endoskop-Führungs-System schematisch.
  • In medizintechnischen Geräten ist der Sicherheitsstandard sehr hoch angesetzt. Der Kern der automatischen Endoskopnachführung ist die fehlertolerante Vorrichtung, die mit mehrfacher Redundanz arbeitet und damit die geforderte Sicherheit gewährleistet. Weitere Sicherheit entsteht aus der Entlastung des operierenden Chirurgen, in dem er, wo möglich, von technischen Handgriffen befreit ist. Unterschiedliche Grade an automatischer Trackingunterstützung bieten Unterstützung nach Bedarf. Das bedeutet, dass der Arzt die für die Operation notwendigen Instrumente intuitiv und souverän bedienen kann. Dafür sorgt die ruhige Bahnführung, die Geschwindigkeitsbegrenzung bei der Nachführung und die sprachliche Ausgabe, durch die der Arzt über das Ausgabemedium: MMI-Monitor, LCD-Display oder Sprachausgabe über Fehler und kritische Zustände des Systems, wie verschmutztes Endoskop, informiert wird.
  • Damit ist im Vergleich zu vorhandenen Systemen die Sicherheit und Akzeptanz wesentlich erhöht, weil der Chirurg oder der Assistent die Ursachen für die Fehlfunktion gezielt beseitigen kann, z. B. durch Reinigen der Optik oder durch Rückführung des Instruments in den Bildbereich. Außerdem sind so unerwartete Reaktionen des Nachführsystems deutlich reduzierbar.
  • Souveränität heißt weiterhin: der Chirurg benützt den vom Nachführungssystem unabhängigen Monitor, den Original-Monitor, und hat die hierarchische Möglichkeit, das Nachführungssystem jederzeit abzuschalten. In 1 ist diese strukturierte Forderung dargestellt und zeigt die Hierarchie in ihrem Aufbau von der zentralen Forderung der Sicherheit ausgehend.
  • Die Fehlertoleranz ist durch eine oder mehrere Maßnahmen erreichbar:
    Objekterkennung und Steuerung als Einheit,
    mehrfache Behandlung möglicher Fehlerzustände, sowohl durch einzelne Komponenten der Bildverarbeitung und der Steuerung als auch durch ein übergeordnetes Überwachungssystem,
    Multisensor-Konzept,
    adaptive Merkmalsanpassung und
    3-D-Rekonstruktion.
  • Der Vorteil der einheitlichen Behandlung der Objekterkennung und Steuerung liegt darin, dass so Rückschlüsse auf Fehlerursachen getroffen werden können. Sind beispielsweise die letzten Stellaktionen bekannt, ist mit größerer Genauigkeit auf die wahrscheinlichen Positionen der Instrumentenmarkierung zu schließen, wodurch eine höhere Erkennungssicherheit erzielbar ist. Eine Ermittlung der Fehlerursache hat neben der verbesserten Kommunikation mit dem Chirurgen den Vorteil, adäquate Systemreaktionen ermitteln zu können.
  • Eine Systemkonfiguration des Endoskop-Führungs-Systems ist beispielhaft durch die Systemstruktur in 2 schematisch dargestellt und besteht aus folgenden, über Kabel verbundenen Blöcken:
    • – dem Basis-EFS mit vier Freiheitsgraden, links/rechts, oben/unten, drehen und rein/raus einschließlich der elektronischen Ansteuerung und den Endschaltern auf den entsprechenden Achsen der Freiheitsgrade,
    • – dem 2-D-Videoendoskop mit Video-Ausgang (Rot/Gelb/Blau-Ausgang, RGB), Original-Monitor und Lichtquelle,
    • – dem Rechner (PC) mit MMI-Monitor für die Schnittstelle: Mensch-Maschine (MMI) und der Digital-Ausgabe-Karte zur Ansteuerung der Logik-Schnittstelle (TTL),
    • – der Zusatzkomponenten zur Bildvorverarbeitung, sog. Framegrabber,
    • – der Bedienschnittstelle in Form eines Handschalters, dem Joystick für die manuelle Bedienung.
  • Die Nachführungssteuerung, Trackingsteuerung, besteht aus den Komponenten:
    Bildverarbeitung,
    Bahnsteuerung und
    Überwachung.
  • Sie verarbeitet die Eingangsgrößen:
    BI = Binary Input „Tracking ein”,
    BI = Binary Input „Tracking stop” und
    das Videosignal mit drei Kanälen (RGB) und Synchronisation.
  • Die Ausgangsgrößen sind:
    • – 2 × 4 × BO (Binary Output) zur Veränderung der Achsenposition über die Ansteuerung einer zweiten digitalen Schnittstelle,
    • – Status- und Fehlermeldungen.
  • Die Hauptaufgabe der automatischen Tracking-Funktion besteht darin, die aktuell benötigte Instrumentenspitze in dem Mittelpunktsbereich zu halten (siehe 4). Der dazu notwendige Steuerungsablauf ist in dem Zustandsgraph gemäß 3 dargestellt. Die Freigabeschaltung für das automatische Tracking wird systemintern veranlasst.
  • Das automatische Tracking ist hier vom operierenden Chirurgen über den Ringschalter an der Bedieneinheit freigebbar (siehe 6) und bleibt solange aktiv, bis es durch Drücken der Stoptaste oder durch Bedienung des Joysticks oder automatisch gestoppt wird.
  • Ein automatischer Stopp des Tracking tritt ein:
    • – wenn kein Instrument im Bild erkannt wird, sei es, weil nicht vorhanden oder weil verschmutzt,
    • – wenn aufgrund sicherheitskritischer, zu geringer Entfernung zum Instrument das Bild unscharf wird,
    • – wenn mehrere Instrumente erkannt werden,
    • – wenn die Erkennung des Instruments nicht innerhalb der geforderten Reaktionszeit erfolgt,
    • – wenn kein Videosignal anliegt,
    • – wenn die Bildverarbeitung, Bahnsteuerung, Überwachung oder die Ansteuerung elektronische oder Programmfehler erkennt. Sämtliche Fehler sind auf den MMI-Monitor eingeblendbar.
  • Nach einem Stop ist das Tracking wieder freigebbar. Das automatische Tracking arbeitet dabei mit eingeschränkten Stellgeschwindigkeiten bis zu 10 cm/sec bzw. 30°/sec, die weiterhin applikations- (Bauch-, Lungen-, Herzchirurgie beispielsweise) und individuumabhängig eingeschränkt bzw. Anpassbar ist, so dass der Chirurg auf unerwünschte Situationen rechtzeitig reagieren kann. Darüber hinaus besteht eine Stellbegrenzung für die Achsenpositionen, die ein Kippen und Schwenken in Grenzen hält, das translatorische Bewegen entlang der Trokarachse begrenzt und eine Volldrehung um die Schaftachse nicht zuläßt (siehe 8).
  • Aus dem Kamerabild auf dem O-Monitor (4) ist die eventuell zusätzlich markierte Instrumentenspitze über ihr im Rechner abgelegtes Abbild automatisch erkennbar und ihre mittlere Position durch die x-Position und y-Position im zweidimensionalen Kamerabild, Erkennungssicherheit, Größe der identifizierten Instrumentenspitze und weiteren Informationen zur Fehlererkennung an die Steuerung weitergebbar. Die Erkennung der Instrumentenspitze arbeitet selbständig und ist unabhängig von der Freigabe des Tracking. Die Bildverarbeitung (2) erkennt auftretende Fehler wie: kein Instrument im Bild, mehrere Instrumente im Bild, und stoppt in diesen Fällen das automatische Tracking.
  • Beim Verlassen des zulässigen Bereichs (4) ist durch das automatische Tracking die Position des Endoskops so veränderbar, bis sich die Instrumentenspitze wieder im Mittelpunktsbereich befindet. Diese Aufgabe ist durch die Bahnsteuerung (siehe 2) lösbar, die die gemessene Position der Instrumentenspitze im Kamerabild kontinuierlich mit verarbeitet.
  • Nach dem Erreichen des kleineren Bereichs um den Bildmittelpunkt sind solange keine weiteren Stellhandlungen auslösbar, bis der vorgegebene größere zulässige Bereich (4) wieder verlassen wird. Durch diese Zurückhaltung in der Bewegung durch bereichsweise Unterdrückung derselben ist ein ruhiges Bild auf dem O-Monitor erzeugbar.
  • Der Status des automatischen Trackings und eventuelle Fehlermeldungen sind auf dem MMI-Monitor einblendbar bzw. anzeigbar, so dass kein Eingriff in die Bildübertragung zwischen Kamera und O-Monitor für das Kamerabild erfolgen muss.
  • Um Tiefenerkennung zu erhalten, ist die 3-D-Positionsbestimmung gebräuchlich, aber wegen zwei notwendigen Kameras, deren Blickachsen unter einem vorgegebenen Schielwinkel zueinander stehen, ein Geräteaufwand, der durch die Tiefenerkennung an Hand von 2-D-Bilddaten mit nur einer Kamera in Grenzen kompensierbar ist. Mit Hilfe der einfachen Strahlensatz-Strahloptik ist der Zusammenhang zwischen Bild- und Gegenstandsweite genau ermittelbar: g = f·(GB + 1)mit
  • g:
    Gegenstandsweite,
    G:
    Gegenstandsgröße,
    B:
    Bildgröße,
    f:
    Brennweite der Endoskoplinse
  • Die Abschätzung der dritten Dimension gelingt hinreichend genau bei bekannter Brennweite des Endoskops.
  • Die wichtigste Aufgabe bei der Tiefenabschätzung ist es, die Größe des Objektes im Bild zu bestimmen. Objekt kann auch eine auf dem Objekt gut zu erkennende Markierung mit scharfen Kanten bedeuten. Die einfachste Methode der Erkennung besteht darin, den Durchmesser der segmentierten Markierungsregion zu bestimmen. Dies erweist sich als ungenau, da es durch die unterschiedlichen Orientierungen des Endoskops und durch die Eigenschaften der Zentralprojektion zu Verformungen kommt, die keine genaue Bestimmung der Objektbreite zulassen.
  • Ein besseres Verfahren zur Ermittlung der Instrumentenbreite an der Spitze segmentiert in einem ersten Schritt die Kanten des Objekts und bestimmt daraufhin den Abstand zum errechneten Schwerpunkt. Dies hat den Vorteil, dass unabhängig von der Ausrichtung und durch die Projektion weitgehend unbeeinflusst die Breite des Objektes bestimmbar ist.
  • Die Detektion der Objektkanten erfolgt in mehreren Schritten:
    • – Zuerst wird ein Filter, zum Beispiel ein 3 × 3-Sobel-Filter, auf das transformierte Graustufenbild angewandt, um anschließend einen Kantenverfolgungsalgorithmus zu starten.
  • Die gefundenen Kanten besitzen jedoch den Nachteil, dass ihre Breite stark variieren kann. Verlangt wird eine dünne Kantenlinie, die durchweg die Breite eines Pixels besitzt, um Abstände zu den Rändern genauer bestimmen zu können.
  • Realisiert wird dies durch Approximation der segmentierten Kanten durch Gerade.
  • Dies gelingt am schnellsten durch eine lineare Regressionsanalyse, bei der die Beziehung zwischen den x- und y-Werten einer Punktemenge in Form eines linearen Modells formuliert werden. So lassen sich die Kanten mathematisch beschreiben, was die Bestimmung der Objektgröße in einem nächsten Schritt ermöglicht. Dies geschieht entweder über den Abstand zweier paralleler Geraden oder über den Abstand einer Geraden zum Schwerpunkt des Objekts durch Umformen der Geradengleichungen in die Hesse'sche-Normalenform und Einsetzen des Schwerpunktes. 5 zeigt das mit den vier wesentlichen Schritten im Überblick, welche sind:
    • 1. Erzeugung des Gradientenbildes von dem markierten Instrument mit dem Sobel-Filter, dann
    • 2. Segmentierung der Objektkanten, Kantenverfolgung, dann
    • 3. Berechnung der Kantengerade mittels linearer Regression und schließlich
    • 4. die Berechnung des Abstandes: Gerade – Markierungsschwerpunkt.
  • Es zeigt sich, dass die Genauigkeit der Entfernungsbestimmung im Wesentlichen von der Qualität der Kantenextraktion abhängt.

Claims (9)

  1. Vorrichtung zum automatischen Nachführen eines Endoskops und Verfolgen eines chirurgischen Instruments, bestehend aus: • dem Endoskop, das ein Bild aus dem Körperinneren aufnimmt, um es auf einem Monitor darzustellen, • einem Bildverarbeitungssystem, das auf dem vom Endoskop gewonnenen Bild die Instrumentenspitze erkennt und seine Position ermittelt, • einem Steuerungssystem, das aufgrund der ihm bekannten aktuellen Position des Endoskops und der erkannten Position der Instrumentenspitze Steuerungsinformationen für ein Endoskop-Führungs-System, EFS, aufbereitet, • einem Überwachungssystem, das das Steuerungssystem und das Gesamtsystem überwacht, • einem Bediensystem, das den Bediener zwischen unterschiedlichen Funktionen des EFS wählen lässt und ihm verschiedene Informationen wie den Systemstatus anzeigt, • dem Endoskop-Führungs-System, EFS, das das Endoskop mit Kamera aufnimmt/hält und entsprechend der vom Steuerungssystem übermittelten Steuerungsinformation führt, und die Einrichtungen zur: Fehlertoleranzbearbeitung, intuitiven Bedienung und Souveränität hat, wobei bei der Fehlertoleranzbearbeitung: • der distale Endbereich eines verwendeten Instruments über eine Kamera aufnehmbar und daraus in dem Bildverarbeitungssystem ein spezielles Abbild mit aktueller Stellgrößenangabe erzeugbar ist; • die Beobachtung des Instruments auf: Mehrfacherkennung wegen Reflexion, keine Erkennung wegen Verschmutzung, keine Erkennung wegen Verlassen des Bildbereichs, keine Erkennung wegen Verdeckung, keine Erkennung wegen Unschärfe im Bild durch zu geringe Entfernung zwischen Optik und Instrumentenspitze, zeitlich zu späte Erkennung wegen geringer Rechnerleistung und sprunghafte Ortsänderung wegen Drehzahlbegrenzung der Stellmotoren fehlerbehandelbar ist; • bei erkannten kritischen Fehlern die Nachführung des EFS automatisch stoppt, um Verletzungen des Patienten zu vermeiden; • eine Multi-Sensor-Umgebung über eine Kamera mit Bildverarbeitung und Positionssensoren für die Freiheitsgrade des EFS erzeugbar ist; • das mit der Multi-Sensor-Umgebung versehene Endoskop-Führungs-System den temporären Ausfall oder die Unwirksamkeit einzelner Sensoren unter bestimmten Betriebsbedingungen: wie Verdeckung des Instruments, Verunreinigungen der Optik, elektromagnetische Störungen, kompensiert und die aktuell ausgewertete Sensorinformation auf Plausibilität überprüft; • mit einer adaptiven Merkmalsanpassung die Erkennung unterschiedlicher Objekte über maschinelle neuronale oder statistische Lernverfahren durchführbar sind; • mögliche Fehlerzustände zumindest teilweise doppelt behandelbar sind, und zwar durch einzelne Komponenten der Bildverarbeitung oder der Bahnsteuerung als auch durch das übergeordnete regelbasierte Überwachungssystem; • aus der perspektivischen Verzerrung der parallelen Kanten des distalen Instrumentenbereichs unter Einbeziehung der Brennweite der Kameralinse und den Maßen des Instruments der Abstand zwischen dem beobachtenden Endoskop und der Instrumentenspitze berechenbar ist, (3-D-Rekonstruktion); bei der Intuitiven Bedienung: • die Position des aktuell gehandhabten Endoskops nur veränderbar ist, wenn die auf dem Original-Monitor, O-Monitor, dargestellte Instrumentenspitze einen vorgegebenen zentralen Bereich, den zulässigen Bereich, verlässt, • die im Fehlerfall detektierte Fehlerursache über ein Mensch-Maschine-Interface, MMI, ausgebbar ist, das aus dem MMI-Monitor und/oder einer Sprachausgabe besteht; bei der Souveränität: • die auf dem O-Monitor beobachteten Handlungen Priorität haben und von dem Endoskop-Führungs-System nicht beeinflussbar sind; • das Endoskop-Führungs-System mit seiner Fehlertoleranzbearbeitung und intuitiven Bedienung an dem MMI nach Bedarf zuschaltbar ist; • die Geschwindigkeit zur Nachführung des Instruments und die Winkelgeschwindigkeit zur Drehung des Instruments derartig begrenzbar sind, dass ein menschliches Eingreifen stets gegeben ist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Bildbereich des O-Monitors bei einer der Operation vorangehenden Funktionsprüfung für das automatische Tracking in drei unterschiedlich große konzentrische Bereiche eingeteilt ist: – den Mittelpunktsbereich: befindet sich das Instrument oder befinden sich die Instrumente darin, so ist das Endoskop nicht automatisch nachführbar, – den zulässigen Bereich: befindet sich das Instrument oder befinden sich die In strumente innerhalb dieses Bereichs, so ist das Endoskop automatisch nachführbar, wenn das Instrument oder die Instrumente diesen Bereich vorher verlassen hatte oder hatten, und – den äußeren Bereich: befindet sich das Instrument oder befinden sich die Instrumente in diesem Bereich, so ist das Endoskop immer automatisch mit dem Ziel nachführbar, das Instrument wieder in den Mittelpunktsbereich zu bringen.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass als Abbild des Bereichs der Instrumentenspitze im Rechner ein vereinfachtes Modell davon abgelegt ist.
  4. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass von dem Bereich der Instrumentenspitze, die zusätzlich spezifisch markiert sein kann, zunächst ein Gradientenbild erzeugbar ist und die Objektkanten mittels Kantenverfolgung segmentierbar und schließlich mittels linearer Regression die jeweilige Kantengerade berechenbar ist, um die dritte Dimension daraus zu ermitteln.
  5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass das Gradientenbild mittels eines Sobel-Filters erzeugbar ist.
  6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die durch die Positionssensoren erzeugte Multi-Sensor-Umgebung durch Positionssensoren am Führungssystem des chirurgischen Instrumentes ergänzbar ist, wodurch Ausfälle im einen System durch das noch Funktionieren im andern ausgleichbar (kompensierbar) sind.
  7. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die durch die Kamera mit Bildverarbeitung und die Positionssensoren erzeugte Multi-Sensor-Umgebung durch Messung der Eintauchtiefe am Trokar ergänzbar ist, wodurch Ausfälle der Sensoren in einem System durch das noch Funktionieren im andern ausgleichbar (kompensierbar) sind.
  8. Vorrichtung nach den Ansprüchen 5 bis 7, dadurch gekennzeichnet, dass die durch extrakorporale Freiheitsgrade des EFS erzeugten und ausnutzbaren Redundanzen für das Tracking durch die intrakorporalen Freiheitsgrade des EFS erweiterbar sind.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass zur Verfolgung des Bereichs der Instrumentenspitze eine 2-D-Kamera oder eine 3-D-Kamera verwendbar ist, von der zur Reduzierung des Hardware-Aufwandes für die Bildverarbeitung nur ein Bildkanal verarbeitbar ist.
DE19961971A 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments Expired - Fee Related DE19961971B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE19961971A DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
PCT/EP2000/011062 WO2001046577A2 (de) 1999-12-22 2000-11-09 Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung (tracking) eines chirurgischen instrumentes mit einem elektrisch angetriebenen und gesteuerten endoskopführungssystem (efs) für die minimal invasive chirurgie
EP00977518A EP1240418A1 (de) 1999-12-22 2000-11-09 Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung eines chirurgischen instrumentes
US10/172,436 US20020156345A1 (en) 1999-12-22 2002-05-16 Method of guiding an endoscope for performing minimally invasive surgery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19961971A DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments

Publications (2)

Publication Number Publication Date
DE19961971A1 DE19961971A1 (de) 2001-07-26
DE19961971B4 true DE19961971B4 (de) 2009-10-22

Family

ID=7933779

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19961971A Expired - Fee Related DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments

Country Status (4)

Country Link
US (1) US20020156345A1 (de)
EP (1) EP1240418A1 (de)
DE (1) DE19961971B4 (de)
WO (1) WO2001046577A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015014952A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
DE102015100927A1 (de) 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US20030071893A1 (en) * 2001-10-05 2003-04-17 David Miller System and method of providing visual documentation during surgery
KR20040108769A (ko) * 2002-05-02 2004-12-24 메디거스 엘티디. 내시경 및 복강경용 진입 포트
EP1504712B1 (de) * 2002-10-29 2009-12-02 Olympus Corporation Endoskopinformationsprozessor und verarbeitungsmethode
DE10313829B4 (de) * 2003-03-21 2005-06-09 Aesculap Ag & Co. Kg Verfahren und Vorrichtung zur Auswahl eines Bildausschnittes aus einem Operationsgebiet
DE102004011888A1 (de) * 2003-09-29 2005-05-04 Fraunhofer Ges Forschung Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments
US9943372B2 (en) * 2005-04-18 2018-04-17 M.S.T. Medical Surgery Technologies Ltd. Device having a wearable interface for improving laparoscopic surgery and methods for use thereof
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7962195B2 (en) 2006-06-01 2011-06-14 Biosense Webster, Inc. Model-based correction of position measurements
KR101477121B1 (ko) * 2006-06-13 2014-12-29 인튜어티브 서지컬 인코포레이티드 미소절개 수술 시스템
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US20080004610A1 (en) * 2006-06-30 2008-01-03 David Miller System for calculating IOL power
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
GB2454017A (en) * 2007-10-26 2009-04-29 Prosurgics Ltd A control assembly
US9168173B2 (en) * 2008-04-04 2015-10-27 Truevision Systems, Inc. Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
US10117721B2 (en) * 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
US9173717B2 (en) * 2009-02-20 2015-11-03 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for intraocular lens implantation
DE102009010263B4 (de) * 2009-02-24 2011-01-20 Reiner Kunz Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
CN102413756B (zh) 2009-04-29 2015-04-01 皇家飞利浦电子股份有限公司 从单目内窥镜图像估计实时深度
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8784443B2 (en) * 2009-10-20 2014-07-22 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for astigmatism correction
US20110213342A1 (en) * 2010-02-26 2011-09-01 Ashok Burton Tripathi Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye
DE102010029275A1 (de) 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
US10238837B2 (en) * 2011-10-14 2019-03-26 Intuitive Surgical Operations, Inc. Catheters with control modes for interchangeable probes
KR101876386B1 (ko) * 2011-12-29 2018-07-11 삼성전자주식회사 의료용 로봇 시스템 및 그 제어 방법
TWI517828B (zh) * 2012-06-27 2016-01-21 國立交通大學 影像追蹤系統及其影像追蹤方法
US9552660B2 (en) 2012-08-30 2017-01-24 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
WO2015031777A1 (en) 2013-08-29 2015-03-05 Wayne State University Camera control system and method
DE102014118962A1 (de) * 2014-12-18 2016-06-23 Karl Storz Gmbh & Co. Kg Lagebestimmung eines minimalinvasiven Instrumentes
CN107613833B (zh) 2015-05-28 2019-10-08 奥林巴斯株式会社 内窥镜系统
EP3590406A4 (de) * 2017-02-28 2020-04-01 Sony Corporation Medizinisches beobachtungssystem, steuerungsvorrichtung und steuerungsverfahren
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
WO2018225132A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
CN114191099B (zh) * 2022-01-14 2023-12-01 山东威高手术机器人有限公司 微创手术机器人主从跟踪延时测试方法
DE102022118328A1 (de) 2022-07-21 2024-02-01 Karl Storz Se & Co. Kg Steuervorrichtung und System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19609034C2 (de) * 1995-03-10 1998-03-05 Karlsruhe Forschzent Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie
US5820545A (en) * 1995-08-14 1998-10-13 Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. Method of tracking a surgical instrument with a mono or stereo laparoscope
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
US5887121A (en) * 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
AT399647B (de) * 1992-07-31 1995-06-26 Truppe Michael Anordnung zur darstellung des inneren von körpern
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6671058B1 (en) * 1998-03-23 2003-12-30 Leica Geosystems Ag Method for determining the position and rotational position of an object
US6546277B1 (en) * 1998-04-21 2003-04-08 Neutar L.L.C. Instrument guidance system for spinal and other surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
DE19609034C2 (de) * 1995-03-10 1998-03-05 Karlsruhe Forschzent Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie
US5887121A (en) * 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints
US5820545A (en) * 1995-08-14 1998-10-13 Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. Method of tracking a surgical instrument with a mono or stereo laparoscope

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cinquin, P. et al.: " Computer Assisted Medical Interventions", In: IEEE Engineering in Medicine and Biology, May/June 1995, S. 244-263 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015014952A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE102013108228A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
WO2015032738A1 (de) 2013-09-05 2015-03-12 MAQUET GmbH Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE102015100927A1 (de) 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
WO2016116537A1 (de) 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und verfahren zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs unter verwendung mindestens eines medizinischen instrumentes

Also Published As

Publication number Publication date
EP1240418A1 (de) 2002-09-18
WO2001046577A2 (de) 2001-06-28
US20020156345A1 (en) 2002-10-24
DE19961971A1 (de) 2001-07-26
WO2001046577A8 (de) 2008-01-17

Similar Documents

Publication Publication Date Title
DE19961971B4 (de) Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
EP0975257B1 (de) Endoskopisches system
DE102018206406B3 (de) Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
EP2445437B1 (de) Verfahren zum erzeugen von positionsdaten eines instrumentes
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
DE102007054450A1 (de) Vorrichtung zur Bereitstellung von Bildern für einen Operateur
EP0260286B1 (de) Spaltlampengerät zur laserbehandlung des auges
EP1372459A1 (de) Endoskopische visualisierungsvorrichtung mit unterschiedlichen bildsystemen
EP2449997A1 (de) Medizinischer Arbeitsplatz
EP3484338B1 (de) Endoskopische vorrichtung und verfahren zur endoskopischen untersuchung
EP2082687A1 (de) Überlagerte Darstellung von Aufnahmen
WO2015032738A1 (de) Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE202013012276U1 (de) Vorrichtung zum unterstützen eines laparoskopischeneingriffs - lenk- und manövriergelenkwerkzeug
DE102014102425B4 (de) Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker
DE102011005259A1 (de) Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops
DE102018125592A1 (de) Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung
DE4241938A1 (de) Endoskop insbesondere mit Stereo-Seitblickoptik
WO2018007091A1 (de) Vorrichtung zur bildgebung in einem operationssaal
DE102011050240A1 (de) Vorrichtung und Verfahren zur Bestimmung der relativen Position und Orientierung von Objekten
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
DE102004052753A1 (de) Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff
DE102018206405B3 (de) Mikroskopiesystem sowie Verfahren zum Betrieb eines Mikroskopiesystems
DE102020205546A1 (de) Überwachungsverfahren und medizinisches System
DE10235795A1 (de) Medizinische Vorrichtung
DE102014224044A1 (de) Toolgesteuerte Multimodallupe im Sichtfeld eines Operationsmikroskop

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: KARLSRUHER INSTITUT FUER TECHNOLOGIE, 76131 KA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120703