DE19961971A1 - Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie - Google Patents

Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie

Info

Publication number
DE19961971A1
DE19961971A1 DE19961971A DE19961971A DE19961971A1 DE 19961971 A1 DE19961971 A1 DE 19961971A1 DE 19961971 A DE19961971 A DE 19961971A DE 19961971 A DE19961971 A DE 19961971A DE 19961971 A1 DE19961971 A1 DE 19961971A1
Authority
DE
Germany
Prior art keywords
instrument
endoscope
tracking
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19961971A
Other languages
English (en)
Other versions
DE19961971B4 (de
Inventor
Wolfgang Eppler
Ralf Mikut
Udo Voges
Rainer Stotzka
Helmut Breitwieser
Reinhold Oberle
Harald Fischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karlsruher Institut fuer Technologie KIT
Original Assignee
Forschungszentrum Karlsruhe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Forschungszentrum Karlsruhe GmbH filed Critical Forschungszentrum Karlsruhe GmbH
Priority to DE19961971A priority Critical patent/DE19961971B4/de
Priority to EP00977518A priority patent/EP1240418A1/de
Priority to PCT/EP2000/011062 priority patent/WO2001046577A2/de
Publication of DE19961971A1 publication Critical patent/DE19961971A1/de
Priority to US10/172,436 priority patent/US20020156345A1/en
Application granted granted Critical
Publication of DE19961971B4 publication Critical patent/DE19961971B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

Das Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instruments mit einem elektrisch angetriebenen und gesteuerten Endoskopführungssystem (EFS) für die minimal invasive Chirurgie ruht auf drei Säulen: der rechnergeführten Fehlertoleranzbearbeitung, der intuitiven Bedienung durch den und der Souveränität des operierenden Chirurgen. Dies ist die Basis für eine große Sicherheit bei der Operation und bedeutet eine angenehme Entlastung von konzentrationsraubendem Mitverfolgen und von momentanen Bedienvorgängen untergeordneter Priorität.

Description

Die Erfindung betrifft ein Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem elektrisch angetriebenen und gesteuerten Endoskopführungssystem (EFS) für die minimal in­ vasive Chirurgie.
Bei minimal invasiven Operationen orientiert sich der Chirurg an einem Monitorbild (Original-Monitor). Ein Endoskop mit Kamera und die zur Operation notwendigen Instrumente werden durch Tro­ kare in die Körperhöhle des Patienten eingeführt.
Zum gegenwärtigen Stand der Technik sind sowohl das Endoskop als auch die Kamera häufig noch manuell geführt. Der Chirurg, der die Instrumente führt, weist einen Assistenten an, das Endoskop mit Kamera so nachzuführen, daß das Instrument im Bild sichtbar bleibt. Die Vorteile dieser Vorgehensweise bestehen darin, daß der das Endoskop führende Assistent gefährliche Situationen ver­ meidet, Fehler erkennt, mit dem Chirurgen kommuniziert und das Endoskop nur dann nachführt, wenn es notwendig ist. Nachteilig ist ein erhöhter Personalaufwand gegenüber konventionellen Ope­ rationen und das unvermeidliche Zittern des Assistenten.
Zur Vermeidung der genannten Nachteile wurden Systeme einge­ führt, die das Endoskop automatisch führen. Ein solches Endos­ kopführungssystem zum Führen einer endoskopischen Kameraeinheit ist elektrisch angetrieben und kann an jeden Operationstisch an­ gebracht werden. Zur Fernbedienung dient eine Bedienkomponente, meist ein Joystick, der in der Regel am Arbeitsinstrument befe­ stigt wird, oder auch eine Spracheingabe. Das eingeführte Endo­ skop wie auch separat eingeführte Instrumente haben jeweils hin­ sichtlich der Bewegung einen invarianten Punkt, die Trokarein­ stichstelle, der auf oder in der Körperwand des Patienten beste­ hen muss, damit diese Geräte geschwenkt und geneigt werden kön­ nen, ohne den Patienten dabei mehr als mit dem Durchstich zu verletzen. Die Kamera des Endoskopführungssystems ist dabei so geführt und montiert, daß die untere Bildkante parallel zur Pa­ tientenauflage verläuft und das Bild nicht auf dem Kopf zu ste­ hen kommt (siehe z. B. DE 196 09 034). Eine Verdrehung der Ka­ mera ist wohl möglich, erschwert aber die räumliche Orientie­ rung.
Ein in den Körper des Patienten ragendes Endoskop eines solchen Endoskopführungssystems verfügt über mehrere Freiheitsgrade. Beispielsweise hat das EFS in DE 196 09 034 vier Freiheitsgrade der Bewegung, und zwar um eine erste Achse senkrecht zum Opera­ tionstisch durch die Einstichstelle am Körper, um eine zweite Achse senkrecht zu der ersten und senkrecht zur Einstichrich­ tung, entlang einer dritten Achse, der Trokarachse, und um diese letztere Achse. Die ersten drei Freiheitsgrade sind über End­ schalter begrenzt. Mit der Bedienkomponente, z. B. am Instrumen­ tengriff des vom Chirurgen bedienten Instruments, wird die Endo­ skopkamera in ihrer Blickrichtung gelenkt. Jeder der vier Frei­ heitsgrade kann so mit sicherheitsbegrenzter Geschwindigkeit verändert werden.
Auf der Basis einer derart vorhandenen Endoskopsteuerung ist ein automatisches Trackingsystem installierbar. Ein solches Steue­ rungssystem ist aus der US 5,820,545 bekannt. Die darin ins Auge gefasste Instrumentenspitze wird bei jeder Bewegung ständig nachgefahren, was Unruhe für den Betrachter bedeutet. Hierzu ist eine Elektronik notwendig, die, da speziell angefertigt, einen erheblichen wirtschaftlichen Aufwand bedeutet. Soll die dritte Dimension erfasst werden, muss dazu die entsprechende 3-D-Kame­ raeinrichtung vorgesehen werden, was den apparativen Aufwand er­ höht. Eine Fehlerbehandlung, wie sie aufgrund von Reflexionen oder wechselnder Beleuchtung z. B. notwendig wird, ist nicht vor­ gesehen.
Bei dem Nachfahrsystem gemäß der US 5, 836,869 wird der Bildaus­ schnitt der aktuellen Instrumentenspitze nachgefahren. Der ope­ rierende Chirurg bekommt zwei verschiedene Bilder zu sehen. Es wird eine Farb-, Geometrie- oder Helligkeitskodierung des In­ struments und eine Positionserkennung über Magnetsonden am Ar­ beitsinstrument beschrieben. Es können zwei Bilder betrachtet werden, nämlich der Zoom einer Situation und die Übersicht. Das Tracking wird auf Instrumente oder farb-/geometriemarkierte Or­ gane bezogen. Mehrfarbige Markierungen zur Umschaltung der Tracking­ ziele und zur Erhöhung der Sicherheit durch Redundanz werden erwähnt. Stellglied ist jeweils der Kamerazoom bzw. die Position der CCD-Chips in der Kamera oder eine elektronisch realisierte Bildauswahl auf dem Monitor. Das System benutzt durchweg Spe­ zialkameras.
Bei allen verwendeten Verfahren stehen meist mehr Freiheitsgrade zur Verfügung als zur Positionierung des EFS notwendig sind, um die Instrumentenspitze auf die gewünschte Sollposition zu brin­ gen. Diese Freiheitsgrade werden dazu verwendet, die auszufüh­ renden Bewegungen zu minimieren. Ein mögliches Verfahren ist die Ermittlung optimaler. Stellgrößen unter Verwendung einer Jacobi- Matrix, wobei auch Stellrestriktionen einbezogen werden können (US 5,887,121).
Bei allen genannten Verfahren gehen die Vorteile verloren, die die manuelle Führung durch einen Assistenten bietet. Das Nach­ führverhalten ist unruhig, weil die Systeme versuchen, einen vorgegebenen Punkt auf dem Monitor genau zu erreichen und auch bei kleinen Abweichungen, die z. B. durch Bewegungen des Instru­ ments verursacht werden, sofort das Endoskop nachführen. Die Systeme sind kaum in der Lage, auftretende Fehler automa­ tisch zu detektieren. Es findet nur eine sehr einfache unidirek­ tionale Kommunikation vom Chirurgen zum EFS statt. Der Chirurg erhält keine Hinweise über mögliche Fehlerursachen.
Der Erfindung liegt die Aufgabe zugrunde, ein schnelles, fehler­ tolerantes und kostengünstiges Verfahren für das automatische Verfolgen einer Instrumentenspitze mit einem sparsam bewegten Endoskop bereitzustellen und damit den operierenden Chirurgen von der Endoskopführung zu entlasten.
Die Erfindung wird durch ein Verfahren mit den Merkmalen des An­ spruchs 1 gelöst und hat zum Ziel, die Vorteile einer manuellen Führung des Endoskops auch bei einer automatischen Nachführung beizubehalten.
Das zugrunde liegende Sicherheitskonzept besteht aus mehreren Stufen:
  • A) der Fehlertoleranzbearbeitung,
  • B) der intuitiven Bedienung und
  • C) der Souveränität.
Der Bildverarbeitungs- und Endoskopsteuerungsteil ist von dem Original-Monitor des operierenden Chirurgen strikt getrennt. Fehler in diesen Teilen beeinflussen nicht die von ihm verfolg­ ten Sequenzen. Das Erkennen der Instrumentenspitze und die Steuerung des Endoskops mit seinen Achsen und der Zoomsteuerung wird als Einheit behandelt, da das hiermit realisierte Sicher­ heitskonzept Fehler sowohl bei der Bilderkennung als auch bei der Belegung der Stellgrößen mit hoher Zuverlässigkeit feststel­ len kann. Feststellbare Fehlerzustände sind:
Mehrfacherkennung des Instrumentes aufgrund von Reflexionen, keine Erkennung des Instrumentes wegen Verschmutzung,
zeitlich stark verzögerte Erkennung des Instruments derart, daß die Abtastrate der Endoskopregelung wegen zu geringer Leistung des Rechners nicht mehr eingehalten werden kann,
unrealistisch sprunghafte Ortsänderung des Instruments wegen be­ grenzter Drehzahl der Stellmotoren und eine zu starke, sicher­ heitskritische Annäherung der Optik an das Instrument oder an ein Organ.
Die Endoskopeinstellung wird nur verändert, wenn die Instrumen­ tenspitze einen bestimmten Rahmen im Bildzentrum des O-Monitors verlässt (zulässiger Bereich). Dadurch bleibt das Bild für den Chirurgen ruhig, wenn er das Instrument innerhalb dieses Rahmens in der Nähe des Bildzentrums bewegt.
Die Instrumentenspitze ist durch Form, Farbe oder auch nur durch ihre charakteristische Form markiert, um eine schnelle Erkennung zu erreichen. Dennoch ist nicht zu vermeiden, daß sich bei un­ terschiedlichen Instrumenten die Merkmale ändern. Deswegen wird eine Online-Adaption der charakteristischen Eigenschaften der Markierung mit neuronalen oder statistischen Lernverfahren hier zu einer sicheren und flexiblen Instrumentenerkennung führen.
Um all diese Verfahrensschritte durchführen zu können, reichen Standardkomponenten als Rechner, Betriebssystem und Kameras vollständig aus. Das System kommt zur Beobachtung mit einer ein­ zigen Kamera, einer 2-D-Kamera aus. Es führt das Tracking anhand von zweidimensionalen Bildinformationen durch. Bei Verwendung einer 3-D-Kamera reicht die Nutzung eines Videokanals daher aus (Anspruch 9), wodurch der Hardware-Aufwand zur Bildverarbeitung reduziert wird.
Die Instrumentenspitze soll in der Bildmitte des O-Monitors ge­ halten werden. Daher bleiben Bewegungen senkrecht zur Bildebene unberücksichtigt. Sollen sie dennoch erkannt werden, für eine Zoom-Steuerung etwa oder für eine Kamerabewegung senkrecht zur Bildebene, müssen weitere Maßnahmen ergriffen werden. Eine ist ein weiterer Sensor am Trokar des Instruments, der die Eintauch­ tiefe misst (Anspruch 7), damit reduziert sich die bei der 3-D- Aufnahme notwendige zweikanalige Bildverarbeitung auf einen Ka­ nal wie bei der 2-D-Aufnahme. Eine weitere ist, aus der perspek­ tivischen Verzerrung der parallelen Kanten des Instruments den Abstand zwischen Endoskop und Instrumentenspitze grob zu berech­ nen. Das setzt voraus, daß die Brennweite der Kamera sowie die Breiten- und Längenmaße des Instruments bekannt sind.
Oberste Priorität hat das Eingreifen des operierenden Chirurgen, der in die Endoskopsteuerung jederzeit mit höchster Priorität eingreifen und das Tracking abbrechen kann.
An Einstellungsarbeit geht vor der Operation während der Funkti­ onsprüfung die konzentrale Einteilung des Monitorbereichs vor­ aus. Es gibt drei Bereiche auf dem O-Monitor:
den gesamten Bildschirm, den für die Instrumente zulässigen Auf­ enthaltsbereich und den Mittelpunktsbereich. Die Endoskopein­ stellung wird automatisch nur verändert, wenn die Instrumenten­ spitze den zulässigen Bereich verlässt (Anspruch 2), wodurch das Bild angenehm ruhig bleibt. Um das ausführen zu können, wird der Bereich der Instrumentenspitze im Rechner abgebildet, ein zur Identifizierung ausreichendes Modell davon erstellt (Anspruch 3). Eine Methode, das zu tun, ist in Anspruch 4 erwähnt und be­ steht aus der Erzeugung eines Gradientenbilds, Segmentierung der Objektkanten und Ermittlung der dritten Dimension durch Berech­ nung der Kantengeraden mittels linearer Regression. Dabei kann das Gradientenbild durch ein Sobel-Filter erzeugt sein (Anspruch 5).
Um eine hohe Qualität der Sicherheit zu erreichen, ist genügende Redundanz einzurichten. Die grundsätzliche Erzeugung der Multi- Sensor-Umgebung durch Positionssensoren und Bildverarbeitung kann durch weitere Positionssensoren am Führungssystem des In­ struments (Anspruch 6) oder durch die Erfassung der Eintauch­ tiefe am Trokar (Anspruch 7) ergänzt werden.
Der Vorteil der Redundanz besteht darin, daß die Bildverarbei­ tung und die redundanten Sensoren unterschiedliche Vor- und Nachteile aufweisen. Beispielsweise ist die Bildverarbeitung empfindlich gegenüber einer Verdeckung der Instrumentenspitze und Verschmutzungen der Optik. Positionssensoren am Instrumen­ tenführungssystem können je nach verwendetem Messprinzip bei elektromagnetischen Störungen im Operationssaal fehlerhafte In­ formationen liefern, Ungenauigkeiten aufgrund unterschiedlicher Länge der verwendeten Instrumente oder Ungenauigkeiten bei der Ermittlung der Bezugs-Koordinatensysteme zwischen Endoskop- und Instrumentenführung aufweisen, oder sie können während der Ope­ ration ausfallen. Existieren nun sowohl Bildverarbeitung als auch Positionssensoren für die Instrumentenführung, können die Ergebnisse verglichen und auf Konsistenz geprüft werden. Auf­ grund der Entwicklung der Fehler kann in vielen Fällen darauf geschlossen werden, welches der Sensorsignale die gegenwärtige Situation fehlerfrei wiedergibt.
Die Verwendung der Positionssensoren am Instrumentenschaft oder am Instrumentenführungssystem kann sogar dazu führen, daß die Bildverarbeitung vollständig ersetzt wird.
Der Grad der Redundanz der Freiheitsgrade des Endoskopführungs­ systems wird durch die Anzahl der überschüssigen Achsen be­ stimmt, die nicht direkt für die Zentrierung des Objekts im O- Monitorbild notwendig sind. Dies können sowohl extrakorporale Achsen des EFS sein - Drehung um die Vertikalachse, um die Hori­ zontalachse und Drehung um als auch Translation längs der Tro­ karachse - aber auch weitere Freiheitsgrade, die sich etwa durch den Einsatz von Endoskopen mit flexiblen, schwenkbaren Distalbe­ reichen ergeben. Damit bestehen sog. intrakorporale Achsen bzw. Freiheitsgrade (Anspruch 8).
Dieses Verfahrenskonzept ergibt eine sehr hohe Sicherheit und große Fehlertoleranz. Das Verfahren arbeitet in einfachen Erken­ nungssituationen mit einer erhöhten Verarbeitungsgeschwindigkeit insbesondere in der Bildverarbeitung und ist in der Lage, bei komplizierten Erkennungssituationen, wie ungünstige Beleuchtung, Ähnlichkeiten zwischen Instrumentenspitzen und Umgebung, mit ei­ ner reduzierten Geschwindigkeit nachzufahren. Die Nachführung des Endoskops bleibt mindestens so schnell, daß keine Ungeduld beim operierenden Chirurgen provoziert wird.
Da das Endoskop durch das Führungssystem sparsam bewegt wird, besteht ein ruhiges und doch wahres Bild auf dem O-Monitor, das den Chirurgen nicht unnötig ablenkt. Eine weitere Entlastung er­ gibt sich.
Das Verfahren erlaubt optional die Integration zusätzlicher Sen­ sorinformationen wie der von Magnetsonden am Führungssystem des Arbeitsinstruments, Messung der Eintauchtiefe am Trokar, um bei der Multi-Sensor-Umgebung den temporären Ausfall einzelner Sen­ soren durch Verschmutzung der Instrumentenspitze bei optischer Messung zu kompensieren, die Plausibilität der ausgewerteten Sensorinformationen zu überprüfen und damit schließlich die Si­ cherheit zu erhöhen.
Wird das Instrument von einem Instrumenten-Führungssystem, IFS, geführt, sei es hand- oder maschinengeführt, so kommt auch über dieses Information an das EFS.
Das System ist aus handelsüblichen Baukomponenten bzw. Teilsystemen aufgebaut und kann daher wirtschaftlich akzeptabel reali­ siert werden.
Das Verfahren wird im folgenden anhand der Zeichnung in seiner Struktur näher erläutert. Es zeigen:
Fig. 1 Hierarchie des Verfahrens,
Fig. 2 Systemstruktur,
Fig. 3 Zustandsgraph des automatischen Nachführens,
Fig. 4 Bildbereiche auf dem Original-Monitor,
Fig. 5 Abbildung der Instrumentengeometrie und
Fig. 6 Endoskopführungssystem schematisch.
In medizintechnischen Geräten ist der Sicherheitsstandard sehr hoch angesetzt. Deshalb ist der Kern der automatischen Endoskop­ nachführung das fehlertolerante Verfahren, das mit mehrfacher Redundanz arbeitet und damit die geforderte Sicherheit gewähr­ leistet. Weitere Sicherheit entsteht aus der Entlastung des ope­ rierenden Chirurgen, in dem er, wo möglich, von technischen Handgriffen befreit wird. Unterschiedliche Grade an automati­ scher Trackingunterstützung bieten Unterstützung nach Bedarf. Das bedeutet, daß der Arzt die für die Operation notwendigen In­ strumente intuitiv und souverän bedienen kann. Dafür sorgt die ruhige Bahnführung, die Geschwindigkeitsbegrenzung bei der Nach­ führung und die sprachliche Ausgabe, durch die der Arzt über das Ausgabemedium: MMI-Monitor, LCD-Display oder Sprachausgabe über Fehler und kritische Zustände des Systems, wie verschmutztes En­ doskop, informiert wird.
Damit wird im Vergleich zu vorhandenen Systemen die Sicherheit und Akzeptanz wesentlich erhöht, weil der Chirurg oder ein Assi­ stent die Ursachen für die Fehlfunktion gezielt beseitigen kann, z. B. durch Reinigen der Optik oder durch Rückführung des Instru­ ments in den Bildbereich. Außerdem werden so unerwartete Reak­ tionen des Nachführsystems deutlich reduziert.
Souveränität heißt weiterhin: der Chirurg benützt den vom Nach­ führungssystem unabhängigen Monitor, den Original-Monitor, und hat die hierarchische Möglichkeit, das Nachführungssystem jeder­ zeit abzuschalten. In Fig. 1 ist diese strukturierte Forderung dargestellt und zeigt die Hierarchie in ihrem Aufbau von der zentralen Forderung der Sicherheit ausgehend.
Die Fehlertoleranz wird durch eine oder mehrere Maßnahmen er­ reicht:
Objekterkennung und Steuerung als Einheit,
mehrfache Behandlung möglicher Fehlerzustände, sowohl durch ein­ zelne Komponenten der Bildverarbeitung und der Steuerung als auch durch eine übergeordnete Überwachungseinheit,
Multisensor-Konzept,
adaptive Merkmalsanpassung und
3-D-Rekonstruktion.
Der Vorteil der einheitlichen Behandlung der Objekterkennung und. Steuerung liegt darin, daß so Rückschlüsse auf Fehlerursachen getroffen werden können. Sind beispielsweise die letzten Stell­ aktionen bekannt, kann mit größerer Genauigkeit auf die wahr­ scheinlichen Positionen der Instrumentenmarkierung geschlossen und so eine höhere Erkennungssicherheit erzielt werden. Eine Er­ mittlung der Fehlerursache hat neben der verbesserten Kommunika­ tion mit dem Chirurgen den Vorteil, adäquate Systemreaktionen ermitteln zu können.
Eine Systemkonfiguration des Endoskopführungssystems ist bei­ spielhaft durch die Systemstruktur in Fig. 2 schematisch darge­ stellt und besteht aus folgenden, über Kabel verbundenen Blöcken:
  • - dem Basis-EFS mit vier Freiheitsgraden, links/rechts, oben/unten, drehen und rein/raus einschließlich der elektroni­ schen Ansteuerung und den Endschaltern auf den entsprechenden Achsen der Freiheitsgrade,
  • - dem 2-D-Videoendoskop mit Video-Ausgang (Rot/Gelb/Blau-Aus­ gang, RGB), Original-Monitor und Lichtquelle,
  • - dem Rechner (PC) mit MMI-Monitor für die Schnittstelle: Mensch-Maschine (MMI) und der Digital-Ausgabe-Karte zur An­ steuerung der Logik-Schnittstelle (TTL),
  • - der Zusatzkomponenten zur Bildvorverarbeitung, sog. Framegrab­ ber,
  • - der Bedienschnittstelle in Form eines Handschalters, dem Joy­ stick für die manuelle Bedienung.
Die Nachführungssteuerung, Trackingsteuerung, besteht aus den Komponenten:
Bildverarbeitung,
Bahnsteuerung und
Überwachung.
Sie verarbeitet die Eingangsgrößen:
BI = Binary Input "Tracking ein",
BI = Binary Input "Tracking stop" und
das Videosignal mit drei Kanälen (RGB) und Synchronisation. Die Ausgangsgrößen sind:
  • - 2 × 4 × BO (Binary Output) zur Veränderung der Achsenposition über die Ansteuerung einer zweiten digitalen Schnittstelle,
  • - Status- und Fehlermeldungen.
Die Hauptaufgabe der automatischen Tracking-Funktion besteht darin, die aktuell benötigte Instrumentenspitze in dem Mittel­ punktsbereich zu halten (siehe Fig. 4). Der dazu notwendige Steuerungsablauf ist in dem Zustandsgraph gemäß Fig. 3 darge­ stellt. Die Freigabeschaltung für das automatische Tracking wird systemintern veranlasst.
Das automatische Tracking wird hier vom operierenden Chirurgen über den Ringschalter an der Bedieneinheit freigegeben (siehe Fig. 6)und bleibt solange aktiv, bis es durch Drücken der Stop­ taste oder durch Bedienung des Joysticks oder automatisch ge­ stoppt wird.
Ein automatischer Stopp des Tracking wird vorgenommen:
  • - wenn kein Instrument im Bild erkannt wird, sei es, weil nicht vorhanden oder weil verschmutzt,
  • - wenn aufgrund sicherheitskritischer, zu geringer Entfernung zum Instrument das Bild unscharf wird,
  • - wenn mehrere Instrumente erkannt werden,
  • - wenn die Erkennung des Instruments nicht innerhalb der gefor­ derten Reaktionszeit erfolgt,
  • - wenn kein Videosignal anliegt,
  • - wenn die Bildverarbeitung, Bahnsteuerung, Überwachung oder die Ansteuerung elektronische oder Programmfehler erkennt. Sämtli­ che Fehler werden auf den MMI-Monitor eingeblendet.
Nach einem Stop kann das Tracking wieder freigegeben werden. Das automatische Tracking arbeitet dabei mit eingeschränkten Stell­ geschwindigkeiten bis zu 10 cm/sec bzw. 30°/sec, die weiterhin applikations- (Bauch-, Lungen-, Herzchirurgie beispielsweise) und individuumabhängig eingeschränkt bzw. angepaßt werden kön­ nen, so daß der Chirurg auf unerwünschte Situationen rechtzeitig reagieren kann. Darüber hinaus besteht eine Stellbegrenzung für die Achsenpositionen, die ein Kippen und Schwenken in Grenzen hält, das translatorische Bewegen entlang der Trokarachse be­ grenzt und eine Volldrehung um die Schaftachse nicht zu­ läßt (siehe Fig. 7).
Aus dem Kamerabild auf dem O-Monitor (Fig. 4) wird die eventu­ ell zusätzlich markierte Instrumentenspitze über ihr im Rechner abgelegtes Abbild automatisch erkannt und ihre mittlere Position durch die x-Position und y-Position im zweidimensionalen Kamera­ bild, Erkennungssicherheit, Größe der identifizierten Instrumen­ tenspitze und weiteren Informationen zur Fehlererkennung an die Steuerung weitergegeben. Die Erkennung der Instrumentenspitze arbeitet selbständig und ist unabhängig von der Freigabe des Tracking. Die Bildverarbeitung (Fig. 2) erkennt auftretende Fehler, wie kein Instrument im Bild, mehrere Instrumente im Bild, und stoppt in diesen Fällen das automatische Tracking.
Beim Verlassen des zulässigen Bereichs (Fig. 4) wird das auto­ matische Tracking die Position des Endoskops so verändern, bis sich die Instrumentenspitze wieder im Mittelpunktsbereich befin­ det. Diese Aufgabe wird durch die Bahnsteuerung (siehe Fig. 2) gelöst, die die gemessene Position der Instrumentenspitze im Ka­ merabild kontinuierlich mit verarbeitet.
Nach dem Erreichen des kleineren Bereichs um den Bildmittelpunkt werden solange keine weiteren Stellhandlungen ausgelöst, bis der vorgegebene größere zulässige Bereich (Fig. 4) wieder verlassen wird. Durch diese Zurückhaltung in der Bewegung durch bereichs­ weise Unterdrückung derselben wird ein ruhiges Bild auf dem O- Monitor erzeugt.
Der Status des automatischen Trackings und eventuelle Fehlermel­ dungen werden auf dem MMI-Monitor eingeblendet bzw. angezeigt, so daß kein Eingriff in die Bildübertragung zwischen Kamera und O-Monitor für das Kamerabild erfolgen muss.
Um Tiefenerkennung zu erhalten, ist die 3-D-Positionsbestimmung gebräuchlich, aber wegen zwei notwendigen Kameras, deren Blick­ achsen unter einem vorgegebenen Schielwinkel zueinander stehen, ein Geräteaufwand, der durch die Tiefenerkennung an Hand von 2- D-Bilddaten mit nur einer Kamera in Grenzen kompensiert werden kann. Mit Hilfe der einfachen Strahlensatz-Strahloptikkann der Zusammenhang zwischen Bild- und Gegenstandsweite genau ermittelt werden:
mit g: Gegenstandsweite, G: Gegenstandsgröße, B: Bildgröße, f: Brennweite der Endoskoplinse.
Die Abschätzung der dritten Dimension gelingt hinreichend genau bei bekannter Brennweite des Endoskops.
Die wichtigste Aufgabe bei der Tiefenabschätzung ist es, die Größe des Objektes im Bild zu bestimmen. Objekt kann auch eine auf dem Objekt gut zu erkennende Markierung mit scharfen Kanten bedeuten. Die einfachste Methode der Erkennung besteht darin, den Durchmesser der segmentierten Markierungsregion zu bestim­ men. Dies erweist sich als ungenau, da es durch die unterschied­ lichen Orientierungen des Endoskops und durch die Eigenschaften der Zentralprojektion zu Verformungen kommt, die keine genaue Bestimmung der Objektbreite zulassen.
Ein besseres Verfahren zur Ermittlung der Instrumentenbreite an der Spitze segmentiert in einem ersten Schritt die Kanten des Objekts und bestimmt daraufhin den Abstand zum errechneten Schwerpunkt. Dies hat den Vorteil, daß unabhängig von der Aus­ richtung und durch die Projektion weitgehend unbeeinflußt die Breite des Objektes bestimmt wird.
Die Detektion der Objektkanten erfolgt in mehreren Schritten:
  • - Zuerst wird ein Filter, zum Beispiel ein 3 × 3-Sobel-Filter, auf das transformierte Graustufenbild angewandt, um anschließend ei­ nen Kantenverfolgungsalgorithmus zu starten.
Die gefundenen Kanten besitzen jedoch den Nachteil, daß ihre Breite stark variieren kann. Verlangt wird eine dünne Kantenli­ nie, die durchweg die Breite eines Pixels besitzt, um Abstände zu den Rändern genauer bestimmen zu können.
Realisiert wird dies, indem die segmentierten Kanten durch Ge­ raden approximiert werden.
Dies gelingt am schnellsten durch eine lineare Regressionsana­ lyse, bei der die Beziehung zwischen den x- und y-Werten einer Punktemenge in Form eines linearen Modells formuliert werden. So lassen sich die Kanten mathematisch beschreiben, was die Bestim­ mung der Objektgröße in einem nächsten Schritt ermöglicht.
Dies geschieht entweder über den Abstand zweier paralleler Gera­ den oder über den Abstand einer Geraden zum Schwerpunkt des Ob­ jekts durch Umformen der Geradengleichungen in die Hesse'sche- Normalenform und Einsetzen des Schwerpunktes. Fig. 5 zeigt das Verfahren mit den vier wesentlichen Schritten im Überblick, diese sind:
  • 1. Erzeugung des Gradientenbildes von dem markierten Instrument mit dem Sobel-Filter, dann
  • 2. Segmentierung der Objektkanten, Kantenverfolgung, dann
  • 3. Berechnung der Kantengerade mittels linearer Regression und schließlich
  • 4. die Berechnung des Abstandes: Gerade - Markierungsschwer­ punkt.
Es zeigt sich, daß die Genauigkeit der Entfernungsbestimmung im wesentlichen von der Qualität der Kantenextraktion abhängt.

Claims (9)

1. Verfahren zur sicheren automatischen Nachführung eines En­ doskops und Verfolgung (Tracking) eines chirurgischen Instru­ mentes mit einem elektrisch angetriebenen und gesteuerten En­ doskopführungssystem (EFS) für die minimal invasive Chirur­ gie, bestehend aus den Schritten:
A. Fehlertoleranzbearbeitung
  • - der distale Endbereich eines verwendeten Instruments wird über eine Kamera aufgenommen und daraus in einem Bildver­ arbeitungssystem ein spezielles Abbild mit aktueller Stellgrößenangabe erzeugt,
  • - die Beobachtung des Instruments wird auf:
    Mehrfacherkennung wegen Reflexion,
    keine Erkennung wegen Verschmutzung,
    keine Erkennung wegen Verlassen des Bildbereichs,
    keine Erkennung wegen Verdeckung,
    keine Erkennung wegen Unschärfe im Bild durch zu geringe Entfernung zwischen Optik und Instrumentenspitze,
    zeitlich zu späte Erkennung wegen geringer Rechnerlei­ stung und sprunghafte Ortsänderung wegen Drehzahlbegren­ zung der Stellmotoren
    fehlerbehandelt;
  • - bei erkannten kritischen Fehlern wird die Nachführung des EFS automatisch gestoppt, um Verletzungen des Patienten zu vermeiden,
  • - eine Multi-Sensor-Umgebung wird über eine Kamera mit Bildverarbeitung und Positionssensoren für die Freiheits­ grade des EFS erzeugt,
  • - das mit der Multi-Sensor-Umgebung versehene Endoskopfüh­ rungssystem kompensiert den temporären Ausfall oder die Unwirksamkeit einzelner Sensoren unter bestimmten Be­ triebsbedingungen, wie Verdeckung des Instruments, Verun­ reinigungen der Optik, elektromagnetische Störungen, und überprüft die aktuell ausgewertete Sensorinformation auf Plausibilität,
  • - mit einer adaptiven Merkmalsanpassung wird die Erkennung unterschiedlicher Objekte über maschinelle neuronale oder statistische Lernverfahren durchgeführt,
  • - mögliche Fehlerzustände werden zumindest teilweise dop­ pelt behandelt, und zwar durch einzelne Komponenten der Bildverarbeitung und Bahnsteuerung als auch durch eine übergeordnete regelbasierte Überwachungseinheit,
  • - aus der perspektivischen Verzerrung der parallelen Kanten des distalen Instrumentenbereichs wird unter Einbeziehung der Brennweite der Kameralinse und den Maßen des Instru­ ments der Abstand zwischen dem beobachtenden Endoskop und der Instrumentenspitze berechnet (3-D-Rekonstruktion);
Intuitive Bedienung
  • - die Position des aktuell gehandhabten Endoskops wird nur verändert, wenn die auf dem Original-Monitor (O-Monitor) dargestellte Instrumentenspitze einen vorgegebenen zen­ tralen Bereich (zulässigen Bereich) verlässt, wodurch eine ruhige Bahnführung ohne unnötige Stellbewegungen entsteht,
  • - die im Fehlerfall detektierte Fehlerursache wird über ein Mensch-Maschine-Interface (MMI), das aus dem MMI-Monitor und/oder einer Sprachausgabe besteht, ausgegeben und so aktive Maßnahmen des Chirurgen zur Fehlerdetektion und Fehlerbeseitigung, wie Reinigen der Kamera oder manuelle Rückführung der Instrumentenspitze in den Bildbereich, ermöglicht;
Souveränität
  • - die von dem operierenden Chirurgen unmittelbar getroffe­ nen und von ihm auf dem O-Monitor beobachteten Handlungen haben Priorität und werden von dem Endoskopführungssystem nicht beeinflusst;
  • - das Endoskopführungssystem mit seiner Fehlertoleranzbear­ beitung und intuitiven Bedienung wird von dem operieren­ den Chirurgen an dem MMI nach Bedarf zu- oder bei Nicht­ bedarf weggeschaltet;
  • - die Geschwindigkeit zur Nachführung des Instruments und die Winkelgeschwindigkeit zur Drehung des Instruments wird derartig begrenzt, daß ein Eingreifen des Chirurgen bei einer fehlerhaften Verarbeitung in komplizierten Er­ kennungssituationen, wie ungünstige Beleuchtung und Ähn­ lichkeiten zwischen Instrumentenspitze und Umgebung, stets gegeben ist.
2. Verfahren nach Ansprüch 1, dadurch gekennzeichnet, daß der Bildbereich des O-Monitors bei einer der Operation vorange­ henden Funktionsprüfung für das automatische Tracking in drei unterschiedlich große konzentrische Bereiche eingeteilt wird:
  • - den Mittelpunktsbereich:
    befindet sich das Instrument oder befinden sich die In­ strumente darin, so wird das Endoskop nicht automatisch nachgeführt,
  • - den zulässigen Bereich:
    befindet sich das Instrument oder befinden sich die In­ strumente innerhalb dieses Bereichs, so wird das Endoskop automatisch nachgeführt, wenn das Instrument oder die In­ strumente diesen Bereich vorher verlassen hatte oder hat­ ten, und
  • - den äußeren Bereich:
    befindet sich das Instrument oder befinden sich die In­ strumente in diesem Bereich, so wird das Endoskop immer automatisch mit dem Ziel nachgeführt, das Instrument wie­ der in den Mittelpunktsbereich zu bringen.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß als Abbild des Bereichs der Instrumentenspitze im Rechner ein vereinfachtes Modell davon abgelegt wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß von dem Bereich der Instrumentenspitze, die zusätzlich spezifisch markiert sein kann, zunächst ein Gradientenbild erzeugt wird, dann die Objektkanten mittels Kantenverfolgung segmentiert und schließlich mittels linearer Regression die jeweilige Kantengerade berechnet wird, um die dritte Dimension daraus zu ermitteln.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das Gradientenbild mittels eines Sobel-Filters erzeugt wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die durch die Positionssensoren erzeugte Multi-Sensor-Umgebung durch Positionssensoren am Führungssystem des chirurgischen Instrumentes ergänzt wird, wodurch Ausfälle im einen System durch das noch Funktionieren im andern ausgeglichen (kompensiert) werden können.
7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die durch die Kamera mit Bildverarbeitung und die Positionssenso­ ren erzeugte Multi-Sensor-Umgebung durch Messung der Ein­ tauchtiefe am Trokar ergänzt wird, wodurch Ausfälle der Sen­ soren in einem System durch das noch Funktionieren im andern ausgeglichen (kompensiert) werden können.
8. Verfahren nach den Ansprüchen 5 bis 7, dadurch gekennzeich­ net, daß die durch extrakorporale Freiheitsgrade des EFS er­ zeugten und ausnutzbaren Redundanzen für das Tracking durch die intrakorporalen Freiheitsgrade des EFS erweitert werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß zur Verfolgung des Bereichs der Instrumentenspitze eine 2-D-Ka­ mera oder eine 3-D-Kamera, von der zur Reduzierung des Hard­ ware-Aufwandes für die Bildverarbeitung nur ein Bildkanal verarbeitet wird, verwendet wird.
DE19961971A 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments Expired - Fee Related DE19961971B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE19961971A DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
EP00977518A EP1240418A1 (de) 1999-12-22 2000-11-09 Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung eines chirurgischen instrumentes
PCT/EP2000/011062 WO2001046577A2 (de) 1999-12-22 2000-11-09 Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung (tracking) eines chirurgischen instrumentes mit einem elektrisch angetriebenen und gesteuerten endoskopführungssystem (efs) für die minimal invasive chirurgie
US10/172,436 US20020156345A1 (en) 1999-12-22 2002-05-16 Method of guiding an endoscope for performing minimally invasive surgery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19961971A DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments

Publications (2)

Publication Number Publication Date
DE19961971A1 true DE19961971A1 (de) 2001-07-26
DE19961971B4 DE19961971B4 (de) 2009-10-22

Family

ID=7933779

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19961971A Expired - Fee Related DE19961971B4 (de) 1999-12-22 1999-12-22 Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments

Country Status (4)

Country Link
US (1) US20020156345A1 (de)
EP (1) EP1240418A1 (de)
DE (1) DE19961971B4 (de)
WO (1) WO2001046577A2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009010263A1 (de) * 2009-02-24 2010-09-02 Reiner Kunz Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking
DE102014118962A1 (de) * 2014-12-18 2016-06-23 Karl Storz Gmbh & Co. Kg Lagebestimmung eines minimalinvasiven Instrumentes
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
DE102022118328A1 (de) 2022-07-21 2024-02-01 Karl Storz Se & Co. Kg Steuervorrichtung und System

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
WO2003030763A1 (en) * 2001-10-05 2003-04-17 Boston Innovative Optics, Inc. A system and method of providing visual documentation during surgery
CA2483763A1 (en) * 2002-05-02 2003-11-13 Medigus Ltd. Entry port for endoscopes and laparoscopes
DE60330335D1 (de) * 2002-10-29 2010-01-14 Olympus Corp Endoskopinformationsprozessor und verarbeitungsmethode
DE10313829B4 (de) * 2003-03-21 2005-06-09 Aesculap Ag & Co. Kg Verfahren und Vorrichtung zur Auswahl eines Bildausschnittes aus einem Operationsgebiet
DE102004011888A1 (de) * 2003-09-29 2005-05-04 Fraunhofer Ges Forschung Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments
US9943372B2 (en) * 2005-04-18 2018-04-17 M.S.T. Medical Surgery Technologies Ltd. Device having a wearable interface for improving laparoscopic surgery and methods for use thereof
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7962195B2 (en) 2006-06-01 2011-06-14 Biosense Webster, Inc. Model-based correction of position measurements
KR101477125B1 (ko) * 2006-06-13 2014-12-29 인튜어티브 서지컬 인코포레이티드 미소절개 수술 시스템
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US20080004610A1 (en) * 2006-06-30 2008-01-03 David Miller System for calculating IOL power
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
GB2454017A (en) * 2007-10-26 2009-04-29 Prosurgics Ltd A control assembly
US9168173B2 (en) * 2008-04-04 2015-10-27 Truevision Systems, Inc. Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US10117721B2 (en) * 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
US9226798B2 (en) * 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
US9173717B2 (en) * 2009-02-20 2015-11-03 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for intraocular lens implantation
US9750399B2 (en) 2009-04-29 2017-09-05 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8784443B2 (en) 2009-10-20 2014-07-22 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for astigmatism correction
US20110213342A1 (en) * 2010-02-26 2011-09-01 Ashok Burton Tripathi Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye
DE102010029275A1 (de) * 2010-05-25 2011-12-01 Siemens Aktiengesellschaft Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar
US10238837B2 (en) 2011-10-14 2019-03-26 Intuitive Surgical Operations, Inc. Catheters with control modes for interchangeable probes
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
KR101876386B1 (ko) * 2011-12-29 2018-07-11 삼성전자주식회사 의료용 로봇 시스템 및 그 제어 방법
TWI517828B (zh) * 2012-06-27 2016-01-21 國立交通大學 影像追蹤系統及其影像追蹤方法
WO2014036499A1 (en) 2012-08-30 2014-03-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
DE102013108228A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
WO2015031777A1 (en) 2013-08-29 2015-03-05 Wayne State University Camera control system and method
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
JP6275335B2 (ja) * 2015-05-28 2018-02-07 オリンパス株式会社 内視鏡システム
EP3590406A4 (de) * 2017-02-28 2020-04-01 Sony Corporation Medizinisches beobachtungssystem, steuerungsvorrichtung und steuerungsverfahren
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
WO2018225132A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
DE102021204031A1 (de) 2021-04-22 2022-10-27 Carl Zeiss Meditec Ag Verfahren zum Betreiben eines Operationsmikroskops und Operationsmikroskop
CN114191099B (zh) * 2022-01-14 2023-12-01 山东威高手术机器人有限公司 微创手术机器人主从跟踪延时测试方法
CN117953043B (zh) * 2024-03-26 2024-06-21 北京云力境安科技有限公司 一种基于内镜图像的区域测量方法、装置及存储介质
CN118319213B (zh) * 2024-06-11 2024-09-27 湖南省华芯医疗器械有限公司 一种引导鞘管、内窥镜组件及检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19609034C2 (de) * 1995-03-10 1998-03-05 Karlsruhe Forschzent Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie
US5820545A (en) * 1995-08-14 1998-10-13 Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. Method of tracking a surgical instrument with a mono or stereo laparoscope
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
US5887121A (en) * 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
AT399647B (de) * 1992-07-31 1995-06-26 Truppe Michael Anordnung zur darstellung des inneren von körpern
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6671058B1 (en) * 1998-03-23 2003-12-30 Leica Geosystems Ag Method for determining the position and rotational position of an object
US6546277B1 (en) * 1998-04-21 2003-04-08 Neutar L.L.C. Instrument guidance system for spinal and other surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
DE19609034C2 (de) * 1995-03-10 1998-03-05 Karlsruhe Forschzent Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie
US5887121A (en) * 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints
US5820545A (en) * 1995-08-14 1998-10-13 Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. Method of tracking a surgical instrument with a mono or stereo laparoscope

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cinquien, P. et al.: " Computer Assisted Medical Interventions", In: IEEE Engineering in Medicine and Biology, May/June 1995, S. 244-263 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009010263A1 (de) * 2009-02-24 2010-09-02 Reiner Kunz Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking
DE102009010263B4 (de) * 2009-02-24 2011-01-20 Reiner Kunz Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
DE102014118962A1 (de) * 2014-12-18 2016-06-23 Karl Storz Gmbh & Co. Kg Lagebestimmung eines minimalinvasiven Instrumentes
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
US10540781B2 (en) 2015-01-22 2020-01-21 MAQUET GmbH Assistance device and method for providing imaging support to an operating surgeon during a surgical procedure involving at least one medical instrument
DE102022118328A1 (de) 2022-07-21 2024-02-01 Karl Storz Se & Co. Kg Steuervorrichtung und System

Also Published As

Publication number Publication date
US20020156345A1 (en) 2002-10-24
WO2001046577A2 (de) 2001-06-28
EP1240418A1 (de) 2002-09-18
DE19961971B4 (de) 2009-10-22
WO2001046577A8 (de) 2008-01-17

Similar Documents

Publication Publication Date Title
DE19961971A1 (de) Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie
DE69322202T2 (de) System und Verfahren zur Verbesserung von endoskopischer Chirurgie
EP2449997B1 (de) Medizinischer Arbeitsplatz
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
EP0975257B1 (de) Endoskopisches system
DE102018206406B3 (de) Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
EP3271118B1 (de) Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
EP1638064B1 (de) Simulator für das Training von minimal-invasiven medizinischen Operationen
EP0260286B1 (de) Spaltlampengerät zur laserbehandlung des auges
DE10249786A1 (de) Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür
DE102013109677A1 (de) Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
DE112016006299T5 (de) Medizinische Sicherheitssteuerungsvorrichtung, medizinisches Sicherheitssteuerungsverfahren und medizinisches Unterstützungssystem
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
DE102013108115A1 (de) Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
DE202013012276U1 (de) Vorrichtung zum unterstützen eines laparoskopischeneingriffs - lenk- und manövriergelenkwerkzeug
DE102011005259A1 (de) Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops
DE102018125592A1 (de) Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung
DE102019118752B4 (de) Verfahren zur adaptiven Funktionsneubelegung von Bedienelementen eines Bildaufnahmesystems sowie zugehöriges Bildaufnahmesystem
DE4412073A1 (de) Operationsmikroskop-Einheit
DE102014106865A1 (de) Bediensystem für ein Operationsmikroskop mit automatischer Folge- oder Ausrichtungsvorrichtung, Verfahren und Operationsmikroskop
DE102015216573A1 (de) Digitales Operationsmikroskopiesystem
DE102020215559B4 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
DE102004052753A1 (de) Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff
DE102020205546A1 (de) Überwachungsverfahren und medizinisches System

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: KARLSRUHER INSTITUT FUER TECHNOLOGIE, 76131 KA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120703