DE19961971A1 - Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie - Google Patents
Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive ChirurgieInfo
- Publication number
- DE19961971A1 DE19961971A1 DE19961971A DE19961971A DE19961971A1 DE 19961971 A1 DE19961971 A1 DE 19961971A1 DE 19961971 A DE19961971 A DE 19961971A DE 19961971 A DE19961971 A DE 19961971A DE 19961971 A1 DE19961971 A1 DE 19961971A1
- Authority
- DE
- Germany
- Prior art keywords
- instrument
- endoscope
- tracking
- image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
Das Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instruments mit einem elektrisch angetriebenen und gesteuerten Endoskopführungssystem (EFS) für die minimal invasive Chirurgie ruht auf drei Säulen: der rechnergeführten Fehlertoleranzbearbeitung, der intuitiven Bedienung durch den und der Souveränität des operierenden Chirurgen. Dies ist die Basis für eine große Sicherheit bei der Operation und bedeutet eine angenehme Entlastung von konzentrationsraubendem Mitverfolgen und von momentanen Bedienvorgängen untergeordneter Priorität.
Description
Die Erfindung betrifft ein Verfahren zur sicheren automatischen
Nachführung eines Endoskops und Verfolgung (Tracking) eines
chirurgischen Instrumentes mit einem elektrisch angetriebenen
und gesteuerten Endoskopführungssystem (EFS) für die minimal in
vasive Chirurgie.
Bei minimal invasiven Operationen orientiert sich der Chirurg an
einem Monitorbild (Original-Monitor). Ein Endoskop mit Kamera
und die zur Operation notwendigen Instrumente werden durch Tro
kare in die Körperhöhle des Patienten eingeführt.
Zum gegenwärtigen Stand der Technik sind sowohl das Endoskop als
auch die Kamera häufig noch manuell geführt. Der Chirurg, der
die Instrumente führt, weist einen Assistenten an, das Endoskop
mit Kamera so nachzuführen, daß das Instrument im Bild sichtbar
bleibt. Die Vorteile dieser Vorgehensweise bestehen darin, daß
der das Endoskop führende Assistent gefährliche Situationen ver
meidet, Fehler erkennt, mit dem Chirurgen kommuniziert und das
Endoskop nur dann nachführt, wenn es notwendig ist. Nachteilig
ist ein erhöhter Personalaufwand gegenüber konventionellen Ope
rationen und das unvermeidliche Zittern des Assistenten.
Zur Vermeidung der genannten Nachteile wurden Systeme einge
führt, die das Endoskop automatisch führen. Ein solches Endos
kopführungssystem zum Führen einer endoskopischen Kameraeinheit
ist elektrisch angetrieben und kann an jeden Operationstisch an
gebracht werden. Zur Fernbedienung dient eine Bedienkomponente,
meist ein Joystick, der in der Regel am Arbeitsinstrument befe
stigt wird, oder auch eine Spracheingabe. Das eingeführte Endo
skop wie auch separat eingeführte Instrumente haben jeweils hin
sichtlich der Bewegung einen invarianten Punkt, die Trokarein
stichstelle, der auf oder in der Körperwand des Patienten beste
hen muss, damit diese Geräte geschwenkt und geneigt werden kön
nen, ohne den Patienten dabei mehr als mit dem Durchstich zu
verletzen. Die Kamera des Endoskopführungssystems ist dabei so
geführt und montiert, daß die untere Bildkante parallel zur Pa
tientenauflage verläuft und das Bild nicht auf dem Kopf zu ste
hen kommt (siehe z. B. DE 196 09 034). Eine Verdrehung der Ka
mera ist wohl möglich, erschwert aber die räumliche Orientie
rung.
Ein in den Körper des Patienten ragendes Endoskop eines solchen
Endoskopführungssystems verfügt über mehrere Freiheitsgrade.
Beispielsweise hat das EFS in DE 196 09 034 vier Freiheitsgrade
der Bewegung, und zwar um eine erste Achse senkrecht zum Opera
tionstisch durch die Einstichstelle am Körper, um eine zweite
Achse senkrecht zu der ersten und senkrecht zur Einstichrich
tung, entlang einer dritten Achse, der Trokarachse, und um diese
letztere Achse. Die ersten drei Freiheitsgrade sind über End
schalter begrenzt. Mit der Bedienkomponente, z. B. am Instrumen
tengriff des vom Chirurgen bedienten Instruments, wird die Endo
skopkamera in ihrer Blickrichtung gelenkt. Jeder der vier Frei
heitsgrade kann so mit sicherheitsbegrenzter Geschwindigkeit
verändert werden.
Auf der Basis einer derart vorhandenen Endoskopsteuerung ist ein
automatisches Trackingsystem installierbar. Ein solches Steue
rungssystem ist aus der US 5,820,545 bekannt. Die darin ins Auge
gefasste Instrumentenspitze wird bei jeder Bewegung ständig
nachgefahren, was Unruhe für den Betrachter bedeutet. Hierzu ist
eine Elektronik notwendig, die, da speziell angefertigt, einen
erheblichen wirtschaftlichen Aufwand bedeutet. Soll die dritte
Dimension erfasst werden, muss dazu die entsprechende 3-D-Kame
raeinrichtung vorgesehen werden, was den apparativen Aufwand er
höht. Eine Fehlerbehandlung, wie sie aufgrund von Reflexionen
oder wechselnder Beleuchtung z. B. notwendig wird, ist nicht vor
gesehen.
Bei dem Nachfahrsystem gemäß der US 5, 836,869 wird der Bildaus
schnitt der aktuellen Instrumentenspitze nachgefahren. Der ope
rierende Chirurg bekommt zwei verschiedene Bilder zu sehen. Es
wird eine Farb-, Geometrie- oder Helligkeitskodierung des In
struments und eine Positionserkennung über Magnetsonden am Ar
beitsinstrument beschrieben. Es können zwei Bilder betrachtet
werden, nämlich der Zoom einer Situation und die Übersicht. Das
Tracking wird auf Instrumente oder farb-/geometriemarkierte Or
gane bezogen. Mehrfarbige Markierungen zur Umschaltung der Tracking
ziele und zur Erhöhung der Sicherheit durch Redundanz werden
erwähnt. Stellglied ist jeweils der Kamerazoom bzw. die Position
der CCD-Chips in der Kamera oder eine elektronisch realisierte
Bildauswahl auf dem Monitor. Das System benutzt durchweg Spe
zialkameras.
Bei allen verwendeten Verfahren stehen meist mehr Freiheitsgrade
zur Verfügung als zur Positionierung des EFS notwendig sind, um
die Instrumentenspitze auf die gewünschte Sollposition zu brin
gen. Diese Freiheitsgrade werden dazu verwendet, die auszufüh
renden Bewegungen zu minimieren. Ein mögliches Verfahren ist die
Ermittlung optimaler. Stellgrößen unter Verwendung einer Jacobi-
Matrix, wobei auch Stellrestriktionen einbezogen werden können
(US 5,887,121).
Bei allen genannten Verfahren gehen die Vorteile verloren, die
die manuelle Führung durch einen Assistenten bietet. Das Nach
führverhalten ist unruhig, weil die Systeme versuchen, einen
vorgegebenen Punkt auf dem Monitor genau zu erreichen und auch
bei kleinen Abweichungen, die z. B. durch Bewegungen des Instru
ments verursacht werden, sofort das Endoskop nachführen.
Die Systeme sind kaum in der Lage, auftretende Fehler automa
tisch zu detektieren. Es findet nur eine sehr einfache unidirek
tionale Kommunikation vom Chirurgen zum EFS statt. Der Chirurg
erhält keine Hinweise über mögliche Fehlerursachen.
Der Erfindung liegt die Aufgabe zugrunde, ein schnelles, fehler
tolerantes und kostengünstiges Verfahren für das automatische
Verfolgen einer Instrumentenspitze mit einem sparsam bewegten
Endoskop bereitzustellen und damit den operierenden Chirurgen
von der Endoskopführung zu entlasten.
Die Erfindung wird durch ein Verfahren mit den Merkmalen des An
spruchs 1 gelöst und hat zum Ziel, die Vorteile einer manuellen
Führung des Endoskops auch bei einer automatischen Nachführung
beizubehalten.
Das zugrunde liegende Sicherheitskonzept besteht aus mehreren
Stufen:
- A) der Fehlertoleranzbearbeitung,
- B) der intuitiven Bedienung und
- C) der Souveränität.
Der Bildverarbeitungs- und Endoskopsteuerungsteil ist von dem
Original-Monitor des operierenden Chirurgen strikt getrennt.
Fehler in diesen Teilen beeinflussen nicht die von ihm verfolg
ten Sequenzen. Das Erkennen der Instrumentenspitze und die
Steuerung des Endoskops mit seinen Achsen und der Zoomsteuerung
wird als Einheit behandelt, da das hiermit realisierte Sicher
heitskonzept Fehler sowohl bei der Bilderkennung als auch bei
der Belegung der Stellgrößen mit hoher Zuverlässigkeit feststel
len kann. Feststellbare Fehlerzustände sind:
Mehrfacherkennung des Instrumentes aufgrund von Reflexionen, keine Erkennung des Instrumentes wegen Verschmutzung,
zeitlich stark verzögerte Erkennung des Instruments derart, daß die Abtastrate der Endoskopregelung wegen zu geringer Leistung des Rechners nicht mehr eingehalten werden kann,
unrealistisch sprunghafte Ortsänderung des Instruments wegen be grenzter Drehzahl der Stellmotoren und eine zu starke, sicher heitskritische Annäherung der Optik an das Instrument oder an ein Organ.
Mehrfacherkennung des Instrumentes aufgrund von Reflexionen, keine Erkennung des Instrumentes wegen Verschmutzung,
zeitlich stark verzögerte Erkennung des Instruments derart, daß die Abtastrate der Endoskopregelung wegen zu geringer Leistung des Rechners nicht mehr eingehalten werden kann,
unrealistisch sprunghafte Ortsänderung des Instruments wegen be grenzter Drehzahl der Stellmotoren und eine zu starke, sicher heitskritische Annäherung der Optik an das Instrument oder an ein Organ.
Die Endoskopeinstellung wird nur verändert, wenn die Instrumen
tenspitze einen bestimmten Rahmen im Bildzentrum des O-Monitors
verlässt (zulässiger Bereich). Dadurch bleibt das Bild für den
Chirurgen ruhig, wenn er das Instrument innerhalb dieses Rahmens
in der Nähe des Bildzentrums bewegt.
Die Instrumentenspitze ist durch Form, Farbe oder auch nur durch
ihre charakteristische Form markiert, um eine schnelle Erkennung
zu erreichen. Dennoch ist nicht zu vermeiden, daß sich bei un
terschiedlichen Instrumenten die Merkmale ändern. Deswegen wird
eine Online-Adaption der charakteristischen Eigenschaften der
Markierung mit neuronalen oder statistischen Lernverfahren hier
zu einer sicheren und flexiblen Instrumentenerkennung führen.
Um all diese Verfahrensschritte durchführen zu können, reichen
Standardkomponenten als Rechner, Betriebssystem und Kameras
vollständig aus. Das System kommt zur Beobachtung mit einer ein
zigen Kamera, einer 2-D-Kamera aus. Es führt das Tracking anhand
von zweidimensionalen Bildinformationen durch. Bei Verwendung
einer 3-D-Kamera reicht die Nutzung eines Videokanals daher aus
(Anspruch 9), wodurch der Hardware-Aufwand zur Bildverarbeitung
reduziert wird.
Die Instrumentenspitze soll in der Bildmitte des O-Monitors ge
halten werden. Daher bleiben Bewegungen senkrecht zur Bildebene
unberücksichtigt. Sollen sie dennoch erkannt werden, für eine
Zoom-Steuerung etwa oder für eine Kamerabewegung senkrecht zur
Bildebene, müssen weitere Maßnahmen ergriffen werden. Eine ist
ein weiterer Sensor am Trokar des Instruments, der die Eintauch
tiefe misst (Anspruch 7), damit reduziert sich die bei der 3-D-
Aufnahme notwendige zweikanalige Bildverarbeitung auf einen Ka
nal wie bei der 2-D-Aufnahme. Eine weitere ist, aus der perspek
tivischen Verzerrung der parallelen Kanten des Instruments den
Abstand zwischen Endoskop und Instrumentenspitze grob zu berech
nen. Das setzt voraus, daß die Brennweite der Kamera sowie die
Breiten- und Längenmaße des Instruments bekannt sind.
Oberste Priorität hat das Eingreifen des operierenden Chirurgen,
der in die Endoskopsteuerung jederzeit mit höchster Priorität
eingreifen und das Tracking abbrechen kann.
An Einstellungsarbeit geht vor der Operation während der Funkti
onsprüfung die konzentrale Einteilung des Monitorbereichs vor
aus. Es gibt drei Bereiche auf dem O-Monitor:
den gesamten Bildschirm, den für die Instrumente zulässigen Auf enthaltsbereich und den Mittelpunktsbereich. Die Endoskopein stellung wird automatisch nur verändert, wenn die Instrumenten spitze den zulässigen Bereich verlässt (Anspruch 2), wodurch das Bild angenehm ruhig bleibt. Um das ausführen zu können, wird der Bereich der Instrumentenspitze im Rechner abgebildet, ein zur Identifizierung ausreichendes Modell davon erstellt (Anspruch 3). Eine Methode, das zu tun, ist in Anspruch 4 erwähnt und be steht aus der Erzeugung eines Gradientenbilds, Segmentierung der Objektkanten und Ermittlung der dritten Dimension durch Berech nung der Kantengeraden mittels linearer Regression. Dabei kann das Gradientenbild durch ein Sobel-Filter erzeugt sein (Anspruch 5).
den gesamten Bildschirm, den für die Instrumente zulässigen Auf enthaltsbereich und den Mittelpunktsbereich. Die Endoskopein stellung wird automatisch nur verändert, wenn die Instrumenten spitze den zulässigen Bereich verlässt (Anspruch 2), wodurch das Bild angenehm ruhig bleibt. Um das ausführen zu können, wird der Bereich der Instrumentenspitze im Rechner abgebildet, ein zur Identifizierung ausreichendes Modell davon erstellt (Anspruch 3). Eine Methode, das zu tun, ist in Anspruch 4 erwähnt und be steht aus der Erzeugung eines Gradientenbilds, Segmentierung der Objektkanten und Ermittlung der dritten Dimension durch Berech nung der Kantengeraden mittels linearer Regression. Dabei kann das Gradientenbild durch ein Sobel-Filter erzeugt sein (Anspruch 5).
Um eine hohe Qualität der Sicherheit zu erreichen, ist genügende
Redundanz einzurichten. Die grundsätzliche Erzeugung der Multi-
Sensor-Umgebung durch Positionssensoren und Bildverarbeitung
kann durch weitere Positionssensoren am Führungssystem des In
struments (Anspruch 6) oder durch die Erfassung der Eintauch
tiefe am Trokar (Anspruch 7) ergänzt werden.
Der Vorteil der Redundanz besteht darin, daß die Bildverarbei
tung und die redundanten Sensoren unterschiedliche Vor- und
Nachteile aufweisen. Beispielsweise ist die Bildverarbeitung
empfindlich gegenüber einer Verdeckung der Instrumentenspitze
und Verschmutzungen der Optik. Positionssensoren am Instrumen
tenführungssystem können je nach verwendetem Messprinzip bei
elektromagnetischen Störungen im Operationssaal fehlerhafte In
formationen liefern, Ungenauigkeiten aufgrund unterschiedlicher
Länge der verwendeten Instrumente oder Ungenauigkeiten bei der
Ermittlung der Bezugs-Koordinatensysteme zwischen Endoskop- und
Instrumentenführung aufweisen, oder sie können während der Ope
ration ausfallen. Existieren nun sowohl Bildverarbeitung als
auch Positionssensoren für die Instrumentenführung, können die
Ergebnisse verglichen und auf Konsistenz geprüft werden. Auf
grund der Entwicklung der Fehler kann in vielen Fällen darauf
geschlossen werden, welches der Sensorsignale die gegenwärtige
Situation fehlerfrei wiedergibt.
Die Verwendung der Positionssensoren am Instrumentenschaft oder
am Instrumentenführungssystem kann sogar dazu führen, daß die
Bildverarbeitung vollständig ersetzt wird.
Der Grad der Redundanz der Freiheitsgrade des Endoskopführungs
systems wird durch die Anzahl der überschüssigen Achsen be
stimmt, die nicht direkt für die Zentrierung des Objekts im O-
Monitorbild notwendig sind. Dies können sowohl extrakorporale
Achsen des EFS sein - Drehung um die Vertikalachse, um die Hori
zontalachse und Drehung um als auch Translation längs der Tro
karachse - aber auch weitere Freiheitsgrade, die sich etwa durch
den Einsatz von Endoskopen mit flexiblen, schwenkbaren Distalbe
reichen ergeben. Damit bestehen sog. intrakorporale Achsen bzw.
Freiheitsgrade (Anspruch 8).
Dieses Verfahrenskonzept ergibt eine sehr hohe Sicherheit und
große Fehlertoleranz. Das Verfahren arbeitet in einfachen Erken
nungssituationen mit einer erhöhten Verarbeitungsgeschwindigkeit
insbesondere in der Bildverarbeitung und ist in der Lage, bei
komplizierten Erkennungssituationen, wie ungünstige Beleuchtung,
Ähnlichkeiten zwischen Instrumentenspitzen und Umgebung, mit ei
ner reduzierten Geschwindigkeit nachzufahren. Die Nachführung
des Endoskops bleibt mindestens so schnell, daß keine Ungeduld
beim operierenden Chirurgen provoziert wird.
Da das Endoskop durch das Führungssystem sparsam bewegt wird,
besteht ein ruhiges und doch wahres Bild auf dem O-Monitor, das
den Chirurgen nicht unnötig ablenkt. Eine weitere Entlastung er
gibt sich.
Das Verfahren erlaubt optional die Integration zusätzlicher Sen
sorinformationen wie der von Magnetsonden am Führungssystem des
Arbeitsinstruments, Messung der Eintauchtiefe am Trokar, um bei
der Multi-Sensor-Umgebung den temporären Ausfall einzelner Sen
soren durch Verschmutzung der Instrumentenspitze bei optischer
Messung zu kompensieren, die Plausibilität der ausgewerteten
Sensorinformationen zu überprüfen und damit schließlich die Si
cherheit zu erhöhen.
Wird das Instrument von einem Instrumenten-Führungssystem, IFS,
geführt, sei es hand- oder maschinengeführt, so kommt auch über
dieses Information an das EFS.
Das System ist aus handelsüblichen Baukomponenten bzw. Teilsystemen
aufgebaut und kann daher wirtschaftlich akzeptabel reali
siert werden.
Das Verfahren wird im folgenden anhand der Zeichnung in seiner
Struktur näher erläutert. Es zeigen:
Fig. 1 Hierarchie des Verfahrens,
Fig. 2 Systemstruktur,
Fig. 3 Zustandsgraph des automatischen Nachführens,
Fig. 4 Bildbereiche auf dem Original-Monitor,
Fig. 5 Abbildung der Instrumentengeometrie und
Fig. 6 Endoskopführungssystem schematisch.
In medizintechnischen Geräten ist der Sicherheitsstandard sehr
hoch angesetzt. Deshalb ist der Kern der automatischen Endoskop
nachführung das fehlertolerante Verfahren, das mit mehrfacher
Redundanz arbeitet und damit die geforderte Sicherheit gewähr
leistet. Weitere Sicherheit entsteht aus der Entlastung des ope
rierenden Chirurgen, in dem er, wo möglich, von technischen
Handgriffen befreit wird. Unterschiedliche Grade an automati
scher Trackingunterstützung bieten Unterstützung nach Bedarf.
Das bedeutet, daß der Arzt die für die Operation notwendigen In
strumente intuitiv und souverän bedienen kann. Dafür sorgt die
ruhige Bahnführung, die Geschwindigkeitsbegrenzung bei der Nach
führung und die sprachliche Ausgabe, durch die der Arzt über das
Ausgabemedium: MMI-Monitor, LCD-Display oder Sprachausgabe über
Fehler und kritische Zustände des Systems, wie verschmutztes En
doskop, informiert wird.
Damit wird im Vergleich zu vorhandenen Systemen die Sicherheit
und Akzeptanz wesentlich erhöht, weil der Chirurg oder ein Assi
stent die Ursachen für die Fehlfunktion gezielt beseitigen kann,
z. B. durch Reinigen der Optik oder durch Rückführung des Instru
ments in den Bildbereich. Außerdem werden so unerwartete Reak
tionen des Nachführsystems deutlich reduziert.
Souveränität heißt weiterhin: der Chirurg benützt den vom Nach
führungssystem unabhängigen Monitor, den Original-Monitor, und
hat die hierarchische Möglichkeit, das Nachführungssystem jeder
zeit abzuschalten. In Fig. 1 ist diese strukturierte Forderung
dargestellt und zeigt die Hierarchie in ihrem Aufbau von der
zentralen Forderung der Sicherheit ausgehend.
Die Fehlertoleranz wird durch eine oder mehrere Maßnahmen er
reicht:
Objekterkennung und Steuerung als Einheit,
mehrfache Behandlung möglicher Fehlerzustände, sowohl durch ein zelne Komponenten der Bildverarbeitung und der Steuerung als auch durch eine übergeordnete Überwachungseinheit,
Multisensor-Konzept,
adaptive Merkmalsanpassung und
3-D-Rekonstruktion.
Objekterkennung und Steuerung als Einheit,
mehrfache Behandlung möglicher Fehlerzustände, sowohl durch ein zelne Komponenten der Bildverarbeitung und der Steuerung als auch durch eine übergeordnete Überwachungseinheit,
Multisensor-Konzept,
adaptive Merkmalsanpassung und
3-D-Rekonstruktion.
Der Vorteil der einheitlichen Behandlung der Objekterkennung und.
Steuerung liegt darin, daß so Rückschlüsse auf Fehlerursachen
getroffen werden können. Sind beispielsweise die letzten Stell
aktionen bekannt, kann mit größerer Genauigkeit auf die wahr
scheinlichen Positionen der Instrumentenmarkierung geschlossen
und so eine höhere Erkennungssicherheit erzielt werden. Eine Er
mittlung der Fehlerursache hat neben der verbesserten Kommunika
tion mit dem Chirurgen den Vorteil, adäquate Systemreaktionen
ermitteln zu können.
Eine Systemkonfiguration des Endoskopführungssystems ist bei
spielhaft durch die Systemstruktur in Fig. 2 schematisch darge
stellt und besteht aus folgenden, über Kabel verbundenen Blöcken:
- - dem Basis-EFS mit vier Freiheitsgraden, links/rechts, oben/unten, drehen und rein/raus einschließlich der elektroni schen Ansteuerung und den Endschaltern auf den entsprechenden Achsen der Freiheitsgrade,
- - dem 2-D-Videoendoskop mit Video-Ausgang (Rot/Gelb/Blau-Aus gang, RGB), Original-Monitor und Lichtquelle,
- - dem Rechner (PC) mit MMI-Monitor für die Schnittstelle: Mensch-Maschine (MMI) und der Digital-Ausgabe-Karte zur An steuerung der Logik-Schnittstelle (TTL),
- - der Zusatzkomponenten zur Bildvorverarbeitung, sog. Framegrab ber,
- - der Bedienschnittstelle in Form eines Handschalters, dem Joy stick für die manuelle Bedienung.
Die Nachführungssteuerung, Trackingsteuerung, besteht aus den
Komponenten:
Bildverarbeitung,
Bahnsteuerung und
Überwachung.
Bildverarbeitung,
Bahnsteuerung und
Überwachung.
Sie verarbeitet die Eingangsgrößen:
BI = Binary Input "Tracking ein",
BI = Binary Input "Tracking stop" und
das Videosignal mit drei Kanälen (RGB) und Synchronisation. Die Ausgangsgrößen sind:
BI = Binary Input "Tracking ein",
BI = Binary Input "Tracking stop" und
das Videosignal mit drei Kanälen (RGB) und Synchronisation. Die Ausgangsgrößen sind:
- - 2 × 4 × BO (Binary Output) zur Veränderung der Achsenposition über die Ansteuerung einer zweiten digitalen Schnittstelle,
- - Status- und Fehlermeldungen.
Die Hauptaufgabe der automatischen Tracking-Funktion besteht
darin, die aktuell benötigte Instrumentenspitze in dem Mittel
punktsbereich zu halten (siehe Fig. 4). Der dazu notwendige
Steuerungsablauf ist in dem Zustandsgraph gemäß Fig. 3 darge
stellt. Die Freigabeschaltung für das automatische Tracking wird
systemintern veranlasst.
Das automatische Tracking wird hier vom operierenden Chirurgen
über den Ringschalter an der Bedieneinheit freigegeben (siehe
Fig. 6)und bleibt solange aktiv, bis es durch Drücken der Stop
taste oder durch Bedienung des Joysticks oder automatisch ge
stoppt wird.
Ein automatischer Stopp des Tracking wird vorgenommen:
- - wenn kein Instrument im Bild erkannt wird, sei es, weil nicht vorhanden oder weil verschmutzt,
- - wenn aufgrund sicherheitskritischer, zu geringer Entfernung zum Instrument das Bild unscharf wird,
- - wenn mehrere Instrumente erkannt werden,
- - wenn die Erkennung des Instruments nicht innerhalb der gefor derten Reaktionszeit erfolgt,
- - wenn kein Videosignal anliegt,
- - wenn die Bildverarbeitung, Bahnsteuerung, Überwachung oder die Ansteuerung elektronische oder Programmfehler erkennt. Sämtli che Fehler werden auf den MMI-Monitor eingeblendet.
Nach einem Stop kann das Tracking wieder freigegeben werden. Das
automatische Tracking arbeitet dabei mit eingeschränkten Stell
geschwindigkeiten bis zu 10 cm/sec bzw. 30°/sec, die weiterhin
applikations- (Bauch-, Lungen-, Herzchirurgie beispielsweise)
und individuumabhängig eingeschränkt bzw. angepaßt werden kön
nen, so daß der Chirurg auf unerwünschte Situationen rechtzeitig
reagieren kann. Darüber hinaus besteht eine Stellbegrenzung für
die Achsenpositionen, die ein Kippen und Schwenken in Grenzen
hält, das translatorische Bewegen entlang der Trokarachse be
grenzt und eine Volldrehung um die Schaftachse nicht zu
läßt (siehe Fig. 7).
Aus dem Kamerabild auf dem O-Monitor (Fig. 4) wird die eventu
ell zusätzlich markierte Instrumentenspitze über ihr im Rechner
abgelegtes Abbild automatisch erkannt und ihre mittlere Position
durch die x-Position und y-Position im zweidimensionalen Kamera
bild, Erkennungssicherheit, Größe der identifizierten Instrumen
tenspitze und weiteren Informationen zur Fehlererkennung an die
Steuerung weitergegeben. Die Erkennung der Instrumentenspitze
arbeitet selbständig und ist unabhängig von der Freigabe des
Tracking. Die Bildverarbeitung (Fig. 2) erkennt auftretende
Fehler, wie kein Instrument im Bild, mehrere Instrumente im
Bild, und stoppt in diesen Fällen das automatische Tracking.
Beim Verlassen des zulässigen Bereichs (Fig. 4) wird das auto
matische Tracking die Position des Endoskops so verändern, bis
sich die Instrumentenspitze wieder im Mittelpunktsbereich befin
det. Diese Aufgabe wird durch die Bahnsteuerung (siehe Fig. 2)
gelöst, die die gemessene Position der Instrumentenspitze im Ka
merabild kontinuierlich mit verarbeitet.
Nach dem Erreichen des kleineren Bereichs um den Bildmittelpunkt
werden solange keine weiteren Stellhandlungen ausgelöst, bis der
vorgegebene größere zulässige Bereich (Fig. 4) wieder verlassen
wird. Durch diese Zurückhaltung in der Bewegung durch bereichs
weise Unterdrückung derselben wird ein ruhiges Bild auf dem O-
Monitor erzeugt.
Der Status des automatischen Trackings und eventuelle Fehlermel
dungen werden auf dem MMI-Monitor eingeblendet bzw. angezeigt,
so daß kein Eingriff in die Bildübertragung zwischen Kamera und
O-Monitor für das Kamerabild erfolgen muss.
Um Tiefenerkennung zu erhalten, ist die 3-D-Positionsbestimmung
gebräuchlich, aber wegen zwei notwendigen Kameras, deren Blick
achsen unter einem vorgegebenen Schielwinkel zueinander stehen,
ein Geräteaufwand, der durch die Tiefenerkennung an Hand von 2-
D-Bilddaten mit nur einer Kamera in Grenzen kompensiert werden
kann. Mit Hilfe der einfachen Strahlensatz-Strahloptikkann der
Zusammenhang zwischen Bild- und Gegenstandsweite genau ermittelt
werden:
mit g: Gegenstandsweite, G: Gegenstandsgröße, B: Bildgröße, f:
Brennweite der Endoskoplinse.
Die Abschätzung der dritten Dimension gelingt hinreichend genau
bei bekannter Brennweite des Endoskops.
Die wichtigste Aufgabe bei der Tiefenabschätzung ist es, die
Größe des Objektes im Bild zu bestimmen. Objekt kann auch eine
auf dem Objekt gut zu erkennende Markierung mit scharfen Kanten
bedeuten. Die einfachste Methode der Erkennung besteht darin,
den Durchmesser der segmentierten Markierungsregion zu bestim
men. Dies erweist sich als ungenau, da es durch die unterschied
lichen Orientierungen des Endoskops und durch die Eigenschaften
der Zentralprojektion zu Verformungen kommt, die keine genaue
Bestimmung der Objektbreite zulassen.
Ein besseres Verfahren zur Ermittlung der Instrumentenbreite an
der Spitze segmentiert in einem ersten Schritt die Kanten des
Objekts und bestimmt daraufhin den Abstand zum errechneten
Schwerpunkt. Dies hat den Vorteil, daß unabhängig von der Aus
richtung und durch die Projektion weitgehend unbeeinflußt die
Breite des Objektes bestimmt wird.
Die Detektion der Objektkanten erfolgt in mehreren Schritten:
- - Zuerst wird ein Filter, zum Beispiel ein 3 × 3-Sobel-Filter, auf das transformierte Graustufenbild angewandt, um anschließend ei nen Kantenverfolgungsalgorithmus zu starten.
Die gefundenen Kanten besitzen jedoch den Nachteil, daß ihre
Breite stark variieren kann. Verlangt wird eine dünne Kantenli
nie, die durchweg die Breite eines Pixels besitzt, um Abstände
zu den Rändern genauer bestimmen zu können.
Realisiert wird dies, indem die segmentierten Kanten durch Ge
raden approximiert werden.
Dies gelingt am schnellsten durch eine lineare Regressionsana
lyse, bei der die Beziehung zwischen den x- und y-Werten einer
Punktemenge in Form eines linearen Modells formuliert werden. So
lassen sich die Kanten mathematisch beschreiben, was die Bestim
mung der Objektgröße in einem nächsten Schritt ermöglicht.
Dies geschieht entweder über den Abstand zweier paralleler Gera
den oder über den Abstand einer Geraden zum Schwerpunkt des Ob
jekts durch Umformen der Geradengleichungen in die Hesse'sche-
Normalenform und Einsetzen des Schwerpunktes. Fig. 5 zeigt das
Verfahren mit den vier wesentlichen Schritten im Überblick,
diese sind:
- 1. Erzeugung des Gradientenbildes von dem markierten Instrument mit dem Sobel-Filter, dann
- 2. Segmentierung der Objektkanten, Kantenverfolgung, dann
- 3. Berechnung der Kantengerade mittels linearer Regression und schließlich
- 4. die Berechnung des Abstandes: Gerade - Markierungsschwer punkt.
Es zeigt sich, daß die Genauigkeit der Entfernungsbestimmung im
wesentlichen von der Qualität der Kantenextraktion abhängt.
Claims (9)
1. Verfahren zur sicheren automatischen Nachführung eines En
doskops und Verfolgung (Tracking) eines chirurgischen Instru
mentes mit einem elektrisch angetriebenen und gesteuerten En
doskopführungssystem (EFS) für die minimal invasive Chirur
gie, bestehend aus den Schritten:
A. Fehlertoleranzbearbeitung
A. Fehlertoleranzbearbeitung
- - der distale Endbereich eines verwendeten Instruments wird über eine Kamera aufgenommen und daraus in einem Bildver arbeitungssystem ein spezielles Abbild mit aktueller Stellgrößenangabe erzeugt,
- - die Beobachtung des Instruments wird auf:
Mehrfacherkennung wegen Reflexion,
keine Erkennung wegen Verschmutzung,
keine Erkennung wegen Verlassen des Bildbereichs,
keine Erkennung wegen Verdeckung,
keine Erkennung wegen Unschärfe im Bild durch zu geringe Entfernung zwischen Optik und Instrumentenspitze,
zeitlich zu späte Erkennung wegen geringer Rechnerlei stung und sprunghafte Ortsänderung wegen Drehzahlbegren zung der Stellmotoren
fehlerbehandelt; - - bei erkannten kritischen Fehlern wird die Nachführung des EFS automatisch gestoppt, um Verletzungen des Patienten zu vermeiden,
- - eine Multi-Sensor-Umgebung wird über eine Kamera mit Bildverarbeitung und Positionssensoren für die Freiheits grade des EFS erzeugt,
- - das mit der Multi-Sensor-Umgebung versehene Endoskopfüh rungssystem kompensiert den temporären Ausfall oder die Unwirksamkeit einzelner Sensoren unter bestimmten Be triebsbedingungen, wie Verdeckung des Instruments, Verun reinigungen der Optik, elektromagnetische Störungen, und überprüft die aktuell ausgewertete Sensorinformation auf Plausibilität,
- - mit einer adaptiven Merkmalsanpassung wird die Erkennung unterschiedlicher Objekte über maschinelle neuronale oder statistische Lernverfahren durchgeführt,
- - mögliche Fehlerzustände werden zumindest teilweise dop pelt behandelt, und zwar durch einzelne Komponenten der Bildverarbeitung und Bahnsteuerung als auch durch eine übergeordnete regelbasierte Überwachungseinheit,
- - aus der perspektivischen Verzerrung der parallelen Kanten des distalen Instrumentenbereichs wird unter Einbeziehung der Brennweite der Kameralinse und den Maßen des Instru ments der Abstand zwischen dem beobachtenden Endoskop und der Instrumentenspitze berechnet (3-D-Rekonstruktion);
- - die Position des aktuell gehandhabten Endoskops wird nur verändert, wenn die auf dem Original-Monitor (O-Monitor) dargestellte Instrumentenspitze einen vorgegebenen zen tralen Bereich (zulässigen Bereich) verlässt, wodurch eine ruhige Bahnführung ohne unnötige Stellbewegungen entsteht,
- - die im Fehlerfall detektierte Fehlerursache wird über ein Mensch-Maschine-Interface (MMI), das aus dem MMI-Monitor und/oder einer Sprachausgabe besteht, ausgegeben und so aktive Maßnahmen des Chirurgen zur Fehlerdetektion und Fehlerbeseitigung, wie Reinigen der Kamera oder manuelle Rückführung der Instrumentenspitze in den Bildbereich, ermöglicht;
- - die von dem operierenden Chirurgen unmittelbar getroffe nen und von ihm auf dem O-Monitor beobachteten Handlungen haben Priorität und werden von dem Endoskopführungssystem nicht beeinflusst;
- - das Endoskopführungssystem mit seiner Fehlertoleranzbear beitung und intuitiven Bedienung wird von dem operieren den Chirurgen an dem MMI nach Bedarf zu- oder bei Nicht bedarf weggeschaltet;
- - die Geschwindigkeit zur Nachführung des Instruments und die Winkelgeschwindigkeit zur Drehung des Instruments wird derartig begrenzt, daß ein Eingreifen des Chirurgen bei einer fehlerhaften Verarbeitung in komplizierten Er kennungssituationen, wie ungünstige Beleuchtung und Ähn lichkeiten zwischen Instrumentenspitze und Umgebung, stets gegeben ist.
2. Verfahren nach Ansprüch 1, dadurch gekennzeichnet, daß der
Bildbereich des O-Monitors bei einer der Operation vorange
henden Funktionsprüfung für das automatische Tracking in drei
unterschiedlich große konzentrische Bereiche eingeteilt wird:
- - den Mittelpunktsbereich:
befindet sich das Instrument oder befinden sich die In strumente darin, so wird das Endoskop nicht automatisch nachgeführt, - - den zulässigen Bereich:
befindet sich das Instrument oder befinden sich die In strumente innerhalb dieses Bereichs, so wird das Endoskop automatisch nachgeführt, wenn das Instrument oder die In strumente diesen Bereich vorher verlassen hatte oder hat ten, und - - den äußeren Bereich:
befindet sich das Instrument oder befinden sich die In strumente in diesem Bereich, so wird das Endoskop immer automatisch mit dem Ziel nachgeführt, das Instrument wie der in den Mittelpunktsbereich zu bringen.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß als
Abbild des Bereichs der Instrumentenspitze im Rechner ein
vereinfachtes Modell davon abgelegt wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß von
dem Bereich der Instrumentenspitze, die zusätzlich spezifisch
markiert sein kann, zunächst ein Gradientenbild erzeugt wird,
dann die Objektkanten mittels Kantenverfolgung segmentiert
und schließlich mittels linearer Regression die jeweilige
Kantengerade berechnet wird, um die dritte Dimension daraus
zu ermitteln.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das
Gradientenbild mittels eines Sobel-Filters erzeugt wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die
durch die Positionssensoren erzeugte Multi-Sensor-Umgebung
durch Positionssensoren am Führungssystem des chirurgischen
Instrumentes ergänzt wird, wodurch Ausfälle im einen System
durch das noch Funktionieren im andern ausgeglichen
(kompensiert) werden können.
7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die
durch die Kamera mit Bildverarbeitung und die Positionssenso
ren erzeugte Multi-Sensor-Umgebung durch Messung der Ein
tauchtiefe am Trokar ergänzt wird, wodurch Ausfälle der Sen
soren in einem System durch das noch Funktionieren im andern
ausgeglichen (kompensiert) werden können.
8. Verfahren nach den Ansprüchen 5 bis 7, dadurch gekennzeich
net, daß die durch extrakorporale Freiheitsgrade des EFS er
zeugten und ausnutzbaren Redundanzen für das Tracking durch
die intrakorporalen Freiheitsgrade des EFS erweitert werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß zur
Verfolgung des Bereichs der Instrumentenspitze eine 2-D-Ka
mera oder eine 3-D-Kamera, von der zur Reduzierung des Hard
ware-Aufwandes für die Bildverarbeitung nur ein Bildkanal
verarbeitet wird, verwendet wird.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19961971A DE19961971B4 (de) | 1999-12-22 | 1999-12-22 | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments |
EP00977518A EP1240418A1 (de) | 1999-12-22 | 2000-11-09 | Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung eines chirurgischen instrumentes |
PCT/EP2000/011062 WO2001046577A2 (de) | 1999-12-22 | 2000-11-09 | Verfahren zur sicheren automatischen nachführung eines endoskops und verfolgung (tracking) eines chirurgischen instrumentes mit einem elektrisch angetriebenen und gesteuerten endoskopführungssystem (efs) für die minimal invasive chirurgie |
US10/172,436 US20020156345A1 (en) | 1999-12-22 | 2002-05-16 | Method of guiding an endoscope for performing minimally invasive surgery |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19961971A DE19961971B4 (de) | 1999-12-22 | 1999-12-22 | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19961971A1 true DE19961971A1 (de) | 2001-07-26 |
DE19961971B4 DE19961971B4 (de) | 2009-10-22 |
Family
ID=7933779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19961971A Expired - Fee Related DE19961971B4 (de) | 1999-12-22 | 1999-12-22 | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments |
Country Status (4)
Country | Link |
---|---|
US (1) | US20020156345A1 (de) |
EP (1) | EP1240418A1 (de) |
DE (1) | DE19961971B4 (de) |
WO (1) | WO2001046577A2 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009010263A1 (de) * | 2009-02-24 | 2010-09-02 | Reiner Kunz | Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking |
DE102014118962A1 (de) * | 2014-12-18 | 2016-06-23 | Karl Storz Gmbh & Co. Kg | Lagebestimmung eines minimalinvasiven Instrumentes |
DE102015100927A1 (de) * | 2015-01-22 | 2016-07-28 | MAQUET GmbH | Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes |
DE102022118328A1 (de) | 2022-07-21 | 2024-02-01 | Karl Storz Se & Co. Kg | Steuervorrichtung und System |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
WO2003030763A1 (en) * | 2001-10-05 | 2003-04-17 | Boston Innovative Optics, Inc. | A system and method of providing visual documentation during surgery |
CA2483763A1 (en) * | 2002-05-02 | 2003-11-13 | Medigus Ltd. | Entry port for endoscopes and laparoscopes |
DE60330335D1 (de) * | 2002-10-29 | 2010-01-14 | Olympus Corp | Endoskopinformationsprozessor und verarbeitungsmethode |
DE10313829B4 (de) * | 2003-03-21 | 2005-06-09 | Aesculap Ag & Co. Kg | Verfahren und Vorrichtung zur Auswahl eines Bildausschnittes aus einem Operationsgebiet |
DE102004011888A1 (de) * | 2003-09-29 | 2005-05-04 | Fraunhofer Ges Forschung | Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments |
US9943372B2 (en) * | 2005-04-18 | 2018-04-17 | M.S.T. Medical Surgery Technologies Ltd. | Device having a wearable interface for improving laparoscopic surgery and methods for use thereof |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US10555775B2 (en) | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
US7962195B2 (en) | 2006-06-01 | 2011-06-14 | Biosense Webster, Inc. | Model-based correction of position measurements |
KR101477125B1 (ko) * | 2006-06-13 | 2014-12-29 | 인튜어티브 서지컬 인코포레이티드 | 미소절개 수술 시스템 |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US20080004610A1 (en) * | 2006-06-30 | 2008-01-03 | David Miller | System for calculating IOL power |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US8620473B2 (en) * | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
GB2454017A (en) * | 2007-10-26 | 2009-04-29 | Prosurgics Ltd | A control assembly |
US9168173B2 (en) * | 2008-04-04 | 2015-10-27 | Truevision Systems, Inc. | Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions |
US8864652B2 (en) * | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US10117721B2 (en) * | 2008-10-10 | 2018-11-06 | Truevision Systems, Inc. | Real-time surgical reference guides and methods for surgical applications |
US9226798B2 (en) * | 2008-10-10 | 2016-01-05 | Truevision Systems, Inc. | Real-time surgical reference indicium apparatus and methods for surgical applications |
US9173717B2 (en) * | 2009-02-20 | 2015-11-03 | Truevision Systems, Inc. | Real-time surgical reference indicium apparatus and methods for intraocular lens implantation |
US9750399B2 (en) | 2009-04-29 | 2017-09-05 | Koninklijke Philips N.V. | Real-time depth estimation from monocular endoscope images |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8784443B2 (en) | 2009-10-20 | 2014-07-22 | Truevision Systems, Inc. | Real-time surgical reference indicium apparatus and methods for astigmatism correction |
US20110213342A1 (en) * | 2010-02-26 | 2011-09-01 | Ashok Burton Tripathi | Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye |
DE102010029275A1 (de) * | 2010-05-25 | 2011-12-01 | Siemens Aktiengesellschaft | Verfahren zum Bewegen eines Instrumentenarms eines Laparoskopierobotors in einer vorgebbare Relativlage zu einem Trokar |
US10238837B2 (en) | 2011-10-14 | 2019-03-26 | Intuitive Surgical Operations, Inc. | Catheters with control modes for interchangeable probes |
US20130303944A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Off-axis electromagnetic sensor |
US9452276B2 (en) | 2011-10-14 | 2016-09-27 | Intuitive Surgical Operations, Inc. | Catheter with removable vision probe |
KR101876386B1 (ko) * | 2011-12-29 | 2018-07-11 | 삼성전자주식회사 | 의료용 로봇 시스템 및 그 제어 방법 |
TWI517828B (zh) * | 2012-06-27 | 2016-01-21 | 國立交通大學 | 影像追蹤系統及其影像追蹤方法 |
WO2014036499A1 (en) | 2012-08-30 | 2014-03-06 | Truevision Systems, Inc. | Imaging system and methods displaying a fused multidimensional reconstructed image |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
DE102013108228A1 (de) | 2013-07-31 | 2015-02-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs |
WO2015031777A1 (en) | 2013-08-29 | 2015-03-05 | Wayne State University | Camera control system and method |
DE102013109677A1 (de) | 2013-09-05 | 2015-03-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs |
JP6275335B2 (ja) * | 2015-05-28 | 2018-02-07 | オリンパス株式会社 | 内視鏡システム |
EP3590406A4 (de) * | 2017-02-28 | 2020-04-01 | Sony Corporation | Medizinisches beobachtungssystem, steuerungsvorrichtung und steuerungsverfahren |
US10917543B2 (en) | 2017-04-24 | 2021-02-09 | Alcon Inc. | Stereoscopic visualization camera and integrated robotics platform |
US10299880B2 (en) | 2017-04-24 | 2019-05-28 | Truevision Systems, Inc. | Stereoscopic visualization camera and platform |
US11083537B2 (en) | 2017-04-24 | 2021-08-10 | Alcon Inc. | Stereoscopic camera with fluorescence visualization |
WO2018225132A1 (ja) * | 2017-06-05 | 2018-12-13 | オリンパス株式会社 | 医療システムおよび医療システムの作動方法 |
DE102021204031A1 (de) | 2021-04-22 | 2022-10-27 | Carl Zeiss Meditec Ag | Verfahren zum Betreiben eines Operationsmikroskops und Operationsmikroskop |
CN114191099B (zh) * | 2022-01-14 | 2023-12-01 | 山东威高手术机器人有限公司 | 微创手术机器人主从跟踪延时测试方法 |
CN117953043B (zh) * | 2024-03-26 | 2024-06-21 | 北京云力境安科技有限公司 | 一种基于内镜图像的区域测量方法、装置及存储介质 |
CN118319213B (zh) * | 2024-06-11 | 2024-09-27 | 湖南省华芯医疗器械有限公司 | 一种引导鞘管、内窥镜组件及检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19609034C2 (de) * | 1995-03-10 | 1998-03-05 | Karlsruhe Forschzent | Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie |
US5820545A (en) * | 1995-08-14 | 1998-10-13 | Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. | Method of tracking a surgical instrument with a mono or stereo laparoscope |
US5836869A (en) * | 1994-12-13 | 1998-11-17 | Olympus Optical Co., Ltd. | Image tracking endoscope system |
US5887121A (en) * | 1995-04-21 | 1999-03-23 | International Business Machines Corporation | Method of constrained Cartesian control of robotic mechanisms with active and passive joints |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5417210A (en) * | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
US5279309A (en) * | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
US5631973A (en) * | 1994-05-05 | 1997-05-20 | Sri International | Method for telemanipulation with telepresence |
AT399647B (de) * | 1992-07-31 | 1995-06-26 | Truppe Michael | Anordnung zur darstellung des inneren von körpern |
US5829444A (en) * | 1994-09-15 | 1998-11-03 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications |
US6671058B1 (en) * | 1998-03-23 | 2003-12-30 | Leica Geosystems Ag | Method for determining the position and rotational position of an object |
US6546277B1 (en) * | 1998-04-21 | 2003-04-08 | Neutar L.L.C. | Instrument guidance system for spinal and other surgery |
-
1999
- 1999-12-22 DE DE19961971A patent/DE19961971B4/de not_active Expired - Fee Related
-
2000
- 2000-11-09 WO PCT/EP2000/011062 patent/WO2001046577A2/de not_active Application Discontinuation
- 2000-11-09 EP EP00977518A patent/EP1240418A1/de not_active Ceased
-
2002
- 2002-05-16 US US10/172,436 patent/US20020156345A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5836869A (en) * | 1994-12-13 | 1998-11-17 | Olympus Optical Co., Ltd. | Image tracking endoscope system |
DE19609034C2 (de) * | 1995-03-10 | 1998-03-05 | Karlsruhe Forschzent | Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie |
US5887121A (en) * | 1995-04-21 | 1999-03-23 | International Business Machines Corporation | Method of constrained Cartesian control of robotic mechanisms with active and passive joints |
US5820545A (en) * | 1995-08-14 | 1998-10-13 | Deutsche Forschungsanstalt Fur Luft-Und Raumfahrt E.V. | Method of tracking a surgical instrument with a mono or stereo laparoscope |
Non-Patent Citations (1)
Title |
---|
Cinquien, P. et al.: " Computer Assisted Medical Interventions", In: IEEE Engineering in Medicine and Biology, May/June 1995, S. 244-263 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009010263A1 (de) * | 2009-02-24 | 2010-09-02 | Reiner Kunz | Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking |
DE102009010263B4 (de) * | 2009-02-24 | 2011-01-20 | Reiner Kunz | Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung |
DE102014118962A1 (de) * | 2014-12-18 | 2016-06-23 | Karl Storz Gmbh & Co. Kg | Lagebestimmung eines minimalinvasiven Instrumentes |
DE102015100927A1 (de) * | 2015-01-22 | 2016-07-28 | MAQUET GmbH | Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes |
US10540781B2 (en) | 2015-01-22 | 2020-01-21 | MAQUET GmbH | Assistance device and method for providing imaging support to an operating surgeon during a surgical procedure involving at least one medical instrument |
DE102022118328A1 (de) | 2022-07-21 | 2024-02-01 | Karl Storz Se & Co. Kg | Steuervorrichtung und System |
Also Published As
Publication number | Publication date |
---|---|
US20020156345A1 (en) | 2002-10-24 |
WO2001046577A2 (de) | 2001-06-28 |
EP1240418A1 (de) | 2002-09-18 |
DE19961971B4 (de) | 2009-10-22 |
WO2001046577A8 (de) | 2008-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19961971A1 (de) | Verfahren zur sicheren automatischen Nachführung eines Endoskops und Verfolgung (Tracking) eines chirurgischen Instrumentes mit einem Endoskopführungssystem (EFS) für die minimal invasive Chirurgie | |
DE69322202T2 (de) | System und Verfahren zur Verbesserung von endoskopischer Chirurgie | |
EP2449997B1 (de) | Medizinischer Arbeitsplatz | |
EP3363358B1 (de) | Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs | |
EP0975257B1 (de) | Endoskopisches system | |
DE102018206406B3 (de) | Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems | |
EP3271118B1 (de) | Robotersystem und verfahren zum betrieb eines teleoperativen prozesses | |
EP1638064B1 (de) | Simulator für das Training von minimal-invasiven medizinischen Operationen | |
EP0260286B1 (de) | Spaltlampengerät zur laserbehandlung des auges | |
DE10249786A1 (de) | Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür | |
DE102013109677A1 (de) | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs | |
DE112016006299T5 (de) | Medizinische Sicherheitssteuerungsvorrichtung, medizinisches Sicherheitssteuerungsverfahren und medizinisches Unterstützungssystem | |
WO2008058520A2 (de) | Vorrichtung zur bereitstellung von bildern für einen operateur | |
DE102013108115A1 (de) | Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters | |
DE202013012276U1 (de) | Vorrichtung zum unterstützen eines laparoskopischeneingriffs - lenk- und manövriergelenkwerkzeug | |
DE102011005259A1 (de) | Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops | |
DE102018125592A1 (de) | Steuerungsanordnung, Verfahren zur Steuerung einer Bewegung eines Roboterarms und Behandlungsvorrichtung mit Steuerungsanordnung | |
DE102019118752B4 (de) | Verfahren zur adaptiven Funktionsneubelegung von Bedienelementen eines Bildaufnahmesystems sowie zugehöriges Bildaufnahmesystem | |
DE4412073A1 (de) | Operationsmikroskop-Einheit | |
DE102014106865A1 (de) | Bediensystem für ein Operationsmikroskop mit automatischer Folge- oder Ausrichtungsvorrichtung, Verfahren und Operationsmikroskop | |
DE102015216573A1 (de) | Digitales Operationsmikroskopiesystem | |
DE102020215559B4 (de) | Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung | |
DE102014210056A1 (de) | Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät | |
DE102004052753A1 (de) | Verfahren und Operations-Assistenz-System zur Steuerung der Nachführung zumindest eines Hilfsinstrumentes bei einem medizinisch minimal-invasiven Eingriff | |
DE102020205546A1 (de) | Überwachungsverfahren und medizinisches System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: KARLSRUHER INSTITUT FUER TECHNOLOGIE, 76131 KA, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20120703 |