DE19529950C1 - Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie - Google Patents

Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie

Info

Publication number
DE19529950C1
DE19529950C1 DE19529950A DE19529950A DE19529950C1 DE 19529950 C1 DE19529950 C1 DE 19529950C1 DE 19529950 A DE19529950 A DE 19529950A DE 19529950 A DE19529950 A DE 19529950A DE 19529950 C1 DE19529950 C1 DE 19529950C1
Authority
DE
Germany
Prior art keywords
color
laparoscope
robot
cameras
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19529950A
Other languages
English (en)
Inventor
Klaus Dr Arbter
Guo-Quing Dr Wei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsche Forschungs und Versuchsanstalt fuer Luft und Raumfahrt eV DFVLR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Forschungs und Versuchsanstalt fuer Luft und Raumfahrt eV DFVLR filed Critical Deutsche Forschungs und Versuchsanstalt fuer Luft und Raumfahrt eV DFVLR
Priority to DE19529950A priority Critical patent/DE19529950C1/de
Priority to FR9610056A priority patent/FR2737860B1/fr
Priority to US08/696,159 priority patent/US5820545A/en
Application granted granted Critical
Publication of DE19529950C1 publication Critical patent/DE19529950C1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Description

Die Erfindung betrifft ein Verfahren zum Nachführen eines Ste­ reo-Laparoskops in der minimalinvasiven Chirurgie nach dem Oberbegriff des Anspruchs 1.
Aus WO 87/06353 A1 ist ein Verfahren zum Führen von Operatio­ nen bekannt, bei welchem mittels zweier Kameras ein in einem überwachten Raum vorhandenes, bewegliches Objekt erfaßt wird, das mit Markierungen versehen ist. Das Verfahren dient somit lediglich dazu, die Raumkoordinaten der markierten Punkte zu ermitteln.
Da die minimalinvasive Chirurgie als Alternative zur offenen Chirurgie zunehmende Bedeutung gewinnt, wird sie heute schon in vielen Krankenhäusern bei Routineoperationen, wie bei­ spielsweise einer Resektion der Gallenblase eingesetzt. Wenn hierbei ein Eingriff laparoskopisch in Verbindung mit einer elektronischen Bildübertragung auf einem Monitor erfolgt, wird bis heute die Kameraführung von einem Assistenzarzt übernom­ men.
Eine solche Kameraassistenz ist jedoch mit einer Reihe von Problemen behaftet. Durch Ermüdung kommt es zu einer unruhigen Kameraführung und ebenso läßt aufgrund der Übermüdung die Kon­ zentration nach. Ferner werden immer wieder Anweisungen des operierenden Chirurgen fehlerhaft interpretiert. Darüber hin­ aus können Eigenmächtigkeiten des Assistensarztes, welche den Operationsverlauf stören, nicht selten zu atmosphärischen Stö­ rungen zwischen dem operierenden Chirurgen und dem Assistenten führen. Darüber hinaus kann sich der Chirurg physisch behin­ dert fühlen. Auch entspricht die Tätigkeit einer Kameraassi­ stenz nicht der hochwertigen, medizinischen Ausbildung eines As­ sistenzarztes, weshalb sie im Grunde genommen dadurch viel zu teuer bezahlt wird und von jungen Ärzten verständlicherweise oftmals ungern ausgeführt wird.
Bei bisher eingesetzten Führungssystemen werden Halteeinrich­ tungen verwendet, die schnell gelöst und fixiert werden kön­ nen. Beispiele hierfür sind mehrgliedrige Arme mit Kugelgelen­ ken und Gelenksperren sowie der sogenannte "C-Bogen" und ein "Scherengelenk" des KFK-Karlsruhe. Ferner wird von der Fa. Computer-Motion einen speziell für laparoskopischen Einsatz entwickelten Roboter mit sechs Freiheitsgraden vertrieben, der zur Betätigungssteuerung sowohl mit einem Handbediengerät als auch mit einer Fußschaltung ausgerüstet ist.
Obwohl die bekannten Halteeinrichtungen den Assistenzarzt von körperlichen Anstrengungen entlasten, ist bei ihnen dennoch als nachteilig anzusehen, daß sie eine Kameraassistenz nicht überflüssig machen. Analoges gilt auch für den manuell zu be­ dienenden Roboter. Obwohl die Robotersteuerung per Fußschal­ tung vom Chirurgen selbst bedient werden kann, lenkt dessen Bedienung den Chirurgen von seiner eigentlichen operativen Tä­ tigkeit ab.
Aufgabe der Erfindung ist es daher, ein Verfahren zum Nachfüh­ ren eines Stereo-Laparoskops in der minimalinvasiven Chirurgie zu schaffen, bei welchem einerseits eine Kamera durch einen Assistenzarzt nicht mehr nachgeführt zu werden braucht und an­ dererseits auch der operierende Chirurg von zusätzlichen Be­ dienungstätigkeiten, wie dem Steuern eines Roboters, befreit ist. Gemäß der Erfindung ist dies bei einem Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie nach dem Oberbegriff des Anspruchs 1 durch die Merk­ male in dessen kennzeichnenden Teil erreicht. Vorteilhafte Weiterbildungen sind Gegenstand der auf den Anspruch 1 unmit­ telbar oder mittelbar rückbezogenen Ansprüche.
Gemäß einer bevorzugten Ausführungsform der Erfindung wird das Operationsbesteck farblich markiert, so daß es in mindestens einem von einer von zwei Laparoskop-Kameras gelieferten Bild identifiziert werden kann. Gemäß der Erfindung werden dann aus der Lage des farblich markierten Operationsbestecks in von den beiden Laparoskop-Kameras erzeugten Bildern Signale zum Steu­ ern des Roboters abgeleitet. Durch Auswerten dieser Signale ist dann der Roboter in der Lage, das Laparoskop selbsttätig in eine solche Position zu bringen, daß das farblich markierte Operationsbesteck ständig im Zentralbereich des Überwachungs­ monitors abgebildet wird.
Bei Einsatz des erfindungsgemäßen Verfahrens ist somit ein entsprechend angesteuerter Roboter in die Lage versetzt, die Kameras eines Stereo-Laparoskops selbstständig am Operations­ besteck auszurichten, sobald der operierende Chirurg hierzu ein Kommando erteilt.
Gemäß der Erfindung wird somit die Lage der Kamera relativ zu dem Operationsbesteck bestimmt und bei einer gegebenenfalls vorhandenen Ablage wird (werden) dann die Kamera(s) mit Hilfe des Roboters automatisch nachgeführt. Hierzu werden die ohne­ hin vorhandenen Kamerasignale verwendet und mit ihnen dann das Operationsbesteck bzw. die Markierung auf dem Operationsbe­ steck anhand der aufgebrachten Farbe identifiziert.
Bei der Erfindung ist somit die Signalquelle mindestens eine Marke oder Markierung geeigneter Farbe, die in der Nähe oder auf einer Instrumentenspitze aufgebracht bzw. vorgesehen ist. Die Realisierung dieser Signalquelle ist somit ausgesprochen einfach und deren Kosten sind vernachlässigbar. Obendrein kann jedes vorhandene Operationsbesteck auch noch nachträglich mit entsprechenden farbigen Marken versehen werden, so daß die er­ findungsgemäße Lösung auch im Hinblick auf vorhandene, hoch­ wertige Operationsbestecke ausgesprochen wirtschaftlich einge­ setzt werden kann.
Darüber hinaus ist es auch möglich, einen Instrumentenschaft, der bisher üblicherweise schwarz ist, in einer geeigneten Far­ be auszuführen, in diesem Fall würde sich dann das Aufbringen einer Marke erübrigen.
Obendrein benötigt eine solche Signalquelle keinen Platz und sie beeinflußt somit auch in keinerlei Weise die mechanische Konstruktion bzw. den Aufbau der Instrumente. Ebenso wirkt sich eine aufgebrachte Markierung bzw. angebrachte Marke auch hinsichtlich der Handhabung der Operationsinstrumente nicht störend aus.
Diese Art Signalquelle in Form einer farbigen Markierung benö­ tig auch keine eigene Energiequelle, was allein schon deswegen schon besonders vorteilhaft ist, da von außen zugeführtes Licht ohnehin von dem operierenden Chirurgen dringend benötigt wird.
Durch Vorsehen unterschiedlicher Farben ist auch eine Codie­ rung der Instrumente durchführbar, so daß es möglich ist, das erfindungsgemäße Verfahren wahlweise auf unterschiedliche In­ strumente anzuwenden. Eine Farbunterscheidung in Videobildern ist mit modernen Bildverarbeitungseinrichtungen schnell und kostengünstig realisierbar.
Ferner ist das erfindungsgemäße Verfahren so ausgelegt, daß es mit Hilfe handelsüblicher Geräte und Baugruppen realisiert werden kann. Das erfindungsgemäße Verfahren arbeitet in Echt­ zeitbetrieb und bei ihm ist auch in realistischen Situationen eine hohe Sicherheit zuverlässig gewährleistet.
Durch das erfindungsgemäße Verfahren ist somit einem operie­ renden Chirurgen eine sehr bequeme und zuverlässige Möglich­ keit zur Hand gegeben, das Laparoskop zu führen, ohne das Ope­ rationsbesteck aus der Hand legen zu müssen. Gemäß einer be­ vorzugten Auslegung des erfindungsgemäßen Verfahrens folgt das Laparoskop dem farbig markierten Operationsbesteck ständig im sogenannten "Continuous-Mode". Hierbei ist die Regelung so ausgelegt, daß sie im zentralen Bildbereich nur schwach und in dessen Randbereich stark wirkt. Hierdurch ist auch sicherge­ stellt, daß bei Arbeiten im Operationsbereich, beispielsweise bei einem Schneiden am Gewebe, keine störenden Bildbewegungen entstehen. Andererseits ist sichergestellt, daß auch bei grö­ ßeren Bewegungen das Operationsbesteck im Monitorbild nicht verloren geht.
Nachfolgend wird die Erfindung anhand von bevorzugten Ausfüh­ rungsformen unter Bezugnahme auf die anliegenden Zeichnungen im einzelnen erläutert. Es zeigen:
Fig. 1 eine schematisch in Blöcken wiedergegebene Einrichtung zur Durchführung des erfindungsgemäßen Verfahrens;
Fig. 2 ein Blockschaltbild eines in der Einrichtung der Fig. 1 verwendeten Klassifikators und
Fig. 3a bis 3e Darstellungen, anhand welcher die in Verbindung mit dem erfindungsgemäßen Verfahren durchzuführende Farbklassifizierung in Verbindung mit einer Opera­ tionsszene vorgenommen wird.
Zuerst werden die zur Durchführung des erfindungsgemäßen Ver­ fahrens verwendeten Komponenten beschrieben. Handelsübliche Stereo-Laparoskope weisen ein starres Rohr mit einem Durchmes­ ser in der Größenordnung von 10mm auf, an dessen in den Opera­ tionsbereich einzubringendem Ende zwei Objektive und an dessen anderen Ende ein Kamerakopf vorgesehen sind, in welchem zwei CCD-Kameras integriert sind. Die von den beiden Kameras gelie­ ferten zwei Bilder liegen als Videosignale beispielsweise in dem Signalformat RGB vor.
Ein Roboter mit einer entsprechenden Robotersteuerung, bei­ spielsweise der Firma Computer-Motion, Goleta, CA/USA, hat sechs Freiheitsgrade, von welchen zwei passiv sind. Damit wird die Verletzungefahr für einen Patienten durch laterale Kräfte, d. h. Kräfte, welche quer zur Laparoskop-Achse verlaufen, ver­ mieden. Zur Ansteuerung eines solchen Roboters steht eine Bi­ bliothek zur Verfügung, die vorgegebenen Kommandos Move- Left (speed), MoveRight (speed), MoveUp (speed), MoveDown (speed), ZoomIn(speed) und ZoomOut(speed) beziehen sich hierbei auf Bewegungen eines Bildes auf einem Monitor und generieren die erforderlichen Steuerfolgen für die Robotergelenke.
Ferner wird ein handelsüblicher Video-Farb-Digitalisierer, beispielsweise der Firma Datacube, Inc. Danvers MA/USA zur Di­ gitalisierung der aufgenommenen analogen Videosignale verwen­ det. Ein solcher Digitalisierer weist auf der Analogseite einen Multiplexer, mit welchem wahlweise zwischen zwei Kameras umgeschaltet werden kann, und digitalseitig ein Modul zur Farbraumkonversion auf.
Ferner ist ein sogenannter Pipeline-Prozessor zur Echtzeit- Bildverarbeitung, wie er beispielsweise von der Firma Datacube angeboten wird, mit einem Digitalisierer, wie beispielsweise demjenigen der Firma Datacube über einen 10 MHz Datenbus ver­ bunden. In einem solchen Prozessor sind beispielsweise eine LookUp-Tabelle (LUT), Stabilisierungsprozessoren, ein Fal­ tungsmodul und weitere Module enthalten. Ein solcher Prozessor hat die erforderlichen Bausteine für eine Bildspeicherung und Verarbeitung; eine anwender- bzw. anwendungsspezifische Initi­ alisierung dieses Prozessors und dessen Verschaltung sind pro­ grammierbar. Eine Zentraleinheit (CPU) wird gleichzeitig zur Verwaltung der Bildverarbeitungs-Hardware und als Schnittstel­ le zur Robotersteuerung verwendet.
Wie aus Fig. 1 zu ersehen ist, ist die Grundstruktur zur Durch­ führung des erfindungsgemäßen Verfahrens eine Regelschleife. Ein Roboter 1 hält ein Laparoskop, von welchem in Fig. 1 nur dessen beiden CCD-Kameras 2₁ und 2₂ dargestellt sind. Die mit­ tels der Kamera 2₁ und 2₂ aufgenommenen Bilder werden im RGB- (Rot-Grün-Blau)Format an eine Bildverarbeitungseinheit 3 über­ tragen. Die im RGB-Format vorliegenden Bilder werden an einen Multiplexer 30 der Bildverarbeitungseinheit 3 angelegt, der zwischen den beiden Kameras 2₁ und 2₂ in einem vorgegebenen Rhythmus von beispielsweise von 25Hz umschaltet, so daß mit nur einer Bildverarbeitungseinheit Stereobilder ausgewertet werden können.
Durch eine solche Bildverarbeitung sollen jedoch Pixel, welche von einer farbigen Marke oder Markierung eines - in Fig. 1 nicht dargestellten - Laparoskops stammen, von allen anderen zu unterscheiden sein. Ferner eignet sich für eine Klas­ sifikation der HSV- [Hue (Farbton) -Saturation (Farbsättigung) Value(Lumminanz)]Farbraum erheblich besser als der RGB-Farb­ raum, weil im HSV-Farbraum die Farbe durch die zwei intensi­ tätsunabhängigen Komponenten "H" und "S" sowie die Intensität durch die farbunabhängige Komponente "V" dargestellt werden. Aus diesem Grund erfolgt in einem dem Multiplexer 20 nachge­ ordneten Konverter 31 eine RGB/HSV-Farbraum-Konvertierung.
Dem Konverter 31 ist ein Klassifikator 32 nachgeordnet, dessen spezieller Aufbau nachstehend anhand von Fig. 2 beschrieben wird. In Fig. 2 ist die zentrale Komponente des Klassifikators 32 eine (16 × 16) Bit Look-Up-(LU-)Tabelle 32. Aus jeweils 8 Bit der Farbkomponenten "H" und "S" wird ein 16 Bit Wort ge­ bildet, welches als Adresse für die LU-Tabelle 32-1 dient. Hierbei ist die LU-Tabelle 32-1 so vorbelegt, daß Farbwerte, welche zu einer Marke gehören, den Wert 255 (logisch "1") er­ halten, während alle anderen den Wert Null (logisch "0") er­ halten. Die LU-Tabelle 32-1 kann mit einer Rate von 20 MHz ge­ lesen werden.
Aufgrund von Kamerarauschen und Sättigungseffekten kann es zu Fehlklassifikationen kommen. Insbesondere bei einem niedrigen Signalpegel ist diese Gefahr groß. Daher erfolgt eine Nachbe­ handlung des mittels der LU-Tabelle erhaltenen Klassifika­ tionsergebnisses mit dem Ziel, alle fälschlich mit dem Wert 255 markierten Pixel zu korrigieren. Hierbei wird in Kauf ge­ nommen, daß auch Pixel, welche zu einer farbigen Marke oder Markierung gehören, den Wert Null erhalten.
Mit Hilfe der Signal-Komponente "V" werden alle die Pixel auf Null gesetzt, welche aufgrund von Rauschen einem sehr niedri­ gen Signalpegel oder wegen Sättigung einem sehr hohen Signal­ pegel zugeordnet sind. Hierzu wird die Signal-Komponente "V" über den zweiseitigen Schwellenwertgeber 32-2 geleitet und in einer Multipliziereinheit 32-3 mit dem Ausgangssignal der LU- Tabelle 32-1 multipliziert.
Die verbleibenden Restfehler sind einzelne Pixel oder kleine Pixelgruppen an rasch wechselnden Orten. Das Bild der Marke (Nutzsignal) ist dagegen ein ausgedehntes Gebiet, das sich sehr langsam bewegt. Aufgrund dieser Unterschiede im örtlichen und zeitlichen Verhalten können somit Restfehler sehr effi­ zient durch eine zeitliche und anschließende örtliche Tiefpaß- Filterung in einem zeitlichen Tiefpaß 32-4 und einem diesem nachgeordneten örtlichen Tiefpaß 32-5 drastisch reduziert wer­ den. Anschließend wird in einem einseitigen Schwellenwertgeber 36-2 eine entsprechende Schwellenwertoperation durchgeführt, wodurch eine effiziente nicht-lineare Filterung realisiert wird.
Wird die Filterung durch Addition aufeinanderfolgender Frames und einer Faltung mit einer gleichförmig belegten Maske, bei­ spielsweise der Größe (7 × 7) durchgeführt, so wird eine Feh­ lerreduktion um Faktoren von 50 bis 100 pro Klassifikations­ fehler erreicht.
Eine anschließende statistische Auswertung in einem dem Klas­ sifikator nachgeordneten Statistik-Prozessor 33₁ liefert als Ergebnis den Schwerpunkt (SP) und in einem weiteren, parallel dazu vorgesehenen Statistik-Prozessor 33₂ das sogenannte um­ schreibende Rechteck BB (Bounding Box) eines Bildes der Marke oder Markierung. Auch wenn ein erheblicher Prozentsatz der Pi­ xel der Marke oder Markierung fehlen, stört dies das Ergebnis im Gegensatz zu fehlerhaft als Marken-Pixel klassifizierte Hintergrundpixel nur wenig.
Die in Fig. 1 in Form von Blockbildern wiedergegebenen Regel­ schleife 3 ist schließlich nach dem Klassifikator 32 über einen Statistik-Prozessor 33₁ abgeschlossen. Dem Prozessor 33₁ sind ein Regler 34 sowie eine Robotersteuerung 35 nachgeord­ net.
Aus den Bildschwerpunkten SP der Marken bzw. Markierungen in zwei aufeinanderfolgenden Bildern von den Kameras 2₁ und 2₂ werden dann der Mittelpunkt und die Disparität bestimmt. Eine Abweichung des Mittelpunkts von seiner Sollposition im Zen­ tralbereich des Monitorbildes wird zu einer Lateralsteuerung (MoveUp-Down-Left-Right) und die Abweichung der Disparität von jedem Sollwert wird zu einer Transversalsteuerung (ZoomIn-Out) verwendet. In allen Fällen ist die Rückstellgeschwindigkeit proportional zu einer Ablage.
Damit ist die Stabilität des geregelten Systems sicherge­ stellt. Obendrein verhält sich das System in der Umgebung des Arbeitspunktes ruhig, was für den Chirurgen sehr wichtig ist; auch wird das gesamte System bei großen Ablagen rasch zurück­ geführt.
Zur Erhöhung der Systemsicherheit wird eine Konfidenz der Mes­ sungen fortlaufend in einer Konfidenztests sowie eine Pro­ grammsteuerung durchführenden Einheit 36 geprüft. Zu den bei­ den dem Klassifikator 32 nachgeordneten Statistik-Prozessoren 33₁ und 33₂ ist hierzu ein Konturdaten-Prozessor 35 parallel­ geschaltet. In der Konfidenztests und eine Programmsteuerung durchführenden Einheit 36 werden mit Hilfe der vom Statistik- Prozessor 33₂ abgegebenen, umschreibenden Rechtecke BB und der vom Prozessor 35 gebildeten Kontur sogenannte interessierende Regionen ROI (Region Of Interest) in welchen das Bild einer Marke oder Markierung erwartet wird, bestimmt und von dieser aus sowohl an den Regler 34 als auch an die beiden Statistik- Prozessoren 33₁ und 33₂ sowie den Konturdaten-Prozessor 35 an­ gelegt. Außerhalb der interessierenden Regionen ROI liegende Pixel werden nicht ausgewertet.
Für eine praxisbezogene Anwendung des erfindungsgemäßen Ver­ fahrens muß ferner auch noch bestimmt werden, welche Farben die Marken bzw. Markierungen erhalten sollen und wie bei einer gegebenen farbigen Marke oder Markierung der Klassifikator ausgelegt werden muß. Dazu muß insbesondere festgelegt werden, wie die LU-Tabelle belegt werden muß.
Zur Lösung dieser Probleme ist von der Anmelderin ein Farbaus­ wahlverfahren nach dem Prinzip "Überwachtes Lernen an Beispie­ len" mit Hilfe eines graphischen Interfaces entwickelt worden. Zur Anwendung dieses Verfahrens sind lediglich ein Computer mit der Möglichkeit, Farbbilder in Echtfarbe darzustellen, und ein Maus-Interface erforderlich, um Polygone auf dem Monitor zu zeichnen.
Das Kernstück des von der Anmelderin entwickelten Farbauswahl- Verfahrens ist eine Berechnung von zweidimensionalen Histo­ grammen in polygonalen Gebieten und eine graphische Ergebnis­ darstellung. In der Ergebnisdarstellung sind ähnliche Farben auf nahe beieinanderliegende Punkte, sogenannte kompakte Clu­ ster, und unähnliche Farben auf weit entfernte Punkte, soge­ nannte disjunkte Cluster, abzubilden.
Hierzu werden von Videobändern, die von tatsächlichen Opera­ tionen aufgenommen worden sind, eine Anzahl Farbbilder typi­ scher Szenen genommen, in welchen sich alle möglichen, bei solchen Operationen vorkommenden Farben befinden. Jedes dieser Bilder wird im RGB-Format gespeichert, d. h. jedes Pixel der Bilder hat einen RGB-Wert, welcher eine Farbe repräsentiert. Da es ausreicht, jede Farbe mit zwei Werten darzustellen, wird jeder RGB-Wert auf eine zweidimensionale Ebene, d. h. die HS- Ebene, projiziert, die den Farbton (Hue) und die Farbsättigung (Saturation) enthält. Hierbei wird in jeder Position der HS- Ebene die Anzahl der Pixel aufsummiert, welche auf die gleiche HS-Position projiziert werden. Dadurch wird ein zweidimensio­ nales Farbhistogramm erhalten, in dem alle in den Szenen vor­ kommenden Farben mit ihrer Häufigkeit dargestellt werden.
Um Anwendern einen anschaulichen, visuellen Eindruck der Far­ ben zu geben, wird ein Farbhistogramm dargestellt; hierbei hat die Farbe jeder HS-Stelle eine durchschnittliche Farbintensi­ tät von allen an dieser Stelle registrierten Pixel. Dadurch kann ein Anwender unmittelbar vorhandene Farblücken finden, die zur Farbmarkierung des Operationsbestecks verwendet werden können. Damit kann der Anwender dem Hersteller objektive Farb­ maße (H, S) angeben.
Sicherheitshalber wird das markierte Instrument bzw. Opera­ tionsbesteck bei einer später erfolgenden Klassifikator-Ausle­ gung in einer Hardware-Implementierung wegen einer eventuellen Farbänderung der ausgewählten Farbe durch die Kamera noch ein­ mal farblich analysiert.
Anhand von Fig. 3A bis 3E wird ein Beispiel einer Farbklassifi­ zierung erläutert. In der Schwarz-Weiß-Darstellung der Fig. 3A ist eine "Farbpalette" für den Farbraum wiedergegeben, in wel­ chem die Klassifizierung später erfolgt. Um den Verlauf des Farbspektrums anzudeuten, sind markante Farben, nämlich gelb, rot, violett, blau und grün, eingetragen. Alle Farben, die auf einem vom Zentrum ausgehenden Strahl liegen, haben einen Farb­ ton (H) und alle Farben, die auf dem konzentrischen Kreis lie­ gen, haben eine Farbsättigung (S).
In Fig. 3B ist eine Szene wiedergegeben, bei welcher der etwa in der Mitte liegende pfeilspitzen-artige Bereich eine bräun­ liche Farbe hat und der ihn umgebende Bereich im wesentlichen eine grünlich-graue Farbe hat. In der daneben angeordneten Fig. 3C sind innerhalb der kreisförmigen Fläche durch ein amor­ phes Gebilde die Einträge in den Farbraum für die Farben ein­ getragen, welche in der Szene vorkommen; d. h. das amorphe Ge­ bilde ist in dem oberen, in Fig. 3C dunkleren Bereich gräulich grün und in dem rechts darunter liegenden, etwas helleren Be­ reich bräunlich ausgelegt.
Um die visuelle Zuordnung zu der in Fig. 3B wiedergegebenen Szene zu erleichtern, werden jedoch nicht die Farben aus dem normierten Farbraum der Fig. 3A eingetragen, sondern zu jeder Farbe wird die mittlere Intensität ermittelt, mit dieser auf den RGB-Farbraum zurücktransformiert, und das entsprechende Ergebnis eingetragen. In dem amorphen Bereich ist daher deut­ lich ein Farbgebiet zu erkennen, das von der Szene belegt wird, und wie vorstehend ausgeführt, in der oberen etwas dun­ kleren Bereich die Farbe grünlich grau und in dem unteren in Fig. 3C etwas helleren Bereich die bräunliche Farbe wiedergibt.
Innerhalb dieses amorphen Gebiets ist deutlich das entspre­ chende Subcluster, nämlich bräunlich und grünlich-grau zu er­ kennen. Auf dem kreisförmigen Rand des Farbraumes liegen die einzelnen Farben bei 100%, wobei in der Schwarz-Weiß-Darstel­ lung der Fig. 3C wiederum nur die Hauptfarben gelb, rot, vio­ lett, blau und grün eingetragen sind. Hieraus ist auch klar zu ersehen, welcher Farbbereich - innerhalb des kreisförmigen, vielfarbigen Randes - für Markierungen frei ist.
In der Schwarz-Weiß-Darstellung der Fig. 3D ist links unten ne­ ben der bereits in Fig. 3B wiedergegebenen Szene noch zusätz­ lich ein markiertes Instrument zu sehen. Die interaktiv einge­ zeichneten Regionen, von welchen der mittlere, in Fig. 3D weiß­ lich wiedergegebene Bereich der Farbe gelb entspricht und die beiden angrenzenden Bereiche eine blau-grüne Farbe haben, sind in der Darstellung der Fig. 3D durch dunkle schwarze Linien markiert.
In der Schwarz-Weiß-Darstellung der Fig. 3E sind die Farbclu­ ster zu erkennen, die zu den Farben der Marke gehören. Hierbei befindet sich die Farbe "gelb", die in Fig. 3E im rechten oberen Bereich als eine gezackte, von weiß in grau übergehende Linie wiedergegeben ist, in deutlicher Nähe zum Farbgebiet des Hintergrundes (siehe Fig. 3C); dagegen ist die blau-grüne Farbe weit von diesem entfernt.
Im vorliegenden Fall wird daher, die blau-grüne Farbe zur Identifizierung der Marke verwendet, da sie weiter vom Farbge­ biet des Hintergrunds entfernt ist. Hierzu wurde das zur Marke gehörige Farbgebiet interaktiv durch ein - in der Fig. 3E weiß eingetragenes - umschreibendes Polygon markiert.
Im Hinblick auf die Auslegung des Klassifikators 32 wählt so­ mit ein Anwender die Gebiete aus, deren Farben später eine Klasse bilden, indem er mit der Maus die sogenannten um­ schreibenden Polygone markiert. Die Berechnung des Farbhisto­ gramms wird auf das Innere der Polygone beschränkt, und das Ergebnis wird graphisch dargestellt. In dieser Darstellung erkennt dann der Anwender die Auslegung der Farbcluster und er kann wiederum durch umschreibende Polygone die Klassengrenzen festlegen. Hierbei können auch verschiedene Farben zu einer Klasse zusammengefaßt werden. Die LU-Tabelle 32-1 im Klassifi­ kator 32 erhält danach nur für die ausgewählten Farben den Eintrag 255, wie vorstehend bereits ausgeführt ist, während sie für alle übrigen Farben den Eintrag Null erhält.
Umfangreiche Untersuchungen der Anmelderin haben jedoch ge­ zeigt, daß die Wahl einer geeigneten Farbe ausschließlich nach dem subjektiven Eindruck sehr schwierig ist, und häufig zu un­ befriedigenden Ergebnissen führen kann. Dies liegt daran, daß die Farbtemperatur der Beleuchtung, die Farbwiedergabe der Ka­ mera und die Farbwiedergabe des Monitors zu Farbverschiebungen führen. Außerdem scheint dieselbe Farbe bei unterschiedlicher Helligkeit verschieden wahrgenommen zu werden. Die vorstehend beschriebene Farbauswahlmethode ist unabhängig von Farbver­ schiebungen der Kameras und des Monitors und objektiviert so­ mit die Farbwahl und die Klassifikatorauslegung.
Die vorstehend beschriebene Farbauswahlmethode ist darüber hinaus für jede Art von Farbklassifikation anwendbar, so bei­ spielsweise für die Qualitätskontrolle bunter Textilien ange­ führt. Hier ist es dann möglich, sich auf eine bestimmte Farbe einzustellen, um etwa den Verlauf der Fäden dieser Farbe oder den Druck von Mustern zu kontrollieren.
Ferner ist vorteilhaft, daß der Anwender es in keiner Weise mit Zahlen zu tun hat. Er bedient das Farbauswahl-Verfahren auf eine sehr bequeme Weise und kommt sehr schnell zu zuver­ lässigen Ergebnissen. Ferner kann die Selektivität des Klassi­ fikators auf sehr einfache Weise der jeweiligen Problemstel­ lung angepaßt werden. Hinsichtlich der Form der Klassengrenzen bestehen im Gegensatz zu analytischen Klassifikatoren oder Neuronalen Netzen keinerlei Beschränkungen.

Claims (7)

1. Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie, das bezüglich eines im Operations­ bereich befindlichen, über einen Monitor überwachten Opera­ tionsbestecks mit Hilfe eines Roboters bewegbar ist, dadurch gekennzeichnet, daß
das Operationsbesteck farblich markiert ist und in mindestens einem von einer von zwei Kameras des Laparoskops gelieferten Bild identifiziert wird, und
aus der Lage des farblich markierten Operationsbestecks in von beiden Kameras erzeugten Bildern Signale zum Steuern des Robo­ ters in der Weise abgeleitet werden,
daß der Roboter (10) das Laparoskop selbsttätig in eine solche Position bringt, daß das farblich markierte Operationsbesteck ständig im Zentralbereich des Überwachungsmonitors abgebildet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zum Vermeiden von beim Arbeiten mit dem Operationsbesteck stören­ den Bewegungen eines Bildes das Laparoskop dem farbig markier­ ten Operationsbesteck ständig in der Weise nachgeführt wird, daß im Zentralbereich des Monitors das Nachführen eines Bildes verhältnismäßig schwach, jedoch in dessen Randbereich stark geregelt wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
  • a) zur Steuerung des in eine Regelschleife eingebundenen Ro­ boters (10) die mit den beiden Kameras (2₁, 2₂) des Lapa­ roskops aufgenommenen, farbigen Bilder im dreidimensiona­ len RGB-Format an eine Bildverarbeitungseinheit (3) über­ tragen werden, in welcher sie in zweidimensionale Bilder im HSV-Raum umgesetzt werden;
  • b) anschließend in einer vorbelegten Look-Up-(LU-)Tabelle (32- 1) eines Klassifikators (32) der Bildverarbeitungseinheit (3) zur Markierung gehörende Farbwerte hervorgehoben und auf einen eindeutigen Wert (wie 255, logisch "1") einge­ stellt werden, während alle übrigen Werte auf Null ge­ bracht werden;
  • c) in dem Klassifikator (32) nachgeordneten Statistik-Prozes­ soren (33₁; 33₂) jeweils als Ergebnisse von diesen ausge­ führten statistischen Auswertungen der Schwerpunkt (SP) bzw. ein Umschreiben der Rechtecke (BB) eines Bildes der Markierung gebildet werden;
  • d) schließlich die erhaltenen Markierungspixel über einen Reg­ ler (34) an eine Steuereinheit (11) des Roboters (10) an­ gelegt werden, in welcher (11) aus den Bildschwerpunkten (SP) der Markierungen in zwei aufeinanderfolgenden Bildern der Kameras (2₁, 2₂) der Bildmittelpunkt und eine Dispa­ rität gebildet werden, wobei eine Abweichung des Mittel­ punkts von einer Sollposition im Zentralbereich des Moni­ tor-Bildes zur Lateralsteuerung des robotergeführten Laparoskops und die Abweichung der Disparität von ihrem Sollwert zur Transversalsteuerung des Laparoskops verwen­ det werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zur Erzeugung von Stereobildern am Eingang der Bildverarbeitungs­ einheit (3) mittels eines Multiplexers (30) in vorgegebenem Rhythmus zwischen den Eingängen der Kameras (2₁, 2₂) des Lapa­ roskops umgeschaltet wird.
5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß in der LU-Tabelle (32-1) des Klassifikators (32) aus einer An­ zahl Bits der Farbkomponenten "H" und "S" der in den HSV-Raum umgesetzten Farbbilder als Adresse für die LU-Tabelle (32-1) ein Wort mit der doppelten Anzahl Bits gebildet wird, wobei die LU-Tabelle (32) so vorbelegt wird, daß zur Markie­ rung gehörende Farbwerte den höchsten Wert (wie 255, logisch "1") erhalten und die übrigen Werte Null (logisch "0") sind, daß zur Korrektur von fälschlich mit dem höchsten Wert verse­ henen Pixel alle Pixel Null gesetzt werden, die einem sehr niedrigen Signalpegel (Rauschen) oder einem sehr hohen Signal­ pegel (Sättigung) zugeordnet sind, indem die Komponente "V" der umgesetzten Farbbilder, über einen zweiseitigen Schwellen­ wertgeber (32-2) geleitet, in einer Multipliziereinheit (32-3) mit den Ausgangswerten der LU-Tabelle (32-1) multipliziert werden und Restfehler in Form einzelner Pixel oder Pixelgruppen einer zeitlichen und örtlichen Filterung (32-4; 32-5) unterzogen und anschließend über einen einseitigen Schwellenwertgeber (32-6) als Ausgangsdaten des Klassifikators (32) vorliegen.
6. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zur Erhöhung der Systemsicherheit fortlaufend eine Konfidenz der Messungen durchgeführt wird.
7. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zum schnellen und sicheren Auslegen eines Farbklassifikators nach dem Prinzip des "überwachten Lernens am Beispiel"
  • a) von einer computergestützten Farbanalyse charakteristische Szenen (wie Kamerabilder) auf einem Monitor präsentiert werden, so daß in diesen Szenen mit Hilfe eines Eingabege­ räts (wie einer Maus) Regionen markierbar sind, deren In­ nenbereich hinsichtlich einer Erstellung eines zweidimen­ sionalen Farbhistogramms in einem auf Helligkeit normier­ ten Farbraum (wie Farbton (H) und Sättigung (S)) weiter ausgewertet werden soll;
  • b) als Ergebnis der Farbanalyse das erstellte zweidimensionale Farbhistogramm auf dem Monitor dargestellt wird, so daß mit Hilfe des Eingabegeräts (Maus) in der Histogramm-Dar­ stellung Regionen markierbar sind, welchen eine Bezeich­ nung beispielsweise in Form eines Zahlenwerts zugeordnet wird, und
  • c) aus den beim Schritt b) markierten Farbregionen und den zu­ geordneten Bezeichnungen anschließend automatisch die Be­ legung einer Look-Up-Tabelle festgelegt wird, wodurch je­ der markierten Farbe des zweidimensionalen Farbraumes die die beim Schritt b) gewählte Bezeichnung zugeordnet ist.
DE19529950A 1995-08-14 1995-08-14 Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie Expired - Lifetime DE19529950C1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19529950A DE19529950C1 (de) 1995-08-14 1995-08-14 Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
FR9610056A FR2737860B1 (fr) 1995-08-14 1996-08-09 Procede pour realiser l'asservissement d'un laparoscope stereoscopique dans le domaine de la chirurgie avec ingerance minimale dans le corps humain
US08/696,159 US5820545A (en) 1995-08-14 1996-08-13 Method of tracking a surgical instrument with a mono or stereo laparoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19529950A DE19529950C1 (de) 1995-08-14 1995-08-14 Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie

Publications (1)

Publication Number Publication Date
DE19529950C1 true DE19529950C1 (de) 1996-11-14

Family

ID=7769502

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19529950A Expired - Lifetime DE19529950C1 (de) 1995-08-14 1995-08-14 Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie

Country Status (3)

Country Link
US (1) US5820545A (de)
DE (1) DE19529950C1 (de)
FR (1) FR2737860B1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999004719A1 (de) 1997-07-24 1999-02-04 Karl Storz Gmbh & Co. Endoskopisches instrument zur durchführung von endoskopischen eingriffen oder untersuchungen und endoskopisches instrumentarium, enthaltend ein solches endoskopisches instrument
WO2001056460A1 (de) 2000-02-01 2001-08-09 Karl Storz Gmbh & Co. Kg Vorrichtung zur intrakorporalen, minimal-invasiven behandlung eines patienten
DE10225077A1 (de) * 2002-06-05 2003-12-24 Vr Magic Gmbh Trackingsystem
EP1779802A2 (de) 2005-11-01 2007-05-02 Biosense Webster, Inc. Steuerung der Richtung eines bildgebenden Katheter
WO2008113957A1 (fr) * 2007-02-23 2008-09-25 UNIVERSITE DE STRASBOURG (Etablissement Public à Caractère Scientifique, Culturel et Professionnel) Dispositif d'endoscope flexible a asservissement visuel et procede de stabilisation d'un tel dispositif
WO2009141769A1 (en) * 2008-05-19 2009-11-26 Koninklijke Philips Electronics N.V. Reproducible positioning of sensing and/or treatment devices
DE102009010263A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking
DE102010040987A1 (de) * 2010-09-17 2012-03-22 Siemens Aktiengesellschaft Verfahren zum Platzieren eines Laparoskopieroboters in einer vorgebbaren Relativlage zu einem Trokar
DE102013108228A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
US11406455B2 (en) 2018-04-25 2022-08-09 Carl Zeiss Meditec Ag Microscopy system and method for operating the microscopy system

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19648338C2 (de) * 1996-11-22 2001-02-01 Wolf Gmbh Richard Vorrichtung zur Nachführung einer Zielmarke für ein Therapiegerät
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US8229549B2 (en) * 2004-07-09 2012-07-24 Tyco Healthcare Group Lp Surgical imaging device
DE19961971B4 (de) * 1999-12-22 2009-10-22 Forschungszentrum Karlsruhe Gmbh Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
DE10025285A1 (de) * 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
US6748105B1 (en) * 2000-05-31 2004-06-08 Stmicroelectronics, Inc. Method and system for creating anaglyphs
US6817974B2 (en) 2001-06-29 2004-11-16 Intuitive Surgical, Inc. Surgical tool having positively positionable tendon-actuated multi-disk wrist joint
US20060178556A1 (en) 2001-06-29 2006-08-10 Intuitive Surgical, Inc. Articulate and swapable endoscope for a surgical robot
US6941017B2 (en) * 2001-09-18 2005-09-06 Tektronix, Inc. Temporal processing for realtime human vision system behavior modeling
US7386365B2 (en) 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
EP2865351B1 (de) 2002-12-06 2018-11-28 Intuitive Surgical Operations, Inc. Flexibles Gelenk für ein Operationsinstrument
US20060074307A1 (en) * 2004-05-10 2006-04-06 Tatsuo Igarashi Body cavity diagnostic system
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8147503B2 (en) * 2007-09-30 2012-04-03 Intuitive Surgical Operations Inc. Methods of locating and tracking robotic instruments in robotic surgical systems
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US8062211B2 (en) * 2006-06-13 2011-11-22 Intuitive Surgical Operations, Inc. Retrograde instrument
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9168104B2 (en) * 2008-06-23 2015-10-27 John Richard Dein Intra-operative system for identifying and tracking surgical sharp objects, instruments, and sponges
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
WO2012078989A1 (en) 2010-12-10 2012-06-14 Wayne State University Intelligent autonomous camera control for robotics with medical, military, and space applications
US20150297313A1 (en) * 2012-12-14 2015-10-22 The Trustees Of Columbia University In The City Of New York Markerless tracking of robotic surgical tools
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US9827054B2 (en) * 2014-03-14 2017-11-28 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
US10744646B2 (en) 2013-08-29 2020-08-18 Wayne State University Camera control system and method
AU2015222873B2 (en) 2014-02-27 2018-09-13 University Surgical Associates, Inc. Interactive display for surgery
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2017014308A1 (ja) 2015-07-23 2017-01-26 オリンパス株式会社 マニピュレータ及び医療システム
EP3326566A4 (de) * 2015-07-23 2019-07-03 Olympus Corporation Medizinisches system und betriebsverfahren dafür
WO2018217431A1 (en) * 2017-05-25 2018-11-29 Covidien Lp Robotic surgical system with automated guidance
US10772703B2 (en) * 2017-08-25 2020-09-15 Titan Medical Inc. Methods and apparatuses for positioning a camera of a surgical robotic system to capture images inside a body cavity of a patient during a medical procedure
US11712220B2 (en) 2018-03-12 2023-08-01 Koninklijke Philips N.V. Ultrasound imaging plane alignment using neural networks and associated devices, systems, and methods
CN114366313B (zh) * 2022-03-21 2022-08-02 杭州华匠医学机器人有限公司 一种基于腹腔镜手术器械位姿的持镜机器人控制方法
CN116439636B (zh) * 2023-03-08 2023-11-24 极限人工智能有限公司 一种器械、内窥镜系统、医疗系统及其定位控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987006353A1 (en) * 1986-04-11 1987-10-22 Valtion Teknillinen Tutkimuskeskus Method for the three-dimensional surveillance of the object space

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4651201A (en) * 1984-06-01 1987-03-17 Arnold Schoolman Stereoscopic endoscope arrangement
DE4102196C2 (de) * 1990-01-26 2002-08-01 Olympus Optical Co Abbildungsvorrichtung zum Nachführen eines Objektes
US5217453A (en) * 1991-03-18 1993-06-08 Wilk Peter J Automated surgical system and apparatus
JP2600515B2 (ja) * 1991-05-14 1997-04-16 富士ゼロックス株式会社 画像処理方法
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
KR940007163B1 (ko) * 1991-07-09 1994-08-06 삼성전자 주식회사 캠코더의 피사체 자동추적장치
EP0664038B1 (de) * 1992-02-18 2000-10-11 Neopath, Inc. Verfahren zur identifizierung von objekten mit daten-verarbeitungstechnik
US5350391A (en) * 1992-10-19 1994-09-27 Benedetto Iacovelli Laparoscopic instruments
US5557688A (en) * 1992-11-18 1996-09-17 Fuji Photo Film Co., Ltd. Method of extracting characteristic image data and color data conversion device for image processing apparatus
WO1995001757A1 (en) * 1993-07-07 1995-01-19 Cornelius Borst Robotic system for close inspection and remote treatment of moving parts
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987006353A1 (en) * 1986-04-11 1987-10-22 Valtion Teknillinen Tutkimuskeskus Method for the three-dimensional surveillance of the object space

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999004719A1 (de) 1997-07-24 1999-02-04 Karl Storz Gmbh & Co. Endoskopisches instrument zur durchführung von endoskopischen eingriffen oder untersuchungen und endoskopisches instrumentarium, enthaltend ein solches endoskopisches instrument
DE19731894C1 (de) * 1997-07-24 1999-05-12 Storz Karl Gmbh & Co Endoskopisches Instrument zur Durchführung von endoskopischen Eingriffen oder Untersuchungen und endoskopisches Instrumentarium, enthaltend ein solches endoskopisches Instrument
WO2001056460A1 (de) 2000-02-01 2001-08-09 Karl Storz Gmbh & Co. Kg Vorrichtung zur intrakorporalen, minimal-invasiven behandlung eines patienten
DE10004264A1 (de) * 2000-02-01 2001-08-09 Storz Karl Gmbh & Co Kg Vorrichtung zur intrakorporalen, minimal-invasiven Behandlung eines Patienten
DE10004264C2 (de) * 2000-02-01 2002-06-13 Storz Karl Gmbh & Co Kg Vorrichtung zur intrakorporalen, minimal-invasiven Behandlung eines Patienten
DE10225077A1 (de) * 2002-06-05 2003-12-24 Vr Magic Gmbh Trackingsystem
DE10225077B4 (de) * 2002-06-05 2007-11-15 Vr Magic Gmbh Objektverfolgeanordnung für medizinische Operationen
EP1779802A2 (de) 2005-11-01 2007-05-02 Biosense Webster, Inc. Steuerung der Richtung eines bildgebenden Katheter
EP1779802A3 (de) * 2005-11-01 2007-12-19 Biosense Webster, Inc. Steuerung der Richtung eines bildgebenden Katheter
WO2008113957A1 (fr) * 2007-02-23 2008-09-25 UNIVERSITE DE STRASBOURG (Etablissement Public à Caractère Scientifique, Culturel et Professionnel) Dispositif d'endoscope flexible a asservissement visuel et procede de stabilisation d'un tel dispositif
WO2009141769A1 (en) * 2008-05-19 2009-11-26 Koninklijke Philips Electronics N.V. Reproducible positioning of sensing and/or treatment devices
DE102009010263A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking
WO2010097315A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Navigation endoskopischer vorrichtungen mittels eye-tracker
DE102010040987A1 (de) * 2010-09-17 2012-03-22 Siemens Aktiengesellschaft Verfahren zum Platzieren eines Laparoskopieroboters in einer vorgebbaren Relativlage zu einem Trokar
DE102013108228A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
WO2015014952A1 (de) 2013-07-31 2015-02-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs
WO2015032738A1 (de) 2013-09-05 2015-03-12 MAQUET GmbH Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
US10540781B2 (en) 2015-01-22 2020-01-21 MAQUET GmbH Assistance device and method for providing imaging support to an operating surgeon during a surgical procedure involving at least one medical instrument
US11406455B2 (en) 2018-04-25 2022-08-09 Carl Zeiss Meditec Ag Microscopy system and method for operating the microscopy system
US11806092B2 (en) 2018-04-25 2023-11-07 Carl Zeiss Meditec Ag Microscopy system and method for operating the microscopy system

Also Published As

Publication number Publication date
FR2737860B1 (fr) 1999-07-16
US5820545A (en) 1998-10-13
FR2737860A1 (fr) 1997-02-21

Similar Documents

Publication Publication Date Title
DE19529950C1 (de) Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
DE19516664C1 (de) Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
EP2467051B1 (de) Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der bildinformation zu verarbeitenden massstabsinformation
DE19961971B4 (de) Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
DE102016012744B4 (de) Robotersystem mit einer CNC-Steuerung und einer Robotersteuereinrichtung, die über ein Kommunikationsnetzwerk miteinander verbunden sind
DE10130278B4 (de) Verfahren und Vorrichtung zur Darstellung eines Operationsgebietes bei Laseroperationen
DE3732435C2 (de)
DE202014010578U1 (de) Chirurgisches Steuersystem
DE102006059380A1 (de) Medizinisches Robotersystem, das eine Dreidimensionale Telestration bereitstellt
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
DE102017108371B4 (de) Medizinisch-optisches Darstellungssystem und Verfahren zum Betreiben desselben
EP3363358A2 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
DE102019004233A1 (de) Systeme und verfahren zum verfolgen von objekten
DE3735167A1 (de) Elektronischer rechner mit wiedergabefunktion fuer graphische darstellungen
EP1675504B1 (de) Erzeugen eines mit bearbeitungsvermerken versehenen bildes in sterilem arbeitsbereich
DE10215885A1 (de) Automatische Prozesskontrolle
EP3248173B1 (de) Assistenzeinrichtung und verfahren zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs unter verwendung mindestens eines medizinischen instrumentes
DE102009030504A1 (de) Augenchirurgie-Mikroskopiesystem
DE3709919C2 (de)
DE102019118752B4 (de) Verfahren zur adaptiven Funktionsneubelegung von Bedienelementen eines Bildaufnahmesystems sowie zugehöriges Bildaufnahmesystem
DE102019133753A1 (de) Werkzeuge für augmentierte realität in der lichtgestaltung
DE102014104673A1 (de) Prozessunterstützungssystem und Verfahren zum Unterstützen eines Prozesses
EP3660860A1 (de) Verfahren und vorrichtung zur steuerung einer anzeigeeinheit in einem medizintechnischen gerätesystem
DE102023101892B3 (de) Verfahren und System zum Bearbeiten laparoskopischer Bilder

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V., 5

8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT-UND RAUMFAHRT E.V., 51

8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

R071 Expiry of right