DE102014226240A1 - System zur roboterunterstützten medizinischen Behandlung - Google Patents

System zur roboterunterstützten medizinischen Behandlung Download PDF

Info

Publication number
DE102014226240A1
DE102014226240A1 DE102014226240.2A DE102014226240A DE102014226240A1 DE 102014226240 A1 DE102014226240 A1 DE 102014226240A1 DE 102014226240 A DE102014226240 A DE 102014226240A DE 102014226240 A1 DE102014226240 A1 DE 102014226240A1
Authority
DE
Germany
Prior art keywords
medical
manipulator
visualization device
instrument
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102014226240.2A
Other languages
English (en)
Inventor
Thomas Neff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Priority to DE102014226240.2A priority Critical patent/DE102014226240A1/de
Priority to CN201580069080.9A priority patent/CN106999250A/zh
Priority to PCT/EP2015/077779 priority patent/WO2016096366A1/de
Priority to US15/534,758 priority patent/US20170319289A1/en
Priority to KR1020177018509A priority patent/KR20170093200A/ko
Priority to EP15805132.6A priority patent/EP3232976A1/de
Publication of DE102014226240A1 publication Critical patent/DE102014226240A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Abstract

Die vorliegende Erfindung betrifft ein System (1) und eine Verfahren zur roboterunterstützten medizinischen Behandlung eines Patienten. Das System umfasst einen Manipulator (20), ein medizinisches Visualisierungsgerät (30), welches am Manipulator (20) angebracht ist, um vom Manipulator bewegt zu werden; und ein medizinisches Instrument (40), welches mit zumindest einem Marker (41) versehen ist, um die Lage des medizinischen Instruments (40) erfassen zu können. Der Manipulator soll dabei das Visualisierungsgerät derart bewegen, dass es anhängig von der Lage bzw. Position des medizinischen Instruments orientiert wird.

Description

  • 1. Technischer Bereich
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zur roboterunterstützten medizinischen Behandlung eines Patienten.
  • 2. Technischer Hintergrund
  • Mit medizinischen Visualisierungsgeräten, wie z.B. Ultraschallgeräten, gestützte medizinische Untersuchungen bzw. Behandlungen zählen heute zu den Standardeingriffen in der Medizin. Ein Beispiel für eine derartige medizinische Behandlung ist eine spezielle Biopsie, welche mit Ultraschall überwacht wird, um die Entnahme einer Gewebeprobe aus Lymphknoten des Halses mittels einer Feinnadel zwecks zytologischer Untersuchung bei Verdacht auf ein Geschwulst (z.B. Hodgkin-Lymphom) vorzunehmen. Bei diesem Eingriff hält der durchführende Arzt in einer Hand die Biopsienadel und in der anderen Hand die Ultraschallsonde, um das Erreichen der Zielregion (z.B. vermuteter Tumor) mittels Ultraschallbild zu überwachen und bei der Annäherung an die Zielregion zu schonende Strukturen, wie z.B. Blutgefäße, nicht zu verletzen.
  • Das Problem ist hierbei, dass die darstellbare Schallebene nur wenige Millimeter dick ist. Damit das Instrument in der Ultraschallebene sichtbar ist, muss es genau in dieser Ebene liegen. Die wichtigen Informationen, nämlich wie die Nadelspitze in Lage und Orientierung zur Zielregion steht, ist relativ schwer darzustellen. Dazu muss der Schallkopf in der richtigen Position und Orientierung auf der Körperoberfläche bewegt werden. Intraoperativ ist es, insbesondere für ungeübte Anwender, sehr schwierig Ultraschallkopf und Nadel so zu halten, dass die gesamte Nadel oder jedenfalls exakt die Spitze der Nadel dargestellt wird.
  • Aus dem Stand der Technik sind Verfahren bekannt, bei denen der Ultraschallkopf mittels eines Manipulators, insbesondere eines Roboters, geführt wird. Beispielsweise ist aus der US 7,753,851 ein Robotersystem vorbekannt, bei dem eine Sonde am Handflansch des Roboters angebracht ist, und vom Roboter bewegt werden kann. Im Vergleich zum manuellen Bedienen der Sonde erlaubt die roboterunterstützte Behandlung eine besonders präzise Orientierung der Sonde.
  • In der US 2004/0010190 A1 wird ein Roboter mit einem medizinischen Visualisierungsgerät (z.B. Ultraschallsonde bzw. Ultraschallkopf) beschrieben. Das Ziel dieser Applikation ist die Darstellung einer interessierenden Struktur im Körperinneren. Das System erlaubt es dem Benutzer (Arzt) die Position des Apparates zu verändern, wenn dieser im Weg ist, und die Robotersteuerung stellt dann automatisch die Orientierung des Apparates derart ein, dass die interessierende Struktur weiter dargestellt wird.
  • Aus der US 6,425,865 ist zudem eine roboterunterstützte Ultraschalluntersuchung eines Patienten bekannt, bei der die Ultraschallsonde an einem Roboter angebracht ist und der Roboter über einen Joystick o.ä. vom Operateur manuell gesteuert wird.
  • Ein Nachteil von einigen der obigen Verfahren ist, dass das medizinische Gerät zwar mit Hilfe des Roboters positioniert wird, die richtige Positionierung jedoch immer noch dem Anwender überlassen bleibt. Die roboterunterstützten Verfahren, bei denen der Roboter die Neuorientierung des medizinischen Apparats übernimmt, wenn der Anwender den Apparat z.B. zur Seite geschoben hat, ist wenig flexibel, da der Roboter immer nur einen vorher definierten Punkt anvisieren kann. Grundsätzlich ist es zudem ein Problem von insbesondere Ultraschallanwendungen, dass es selbst mit Hilfe des Roboters für den Anwender nicht immer leicht ist, die Bildebene korrekt auszurichten, um die benötigten Bildinformationen zu erhalten. Der Grund ist hier die dünne Schallebene, die sich selbst bei kleinen Bewegungen des Schallkopfes an der Körperoberfläche stark verändern kann. Die Umsetzung der Bildinformationen in ausgleichende Bewegung ist für einen Menschen relativ schwierig, da ein komplexer Transferschritt bei der Umsetzung der Auge-Hand-Koordination notwendig ist.
  • Es ist daher die Aufgabe der vorliegenden Erfindung ein verbessertes System und Verfahren zur roboterunterstützten medizinischen Behandlung eines Patienten bereitzustellen, mit dem die Nachteile des Standes der Technik vermieden oder vermindert werden können. Es ist insbesondere eine Aufgabe der vorliegenden Erfindung die Ausrichtung eines medizinischen Visualisierungsgeräts, wie etwa einer Ultraschallsonde, zu vereinfachen, um den Operateur zu entlasten.
  • Diese und weitere Aufgaben, welche aus der folgenden detaillierten Beschreibung deutlicher werden, werden durch den Gegenstand der unabhängigen Ansprüche 1 und 9 gelöst.
  • 3. Inhalt der Erfindung
  • Die Erfindung betrifft ein System zur roboterunterstützten medizinischen Behandlung eines Patienten, welches System einen Manipulator, insbesondere einen mehrachsigen Gelenkarmroboter, umfasst, sowie ein medizinisches Visualisierungsgerät, welches am Manipulator angebracht ist, um vom Manipulator bewegt zu werden. Weiter ist ein medizinisches Instrument vorgesehen, welches mit zumindest einem Marker versehen ist, um die Lage des medizinischen Instruments erfassen zu können, sowie eine Steuereinrichtung, die eingerichtet ist, um die Lage des medizinischen Instruments mit Hilfe des Markers zu bestimmen, und um den Manipulator mit dem medizinischen Visualisierungsgerät in Abhängigkeit von der bestimmten Lage des medizinischen Instruments zu bewegen. Das medizinische Instrument, wie z.B. eine Biopsienadel, ein Katheter, eine Strahlenquelle etc., wird vorzugsweise durch den Operateur direkt von Hand geführt, es kann aber auch an einem weiteren Manipulator angebracht sein und mittels dieses weiteren Manipulators geführt werden. Der Marker am medizinischen Instrument wird bspw. von einem geeigneten Sensor erfasst, um die Lage des Markers im Raum, und damit – da der Offset von Marker und Instrument bekannt ist – die Lage des Instruments erfassen zu können. Der Sensor ist dabei der Steuereinrichtung zugeordnet, d.h. z.B. Teil der Steuereinrichtung, so dass die Lage des Instruments von der Steuereinrichtung mit Hilfe der erfassten Lage des Markers bestimmt werden kann. Der Begriff „Marker“ wird hierin in seinem breitesten Sinn verstanden und kann bspw. auch die vorgegebene Kinematik eines Manipulators umfassen, wenn das Instrument nicht von Hand geführt wird, sondern mit Hilfe eines weiteren Manipulators. Wichtig ist lediglich, dass die Steuerung die Lage des Instruments bestimmen kann.
  • Die Steuerung bewegt den Manipulator in Abhängigkeit von der bestimmten Lage des Instruments. Vorzugsweise folgt dabei der Manipulator einer Bewegung des Instruments derart, dass das Visualisierungsgerät immer einen gewünschten Bereich visualisierbar macht bzw. durch das Visualisierungsgerät immer ein gewünschter Bereich visualisierbar ist. Das medizinische Visualisierungsgerät selbst ist hierbei nur als Element bzw. Vorrichtung zu verstehen, welches/welche die Daten zur Visualisierung liefert. Diese Daten werden dann an einen Rechner bzw. Computer gesendet und entsprechend von diesem Computer verarbeitet und an einem Mensch-Maschinen-Interface bzw. einem Monitor angezeigt, sodass ein behandelnder Arzt dies deuten/aufnehmen kann. Hierbei ist die Datenübertragung bevorzugt kabellos oder kabelgebunden.
  • Besonders bevorzugt wird der Manipulator derart bewegt, dass das medizinische Visualisierungsgerät zumindest einen Teil des Instruments erfasst, wie z.B. die Spitze einer Biopsienadel. Bei der Verwendung eines Schallkopfes ist z.B. die optimale Lage des Kopfes in Bezug auf die (Biopsie-)Nadel innerhalb eines Toleranzbereiches fix. Der Toleranzbereich ist gegeben durch die räumliche Ausdehnung von (Biopsie-)Nadel und Schallebene. Aus diesem (relativ) fixen Zusammenhang zwischen (Biopsie-)Nadel und optimaler Schallebene, lässt sich die optimale Position des Ultraschallkopfes ermitteln. Diese Position stellt die Zielposition des Manipulators dar und der Manipulator wird weiter bevorzugt derart gesteuert, dass diese Zielposition angepasst (verändert) wird, wenn die (Biopsie-)Nadel oder das Instrument bewegt wird. Das heißt, die Steuereinrichtung ist bevorzugt so eingerichtet, um den Manipulator mit dem medizinischen Visualisierungsgerät derart zu bewegen, dass das medizinische Visualisierungsgerät einer Bewegung des Instruments folgt (trackt).
  • Vorzugsweise ist dem medizinischen Visualisierungsgerät ein weiterer Marker zugeordnet, um die Lage des medizinischen Visualisierungsgeräts erfassen zu können, und die Steuereinrichtung ist weiter eingerichtet, um die Lage des medizinischen Visualisierungsgeräts mit Hilfe des weiteren Markers zu bestimmen. Die Lage des Visualisierungsgeräts ist an sich bekannt, da die Anordnung des Geräts am Manipulator bekannt ist und damit die Raumkoordinaten des Geräts jederzeit anhand der Manipulatorposition bestimmt werden können. Auch sind Sensoren bekannt, mit denen die Position des Markers im Raum, und damit im Verhältnis zum Sensor, sehr exakt bestimmt werden kann. Ein zusätzlicher Marker hilft jedoch darin, die relative räumliche Anordnung von Visualisierungsgerät und Instrument zueinander zu bestimmen, und zwar insbesondere dann, wenn die Lage des Manipulators und/oder des Sensors, mit dem der Marker erfasst wird, nicht fix zueinander ist. Die Verwendung von zwei Markern, d.h. am Visualisierungsgerät und am Instrument, erlaubt in derartigen Fällen die Bestimmung der relativen Lage der beiden Marker (und damit von Gerät und Instrument) zueinander. Dies ist insbesondere dann der Fall, wenn beide dieselbe Art von Marker aufweisen, die von denselben Sensoren erfasst werden. Das System erfasst bspw. die Marker und liefert den Ursprung der Markerkoordinatensysteme an die Steuereinrichtung. Diese kann dann die notwendigen Transformationsrechnungen durchführen.
  • Besonders bevorzugt sind die Marker optische Marker, und der Steuereinrichtung ist ein Sensor in Form einer Kamera-Vorrichtung zugeordnet, die eingerichtet ist, um die optischen Marker und Ihre Lage im Raum zu erfassen. Beispielsweise können die Marker infrarotlichtreflektierende Kugeln sein, und die Kamera-Vorrichtung eine Stereokamera. Mit Hilfe der Stereokamera lassen sich die Position und Orientierung des Instruments, und gegebenenfalls des Visualisierungsgeräts wenn dieses ebenfalls über einen entsprechenden optischen Marker verfügt, im Raum ermitteln, wodurch die Lage berechnet werden kann.
  • Vorzugsweise ist der Manipulator ein mehrachsiger Gelenkarmroboter, dessen Achsen mit Sensoren zur Erfassung der an den Achsen wirkenden Kräfte und/oder Drehmomente versehen sind. Mit Hilfe der Sensoren lassen sich für den Manipulator Kraft-Grenzen definieren, die er nicht überschreiten darf, wenn er bspw. das Visualisierungsgerät gegen den Körper eines Patienten drückt. In diesem Zusammenhang ist es besonders bevorzugt, dass die Steuereinrichtung so eingerichtet ist, um den Roboter bzw. Gelenkarmroboter derart zu steuern, dass das medizinische Visualisierungsgerät mit einer definierten Kraft gegen den Körper des Patienten gepresst wird. Die definierte Kraft ist dabei vorzugweise ein Bereich, um sicherzustellen, dass das Gerät zwar mit hinreichender Kraft gegen den Körper des Patienten geführt wird, aber bestimmte Maximalkräfte nicht überschritten werden.
  • Generell bevorzugt umfasst bzw. ist das medizinische Visualisierungsgerät eine Ultraschallsonde. Weiter generell bevorzugt umfasst bzw. ist das chirurgische Instrument eine Nadel und insbesondere eine Biopsienadel.
  • Die vorliegende Erfindung betrifft weiter ein Verfahren zur roboterunterstützten medizinischen Behandlung eines Patienten, umfassend die folgenden Schritte:
    • – Bestimmen der Lage eines medizinischen Visualisierungsgeräts, welches an einem Manipulator, insbesondere einem mehrachsigen Gelenkarmroboter, angebracht ist, um vom Manipulator bewegt zu werden;
    • – Bestimmen der Lage eines medizinischen Instruments relativ zu der Lage des medizinischen Visualisierungsgeräts;
    • – Bewegen des Manipulator mit dem medizinischen Visualisierungsgerät in Abhängigkeit von der relativen Lage von medizinischem Instrument und medizinischem Visualisierungsgerät.
  • Die obigen Angaben, technischen Erläuterungen, Beispiele und Vorteile, die im Zusammenhang mit dem System gegeben wurden, gelten alle uneingeschränkt auch für das Verfahren. So umfasst bzw. ist das Visualisierungsgerät bspw. vorzugweise eine Ultraschallsonde und das medizinische Instrument eine (Biopsie-)Nadel, ein Katheter, eine Strahlungsquelle etc.
  • Bevorzugt umfasst das Verfahren weiter das Bewegen des Manipulators in Abhängigkeit von der relativen Lage von medizinischem Instrument und medizinischem Visualisierungsgerät derart, dass das medizinische Visualisierungsgerät zumindest einen Teil des Instruments erfasst und einer Bewegung dieses Teils des Instruments folgt. Das Visualisierungsgerät bzw. der Manipulator „trackt“ also das Instrument. Dabei ist es nicht unbedingt notwendig, dass das Instrument vollständig von der Bildebene des Geräts erfasst wird, sondern in der Praxis genügt es in der Regel wenn die wesentlichen Teile des Instruments, wie etwa die Spitze einer Nadel, vom Visualisierungsgerät erfasst und vorzugsweise getrackt werden.
  • Vorzugsweise weist das Verfahren weiter auf:
    • – Definieren eines Zielpunkts im Raum, und
    • – automatisches Bewegen des Manipulators, wenn sich das medizinische Instrument dem Zielpunkt nähert, so dass das medizinische Visualisierungsgerät ausgerichtet wird, um den Zielpunkt im Raum zu erfassen. Ein Zielpunkt kann bspw. eine bestimmte Stelle im Körper des Patienten sein, wie etwa Lymphknoten oder ein Tumor o.ä., die zu behandeln ist. Dieser Zielpunkt wird erfasst (definiert) und in z.B. der Steuereinrichtung des Manipulators hinterlegt, so dass der Manipulator jederzeit auf Befehl das Visualisierungsgerät so ausrichten kann, dass der Zielpunkt erfasst, d.h. abgebildet oder visualisiert wird. Dies kann bei bestimmten Eingriffen am Patienten vorteilhaft sein, da bspw. bei einer ausreichenden Näherung des Instruments an den gewünschten Zielpunkt ein Fokussieren des Visualisierungsgeräts auf diesen Zielpunkt für den Operateur hilfreicher ist, als eine Fokussierung (Ausrichtung) auf einen Teil des Instruments.
  • Das vorliegende System und das Verfahren bieten den Vorteil, dass der Operateur von der Ausrichtung und Justierung des Visualisierungsgeräts entlastet wird, da dies von der Steuereinrichtung und dem Manipulator übernommen wird. Hierdurch kann sich der Operateur oder Arzt auf seine eigentliche Aufgabe konzentrieren, wie z.B. das Punktieren einer interessierenden Struktur. Die Erfindung bietet die Möglichkeit einer Qualitätssteigerung navigierter, bildgestützter Biopsien durch den Einsatz eines Manipulators, welcher das Visualisierungsgerät hält und dieses so bewegt, dass immer die interessierende Information im Bild zu sehen ist.
  • 4. Ausführungsbeispiel
  • Im Folgenden wird die vorliegende Erfindung anhand der beiliegenden Figur näher beschrieben. Es zeigt:
  • 1 schematisch ein erfindungsgemäßes System zum roboterunterstützten Behandeln eines Patienten; und
  • 2 das System von 1 mit dem Manipulator und dem Visualisierungsgerät in einer anderen Position.
  • In den 1 und 2 ist schematisch und beispielhaft ein erfindungsgemäßes System 1 zum roboterunterstützten Behandeln eines Patienten 50 illustriert. Das System umfasst eine Steuereinrichtung 10, die eine Robotersteuerung 11, einen Computer 12 und eine Stereokamera 14 aufweist. Der Patient 50 liegt auf einem Operationstisch 55 und in der gezeigten Darstellung soll 51 eine Schnittdarstellung durch den Hals des Patienten 50 andeuten. Im Hals 51 befindet sich ein zu untersuchender bzw. zu behandelnder Zielpunkt 52, wie etwa ein Tumor o.ä. Die Behandlung soll mittels eines chirurgischen Instruments 40, insbesondere einer Biopsienadel 40 stattfinden, die im gezeigten Beispiel händisch von einem Operateur geführt wird. Alternativ könnte die Biopsienadel 40 auch von einem weiteren Manipulator geführt werden. Die Biopsienadel 40 soll zum Zielpunkt 52 geführt werden. Um dem Operateur die Führung der Biopsienadel 40 zu erleichtern, bzw. überhaupt zu ermöglichen, kommt ein medizinisches Visualisierungsgerät 30 in Form einer Ultraschallsonde 30 (hierbei bevorzugt in Verbindung mit einem Computer/einer Recheneinheit und einem HMI bzw. Monitor, über welche die erfassten (Bild-)Daten des medzinischen Visualisierungsgeräts 30 tatsächlich ausgegeben werden) zum Einsatz.
  • Die Robotersteuerung 11 dient zur Steuerung eines mehrachsigen Gelenkarmroboters 20 (bzw. Manipulators 20). Die Steuerung 11 und der Gelenkarmroboter 20 sind über Datenleitungen 21 in Kommunikation miteinander. Weitere Datenleitungen 21 dienen der Kommunikation mit den weiteren Bestandteilen der Steuereinrichtung 10. Der Gelenkarmroboter 20 trägt und bewegt die Ultraschallsonde 30. Die Ultraschallsonde 30 wird vom Gelenkarmroboter 20 an den Körper des Patienten 50 gepresst, um Ultraschallbilder des Inneren des Körpers des Patienten zu machen. Die Ultraschallbilder werden über die Datenleitungen 21 übertragen, im Computer 12 verarbeitet und dann am Monitor 13 angezeigt. Mit dem Bezugsweichen 32 soll die Bildebene (Schallebene) der Ultraschallsonde 30 angezeigt werden. Die Bild- oder Schallebene der Sonde ist üblicherweise nur wenige Millimeter dick, so dass die Sonde sehr genau ausgerichtet werden muss, um aussagekräftige Bilder zu liefern.
  • Das Ausrichten der Sonde und das Anpressen der Sonde erfolgt durch den Manipulator bzw. Gelenkarmroboter 20, so dass ein Operateur von diesen Aufgaben entlastet ist. Zu diesem Zweck ist es vorteilhaft, wenn der Roboter bzw. Gelenkarmroboter 20 mit Kraftsensoren versehen ist und in Kraftregelung arbeitet, so dass er die Ultraschallsonde 30 mit einer definierten Kraft auf die Hautoberfläche des Patienten 50 presst. Die Robotersteuerung 11 berechnet hierfür die Bahn zur Zielposition und -orientierung mit den Randbedingungen „Hautkontakt mit definierter Kraft beibehalten“, „keine Kollision mit Ultraschallnadel“, „keine Kollision mit Marker“ etc.
  • Im Ausführungsbeispiel ist die Biopsienadel 40 mit einem optischen Marker 41 versehen. Die Stereokamera 14 der Steuereinrichtung 10 erfasst den Marker 41 und liefert den Ursprung des Markerkoordinatensystems an die Robotersteuerung 11 bzw. an den Computer 12, um die Lage der Biopsienadel 40 zu bestimmen. Die Robotersteuerung 11 berechnet dann die optimale Lage der Ultraschallsonde 30 (Zielposition und -orientierung) in Abhängigkeit von der Lage der Biopsienadel 40. Da die Lage der Ultraschallsonde 30 aufgrund der aktuellen (Gelenkarm-)Roboterposition bzw. Manipulatorposition feststeht bzw. daraus berechnet werden kann, und der Verlauf und die Orientierung der Schallebene 32 ebenfalls bekannt ist, ist es somit möglich, die Sonde 30 automatisch auszurichten. In 1 ist die Sonde 30 auf die Spitze der Biopsienadel 40 gerichtet und die Nadelspitze (bzw. Biopsienadelspitze) wird durch die Schallebene 32 erfasst. Der Operateur kann auf dem Monitor 13 die Bewegung der Nadelspitze durch den Körper des Patienten 50 verfolgen und die Biopsienadel 40 entsprechend zielgerichtet zum Zielpunkt 52 führen.
  • In 2 punktiert die Biopsienadel 40 den Zielpunkt 52, um bspw. an dieser Stelle eine Gewebeprobe zu entnehmen. Der Manipulator 20 hat die Sonde 30 entsprechend umbewegt, so dass die Schallebene 32 weiterhin auf die Nadelspitze gerichtet ist und diese somit erfasst, so dass die Position der Biopsienadel 40 am Bildschirm 13 dargestellt werden kann. Diese Umbewegung wird von der Robotersteuerung 11 anhand der geänderten Lage der Biopsienadel 40 automatisch vorgenommen. Die Stereokamera 14 erfasst den Marker 41 und damit die geänderte Lage der Biopsienadel 40, so dass die Steuereinrichtung 10 die entsprechenden Bewegungen des Gelenkarmroboters 20 veranlasst.
  • Im gezeigten Beispiel ist auch die Ultraschallsonde 30 mit einem weiteren Marker 31 versehen, der vorteilhaft auf demselben Prinzip funktioniert wie der Marker 41. Der weitere Marker 31 kann die Bestimmung der relativen räumlichen Lage von Biopsienadel 40 und Sonde 30 zueinander erleichtern.
  • Vorzugsweise ist die Updaterate des Systems analog zur Updaterate des Trackingsystems (wie z.B. 30–90 Hz oder bevorzugt 40 bis 80 Hz), so dass der Gelenkarmroboter bzw. Manipulatordie Darstellung der Biopsienadel 40 in der Ultraschallebene während des gesamten Eingriffs aufrecht erhalten kann. Der Gelenkarmroboter folgt somit auch kleinsten Bewegungen der Biopsienadel 40 , d.h. die Biopsienadel 40 wird vom Gelenkarmroboter und damit der Ultraschallsonde getrackt. Die hohe Updaterate hat den Vorteil das nur kleine Bewegungen des Gelenkarmroboters zu erwarten sind, da starke Bewegungen aus Sicherheitsaspekten unterbunden werden müssen.
  • Bezugszeichenliste
  • 1
    System
    10
    Steuereinrichtung
    11
    Robotersteuerung
    12
    Computer
    13
    Bildschirm
    14
    Stereokamera
    20
    Roboter
    21
    Datenleitung
    30
    Ultraschallsonde
    31
    Marker
    32
    Schallebene
    40
    Biopsienadel
    41
    Marker
    50
    Patient
    51
    Querschnitt durch Hals
    52
    Zielpunkt
    55
    Operationstisch
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7753851 [0004]
    • US 2004/0010190 A1 [0005]
    • US 6425865 [0006]

Claims (12)

  1. Ein System (1) zur roboterunterstützten medizinischen Behandlung eines Patienten; umfassend: – einen Manipulator (20), insbesondere einen mehrachsigen Gelenkarmroboter, – ein medizinisches Visualisierungsgerät (30), welches am Manipulator (20) angebracht ist, um vom Manipulator bewegt zu werden; – ein medizinisches Instrument (40), welches mit zumindest einem Marker (41) versehen ist, um die Lage des medizinischen Instruments (40) erfassen zu können; – eine Steuereinrichtung (10), die eingerichtet ist, um die Lage des medizinischen Instruments (40) mit Hilfe des Markers (41) zu bestimmen, und um den Manipulator (20) mit dem medizinischen Visualisierungsgerät (30) in Abhängigkeit von der bestimmten Lage des medizinischen Instruments zu bewegen.
  2. Das System nach Anspruch 1, wobei die Steuereinrichtung (10) eingerichtet ist, um den Manipulator (20) mit dem medizinischen Visualisierungsgerät (30) in Abhängigkeit der Lage des medizinischen Instruments (40) derart zu bewegen, dass das medizinische Visualisierungsgerät (30) zumindest einen Teil des Instruments (40) erfasst.
  3. Das System nach Anspruch 2, wobei die Steuereinrichtung (10) eingerichtet ist, um den Manipulator (20) mit dem medizinischen Visualisierungsgeräts (30) derart zu bewegen, dass das medizinische Visualisierungsgerät (30) einer Bewegung des Instruments (40) folgt (trackt).
  4. Das System nach einem der vorhergehenden Ansprüche, wobei dem medizinischen Visualisierungsgerät (30) ein weiterer Marker (31) zugeordnet ist, um die Lage des medizinischen Visualisierungsgeräts (30) erfassen zu können, und die Steuereinrichtung (10) weiter eingerichtet ist, um die Lage des medizinischen Visualisierungsgeräts (30) mit Hilfe des weiteren Markers (31) zu bestimmen.
  5. Das System nach einem der vorhergehenden Ansprüche, wobei der Manipulator (20) ein mehrachsiger Gelenkarmroboter (20) ist, und wobei die Achsen des Gelenkarmroboters (20) mit Sensoren zur Erfassung der an den Achsen wirkenden Kräfte und/oder Drehmomente versehen sind.
  6. Das System nach Anspruch 5, wobei die Steuereinrichtung (10) eingerichtet ist, um den Gelenkarmroboter (20) derart zu steuern, dass das medizinische Visualisierungsgerät (30) mit einer definierten Kraft gegen den Körper des Patienten gepresst wird.
  7. Das System nach einem der vorhergehenden Ansprüche, wobei die Marker (31, 41) optische Marker sind, und der Steuereinrichtung (10) weiter eine Kamera-Vorrichtung (14) zugeordnet ist, die eingerichtet ist, um die optischen Marker und Ihre Lage im Raum zu erfassen.
  8. Das System nach einem der vorhergehenden Ansprüche, wobei das medizinische Visualisierungsgerät (30) eine Ultraschallsonde (30) ist.
  9. Das System nach einem der vorhergehenden Ansprüche, wobei das chirurgische Instrument (40) eine Biopsienadel (40) ist.
  10. Verfahren zur roboterunterstützten medizinischen Behandlung eines Patienten, umfassend die folgenden Schritte: – Bestimmen der Lage eines medizinischen Visualisierungsgeräts (30), welches an einem Manipulator (20), insbesondere einem mehrachsigen Gelenkarmroboter, angebracht ist, um vom Manipulator (20) bewegt zu werden; – Bestimmen der Lage eines medizinischen Instruments (40) relativ zu der Lage des medizinischen Visualisierungsgeräts (30); – Bewegen des Manipulators (20) mit dem medizinischen Visualisierungsgerät (30) in Abhängigkeit von der relativen Lage von medizinischem Instrument und medizinischem Visualisierungsgerät.
  11. Das Verfahren nach Anspruch 10, wobei das Bewegen des Manipulators (20) in Abhängigkeit von der relativen Lage von medizinischem Instrument (40) und medizinischem Visualisierungsgerät (30) derart erfolgt, dass das medizinische Visualisierungsgerät (30) zumindest einen Teil des Instruments (40) erfasst und einer Bewegung dieses Teils des Instruments folgt.
  12. Das Verfahren nach Anspruch 10 oder 11, weiter aufweisend: Definieren eines Zielpunkts im Raum, und automatisches Bewegen des Manipulators (20), wenn sich das medizinische Instrument (40) dem Zielpunkt nähert, so dass das medizinische Visualisierungsgerät (30) ausgerichtet wird, um den Zielpunkt im Raum zu erfassen.
DE102014226240.2A 2014-12-17 2014-12-17 System zur roboterunterstützten medizinischen Behandlung Ceased DE102014226240A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102014226240.2A DE102014226240A1 (de) 2014-12-17 2014-12-17 System zur roboterunterstützten medizinischen Behandlung
CN201580069080.9A CN106999250A (zh) 2014-12-17 2015-11-26 用于机器人辅助的医疗处理的系统
PCT/EP2015/077779 WO2016096366A1 (de) 2014-12-17 2015-11-26 System zur roboterunterstützten medizinischen behandlung
US15/534,758 US20170319289A1 (en) 2014-12-17 2015-11-26 System for robot-assisted medical treatment
KR1020177018509A KR20170093200A (ko) 2014-12-17 2015-11-26 로봇 보조 의료적 치료를 위한 시스템
EP15805132.6A EP3232976A1 (de) 2014-12-17 2015-11-26 System zur roboterunterstützten medizinischen behandlung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014226240.2A DE102014226240A1 (de) 2014-12-17 2014-12-17 System zur roboterunterstützten medizinischen Behandlung

Publications (1)

Publication Number Publication Date
DE102014226240A1 true DE102014226240A1 (de) 2016-06-23

Family

ID=54783575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014226240.2A Ceased DE102014226240A1 (de) 2014-12-17 2014-12-17 System zur roboterunterstützten medizinischen Behandlung

Country Status (6)

Country Link
US (1) US20170319289A1 (de)
EP (1) EP3232976A1 (de)
KR (1) KR20170093200A (de)
CN (1) CN106999250A (de)
DE (1) DE102014226240A1 (de)
WO (1) WO2016096366A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3733112A1 (de) * 2019-05-03 2020-11-04 Globus Medical, Inc. System für robotische trajektorieführung für navigierte biopsienadel
DE102020109593B3 (de) 2020-04-06 2021-09-23 Universität Zu Lübeck Ultraschall-Erweiterte Realität-Peripher Endovaskulär Intervention-Navigationsverfahren sowie zugehörige Ultraschall-Erweiterte Realität-Peripher Endovaskulär Intervention-Navigationsanordnung
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11944325B2 (en) 2019-03-22 2024-04-02 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
WO2009111736A1 (en) 2008-03-06 2009-09-11 Aquabeam Llc Tissue ablation and cautery with optical energy carried in fluid stream
US20120191083A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
CN104203078B (zh) 2012-02-29 2018-04-20 普罗赛普特生物机器人公司 自动化图像引导的组织切除和处理
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
EP3407794A4 (de) * 2016-04-14 2019-11-06 Focal Therapeutics, Inc. Gewebelokalisierungsvorrichtung und verfahren zur verwendung davon
KR102545869B1 (ko) 2017-03-28 2023-06-23 아우리스 헬스, 인코포레이티드 샤프트 작동 핸들
EP3606400B1 (de) * 2017-04-07 2022-03-09 Auris Health, Inc. Ausrichtung einer patienteneinführvorrichtung
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
CN107736897A (zh) * 2017-09-04 2018-02-27 北京航空航天大学 一种基于六自由度并联平台的超声配准及长骨复位装置及方法
KR102085588B1 (ko) * 2018-02-09 2020-03-06 고려대학교 산학협력단 시술도구 위치 추적 시스템
CN110384555B (zh) * 2018-04-19 2021-03-12 中国科学院深圳先进技术研究院 基于远端中心运动机构的持镜手术机器人
WO2019236450A1 (en) 2018-06-07 2019-12-12 Auris Health, Inc. Robotic medical systems with high force instruments
CN108814691B (zh) * 2018-06-27 2020-06-02 无锡祥生医疗科技股份有限公司 针的超声引导辅助装置及系统
WO2020005854A1 (en) 2018-06-28 2020-01-02 Auris Health, Inc. Medical systems incorporating pulley sharing
EP3806772A4 (de) 2018-08-15 2022-03-30 Auris Health, Inc. Medizinische instrumente zur gewebekauterisierung
EP3806758A4 (de) 2018-08-17 2022-04-06 Auris Health, Inc. Bipolares medizinisches instrument
CN112770689A (zh) 2018-09-26 2021-05-07 奥瑞斯健康公司 用于抽吸和冲洗的系统和器械
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11364084B2 (en) * 2018-11-21 2022-06-21 Biosense Webster (Israel) Ltd. Contact force compensation in a robot manipulator
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
CN110946653B (zh) * 2018-12-29 2021-05-25 华科精准(北京)医疗科技有限公司 一种手术导航系统
WO2020154100A1 (en) 2019-01-25 2020-07-30 Auris Health, Inc. Vessel sealer with heating and cooling capabilities
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
WO2020263949A1 (en) 2019-06-28 2020-12-30 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
EP4034349A1 (de) 2019-09-26 2022-08-03 Auris Health, Inc. Systeme und verfahren zur kollisionserkennung und -vermeidung
WO2021064536A1 (en) 2019-09-30 2021-04-08 Auris Health, Inc. Medical instrument with capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
US11950872B2 (en) 2019-12-31 2024-04-09 Auris Health, Inc. Dynamic pulley system
US11439419B2 (en) 2019-12-31 2022-09-13 Auris Health, Inc. Advanced basket drive mode
CN111167020A (zh) * 2019-12-31 2020-05-19 冯丽娟 一种肿瘤内照射插植方法及其光学引导装置
DE102020204985A1 (de) * 2020-04-21 2021-10-21 Siemens Healthcare Gmbh Steuerung eines robotisch bewegten medizinischen Objekts
US11839969B2 (en) 2020-06-29 2023-12-12 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
WO2022003493A1 (en) 2020-06-30 2022-01-06 Auris Health, Inc. Robotic medical system with collision proximity indicators
US20220192767A1 (en) * 2020-12-21 2022-06-23 Ethicon Llc Dynamic trocar positioning for robotic surgical system
CN114652449A (zh) * 2021-01-06 2022-06-24 深圳市精锋医疗科技股份有限公司 手术机器人及其引导手术臂移动的方法、控制装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
US20040010190A1 (en) 2000-02-25 2004-01-15 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
DE102007045075A1 (de) * 2007-09-21 2009-04-09 Siemens Ag Interventionelles medizinisches Diagnose- und/oder Therapiesystem
DE102007046700A1 (de) * 2007-09-28 2009-04-16 Siemens Ag Ultraschallvorrichtung
US7753851B2 (en) 2004-10-18 2010-07-13 Mobile Robotics Sweden Ab Robot for ultrasonic examination
EP2289454A2 (de) * 2005-06-06 2011-03-02 Intuitive Surgical Operations, Inc. Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke
DE102011005917A1 (de) * 2011-03-22 2012-09-27 Kuka Laboratories Gmbh Medizinischer Arbeitsplatz
US20140039314A1 (en) * 2010-11-11 2014-02-06 The Johns Hopkins University Remote Center of Motion Robot for Medical Image Scanning and Image-Guided Targeting

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US8944070B2 (en) * 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US8398541B2 (en) * 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
CN100464720C (zh) * 2005-12-22 2009-03-04 天津市华志计算机应用技术有限公司 基于光学跟踪闭环控制的脑外科机器人系统及实现方法
US8340379B2 (en) * 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
WO2010036746A1 (en) * 2008-09-24 2010-04-01 St. Jude Medical System and method of automatic detection of obstructions for a robotic catheter system
US9386983B2 (en) * 2008-09-23 2016-07-12 Ethicon Endo-Surgery, Llc Robotically-controlled motorized surgical instrument
US8935003B2 (en) * 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
EP2521507B1 (de) * 2010-01-08 2015-01-14 Koninklijke Philips N.V. Unkalibriertes visual servoing mit echtzeit-geschwindigkeitsoptimierung
JP2012176232A (ja) * 2011-02-04 2012-09-13 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
WO2013013142A1 (en) * 2011-07-21 2013-01-24 The Research Foundation Of State University Of New York System and method for ct-guided needle biopsy
WO2013055611A1 (en) * 2011-10-10 2013-04-18 Tractus Corporation Method, apparatus and system for complete examination of tissue with hand-held imaging devices
WO2013192598A1 (en) * 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
DE102012220116A1 (de) * 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
WO2015191605A1 (en) * 2014-06-09 2015-12-17 The Johns Hopkins University Virtual rigid body optical tracking system and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
US20040010190A1 (en) 2000-02-25 2004-01-15 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
US7753851B2 (en) 2004-10-18 2010-07-13 Mobile Robotics Sweden Ab Robot for ultrasonic examination
EP2289454A2 (de) * 2005-06-06 2011-03-02 Intuitive Surgical Operations, Inc. Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke
DE102007045075A1 (de) * 2007-09-21 2009-04-09 Siemens Ag Interventionelles medizinisches Diagnose- und/oder Therapiesystem
DE102007046700A1 (de) * 2007-09-28 2009-04-16 Siemens Ag Ultraschallvorrichtung
US20140039314A1 (en) * 2010-11-11 2014-02-06 The Johns Hopkins University Remote Center of Motion Robot for Medical Image Scanning and Image-Guided Targeting
DE102011005917A1 (de) * 2011-03-22 2012-09-27 Kuka Laboratories Gmbh Medizinischer Arbeitsplatz

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11744598B2 (en) 2019-03-22 2023-09-05 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11317978B2 (en) 2019-03-22 2022-05-03 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11419616B2 (en) 2019-03-22 2022-08-23 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11571265B2 (en) 2019-03-22 2023-02-07 Globus Medical Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11737696B2 (en) 2019-03-22 2023-08-29 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11806084B2 (en) 2019-03-22 2023-11-07 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11850012B2 (en) 2019-03-22 2023-12-26 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
US11944325B2 (en) 2019-03-22 2024-04-02 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices
JP2020182842A (ja) * 2019-05-03 2020-11-12 グローバス メディカル インコーポレイティッド 誘導された生検針の軌道をロボットによりガイダンスするためのシステムと、関連する方法および装置
EP3733112A1 (de) * 2019-05-03 2020-11-04 Globus Medical, Inc. System für robotische trajektorieführung für navigierte biopsienadel
DE102020109593B3 (de) 2020-04-06 2021-09-23 Universität Zu Lübeck Ultraschall-Erweiterte Realität-Peripher Endovaskulär Intervention-Navigationsverfahren sowie zugehörige Ultraschall-Erweiterte Realität-Peripher Endovaskulär Intervention-Navigationsanordnung
WO2021204325A1 (de) 2020-04-06 2021-10-14 Universität Zu Lübeck Ultraschall-erweiterte realität-peripher endovaskulär interventionnavigationsverfahren sowie zugehörige ultraschall-erweiterte realität-peripher endovaskulär intervention-navigationsanordnung

Also Published As

Publication number Publication date
US20170319289A1 (en) 2017-11-09
EP3232976A1 (de) 2017-10-25
KR20170093200A (ko) 2017-08-14
WO2016096366A1 (de) 2016-06-23
CN106999250A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
DE102014226240A1 (de) System zur roboterunterstützten medizinischen Behandlung
EP2449997B1 (de) Medizinischer Arbeitsplatz
DE102007045075B4 (de) Interventionelles medizinisches Diagnose- und/oder Therapiesystem
EP2502558B1 (de) Medizinischer Arbeitsplatz
EP3271118B1 (de) Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
EP2575662B1 (de) Verfahren zum bewegen eines instrumentenarms eines laparoskopieroboters in eine vorgebbare relativlage zu einem trokar
DE102009010263B4 (de) Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
DE112017001645T5 (de) Steuervorrichtung und Steuerverfahren
EP3363358B1 (de) Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs
DE10108547A1 (de) Vorrichtung und Verfahren zur Steuerung von chirurgischen Instrumenten bei einem operativen Eingriff
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
DE112016006299T5 (de) Medizinische Sicherheitssteuerungsvorrichtung, medizinisches Sicherheitssteuerungsverfahren und medizinisches Unterstützungssystem
DE102010062340A1 (de) Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
DE102019134352B4 (de) Chirurgieroboter für endoskopische Anwendungen
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE102020204985A1 (de) Steuerung eines robotisch bewegten medizinischen Objekts
DE102014200326A1 (de) Verfahren zum Unterstützen einer Navigation eines medizinischen Instruments
DE102014210056A1 (de) Verfahren zur Ansteuerung eines chirurgischen Geräts sowie chirurgisches Gerät
DE102010042372A1 (de) Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102015207119A1 (de) Interventionelle Positionierungskinematik
DE102006045100B4 (de) Navigationseinrichtung für ein medizinisches Instrument
DE102005029002A1 (de) Verfahren und Vorrichtung zur berührenden Messung einer Kraft
EP3453343A1 (de) Medizinisch-therapeutisches system
DE202016106554U1 (de) Steuerbar beweglicher Arm mit einem Ultraschallkopf zur Remote-Ultraschall-Untersuchung von Patienten
DE102021130238A1 (de) Medizinischer Roboter mit intuitiver Steuerung und Steuerungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034300000

R081 Change of applicant/patentee

Owner name: KUKA DEUTSCHLAND GMBH, DE

Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE

R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final