DE102014203097A1 - Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung - Google Patents

Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung Download PDF

Info

Publication number
DE102014203097A1
DE102014203097A1 DE102014203097.8A DE102014203097A DE102014203097A1 DE 102014203097 A1 DE102014203097 A1 DE 102014203097A1 DE 102014203097 A DE102014203097 A DE 102014203097A DE 102014203097 A1 DE102014203097 A1 DE 102014203097A1
Authority
DE
Germany
Prior art keywords
endoscopic device
sensor
endoscopic
navigation
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014203097.8A
Other languages
English (en)
Inventor
Lutz Blohm
Philip Mewes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102014203097.8A priority Critical patent/DE102014203097A1/de
Priority to US14/627,937 priority patent/US10674891B2/en
Publication of DE102014203097A1 publication Critical patent/DE102014203097A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4244Evaluating particular parts, e.g. particular organs liver

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung (10) durch eine Steuereinrichtung (12) mithilfe mindestens eines digitalen Bilddatensatzes (14) einer bildgebenden Untersuchungsmodalität (16). Dabei beschreibt der mindestens eine digitale Bilddatensatz (14) jeweils ein Bild eines mithilfe der endoskopischen Vorrichtung (10) zu untersuchenden Objekts (26) in einem Hohlraumkörper (20). Das Verfahren umfasst die Schritte: Ermitteln eines digitalen zwei- oder mehrdimensionalen Modells (30) des zu untersuchenden Objekts (26) anhand des mindestens einen Bilddatensatzes (14, S2), Empfangen einer Bedienhandlung (S3), die anhand des Modells (30) eine relative Lage eines Sensors (18) der endoskopischen Vorrichtung (10) zu dem Objekt (26) vorgibt, Registrieren des Modells (30) mit der endoskopischen Vorrichtung (10) und/oder einem von der endoskopischen Vorrichtung (10) bereitgestellten digitalen endoskopischen Datensatz (36, S4), Vergleichen einer Ausgangslage des Sensors (18) mit der vorgegebenen Lage, und Erzeugen eines Navigationssignals zum Navigieren der endoskopischen Vorrichtung (10) unter Berücksichtigung der vorgegebenen relativen Lage (S5).

Description

  • Die Erfindung betrifft ein Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung mit Hilfe mindestens eines digitalen Bilddatensatzes einer bildgebenden Untersuchungsmodalität, zum Beispiel eines dreidimensionalen Datensatzes eines Computertomographen.
  • Die vorliegende Erfindung liegt auf dem Gebiet der Endoskopie, beschäftigt sich also mit einer Untersuchung eines Hohlraumkörpers mit Hilfe einer endoskopischen Vorrichtung. Dabei kann ein Hohlraumkörper einer technischen Vorrichtung oder ein Hohlraumorgan eines Patienten als Hohlraumkörper untersucht werden. Im Bereich der minimal-invasiven Chirurgie kann ein optisches Instrument, zum Beispiel ein starres Endoskop, in unterschiedliche Körperkavitäten eingeführt werden. Um den chirurgischen Eingriff so minimal wie möglich zu halten, werden diese Instrumente durch eine Körperöffnung oder einen Einschnitt in den Körper eingeführt, in sogenannte Eintrittsöffnungen oder sogenannte „Ports“, zum Beispiel einen Port in der Bauchdecke eines Patienten oder ein Loch in einer Außenwandung eines Hohlraumkörpers einer technischen Vorrichtung. Das Einführen einer endoskopischen Vorrichtung durch einen Port ist vorteilhaft, da es beispielsweise ein Trauma eines Patienten so gering wie möglich hält. Das Einführen einer endoskopischen Vorrichtung durch einen Port kann jedoch auch zu gewissen Beeinträchtigungen führen. Eine beispielhafte Beeinträchtigung durch einen solchen Port, der zum Beispiel in einer Baudecke liegt, ist die Einschränkung der Freiheitsgrade, in denen die endoskopische Vorrichtung bewegt werden kann. Folglich können zu untersuchende Hohlräume nur eingeschränkt betrachtet werden können oder ein vorteilhafter Betrachtungswinkel auf das zu untersuchende Objekt kann nicht eingestellt werden. Eine solche Beeinträchtigung wird im Folgenden als beeinträchtigende Bedingung bezeichnet. Bei beispielsweise einem minimal-invasiven chirurgischen Eingriff im Abdomen, wobei der Port, also die Eintrittsöffnung, ein Loch in der Bauchdecke ist, kann sich der Nachteil ergeben, dass zum Beispiel die Leber nicht von allen Positionen und Winkeln innerhalb der Körperkavität visualisiert werden kann, da an der Eintrittsöffnung keine Übersetzung der Bewegungen der endoskopischen Vorrichtung erfolgen kann.
  • Dieses Problem wurde bisher teilweise dadurch gelöst, dass Endoskope eingesetzt werden, die eine abgeschrägte Optik aufweisen, zum Beispiel in einem Winkel von 30 Grad und 70 Grad. Verschiedene Blickwinkel können erreicht werden, indem das Endoskop um seine Achse rotiert wird.
  • Im Stand der Technik wird der genannte Nachteil durch ein starres Endoskop mit einer flexiblen Spitze gelöst, das zusätzliche Blickwinkel und Betrachtungspositionen mit Hilfe des die Optik umfassenden flexiblen Anteils erreicht. Die Optik ist dabei in der Spitze des Endoskops verbaut. Dieser Ansatz erfordert jedoch umfangreiche bauliche Änderungen der Hardware und schränkt die Auflösung des optischen Geräts, also der endoskopischen Vorrichtung, wesentlich ein, da beispielsweise ein Computerchip auf der Spitze montiert werden muss, der eine entsprechend geringere Größe aufweist. Weiterhin bleibt es bei Beeinträchtigungen durch die Eintrittsöffnung, so dass nicht alle Blickpositionen und/oder Blickwinkel des dreidimensionalen volumetrischen Datensatzes mit dem Endoskop erreicht werden können.
  • Eine der Erfindung zugrundeliegende Aufgabe ist das Verbessern der Bildqualität und Aussagekraft eines endoskopischen Bildes.
  • Die Aufgabe wird von dem erfindungsgemäßen Verfahren, der erfindungsgemäßen Steuereinrichtung und der erfindungsgemäßen endoskopischen Vorrichtung gemäß den nebengeordneten Patentansprüchen gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.
  • Die Erfindung basiert auf der Idee, ein Steuern einer endoskopischen Vorrichtung zu navigieren, wobei der endoskopische Blick einem Blick auf ein zum Beispiel dreidimensionales volumetrisches Bild der bildgebenden Untersuchungsmodalität teilweise oder ganz entspricht. Mit anderen Worten erfolgt die Navigation in einer Art und Weise, sodass bei einem Ausrichten eines Sensors der endoskopischen Vorrichtung anhand eines zum Beispiel dreidimensionalen Modells erfolgt. Dazu wird das beispielhafte dreidimensionale Volumen, also der beispielhafte dreidimensionale Bilddatensatz, dem endoskopischen Bild überlagert. Der gleichzeitige Blick auf das zum Beispiel dreidimensionale volumetrische Bild begünstigt vorteilhafterweise eine Visualisierung anatomischer und pathologischer Strukturen, um einem Benutzer bei der Navigation der endoskopischen Vorrichtung zu unterstützen. Hierdurch wird auch eine Lage des Sensors ermöglicht, die eine vorbestimmte Stelle des zu untersuchenden Objekts vorteilhaft erfasst, sodass der Sensor unabhängig von speziellen technischen Ausgestaltungen Bilder mit einer hohen Qualität erzeugen kann.
  • Das erfindungsgemäße Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung, zum Beispiel einem Endoskop für eine medizinische Anwendung oder einem Endoskop für eine technische Untersuchung, erfolgt durch eine Steuereinrichtung, zum Beispiel ein Steuergerät, das in die endoskopische Vorrichtung oder ein davon unabhängiges Gerät integriert sein kann. Als endoskopische Vorrichtung wird dabei ein Gerät bezeichnet, mit dem ein Hohlraumkörper eines lebenden Organismus, aber auch einer technischen Vorrichtung, untersucht oder gar verändert werden kann.
  • Das Verfahren wird mit Hilfe mindestens eines digitalen Bilddatensatzes einer bildgebenden Untersuchungsmodalität durchgeführt, insbesondere eines zwei- oder dreidimensionalen Bilddatensatzes eines beispielhaften Röntgengeräts oder CT-Geräts als bildgebende Untersuchungsmodalität. Der mindestens eine digitale Bilddatensatz beschreibt jeweils ein Bild eines mit Hilfe der endoskopischen Vorrichtung zu untersuchenden Objekts in dem Hohlraumkörper, zum Beispiel in einem Hohlraumorgan eines Patienten. Das erfindungsgemäße Verfahren umfasst die Schritte:
    • – Ermitteln eines digitalen zwei- oder mehrdimensionalen Modells des zu untersuchenden Objekts anhand des mindestens einen Bilddatensatzes,
    • – Empfangen einer Bedienhandlung, zum Beispiel einer Körpergeste eines Benutzers, die anhand des Modells eine relative Lage eines Sensors der endoskopischen Vorrichtung zu dem Objekt vorgibt,
    • – Registrieren des Modells mit der endoskopischen Vorrichtung und/oder einem von der endoskopischen Vorrichtung bereitgestellten digitalen endoskopischen Datensatz, zum Beispiel mit einem Videobild eines Sensors der endoskopischen Vorrichtung, zum Beispiel durch Überlagern und/oder Ausrichten der digitalen Datensätze,
    • – Vergleichen einer Ausgangslage des Sensors mit der vorgegebenen Lage, und
    • – Erzeugen eines Navigationssignals zum Navigieren der endoskopischen Vorrichtung unter Berücksichtigung der vorgegebenen relativen Lage.
  • Bei dem Modell handelt es sich um ein patientenindividuelles Modell, bei dem die patentenindividuellen anatomischen Strukturen erkennbar sind. Das Modell kann beispielsweise ein zweidimensionales Modell sein, oder ein mehrdimensionales (also höher dimensionales) Bild, wie zum Beispiel ein dreidimensionales oder ein vierdimensionales Bild. Das Modell kann beispielsweise ein zweisimensionales Röntgenbild und/oder ein Ultraschall-Schnittbild umfassen. Dadurch wird eine Bewegungsrichtung des Endoskops, zum Beispiel entlang eines Navigationspfads, weiterhin optimiert, da die patientenindividuelle Anatomie berücksichtigt wird. Durch das Vorgeben der relativen Lage des Sensors kann ein gewünschter Blickwinkel und/oder eine gewünschte Blickrichtung auf eine bestimmte Stelle des zu untersuchenden Objekts eingestellt werden. Eine relative Lage des Sensors ist dabei definiert als Stelle oder Position des Sensors, wo dieser in Bezug auf seine Umgebung liegt und/oder eine Ausrichtung des Sensors, also zum Beispiel ein Stellwinkel oder eine Verkippung des Sensors.
  • Dadurch kann der Sensor der endoskopischen Vorrichtung der vorbestimmten Stelle eines zu untersuchenden Objekts angenähert werden und in eine günstige Position gebracht werden, um die Aussagekraft und die Bildqualität eines endoskopischen Bildes zu verbessern. Durch das Registrieren des Modells mit dem digitalen endoskopischen Datensatz wird eine computergestützte Realitätswahrnehmung („Augmented Reality“) erzeugt, die einem Benutzer eine Orientierungshilfe bietet. Während einer endoskopischen Untersuchung wird so eine optimale Ausrichtung und/oder ein optimaler Blick auf die Objektstelle eingestellt. Das Navigationssignal ermöglicht ein Lenken und/oder ein Steuern des Endoskops. Das Verfahren ist unabhängig von einer Position eines Computerchips, wodurch ein größerer Chip verbaut und eine höhere Auflösung des endoskopischen Bildes erreicht werden kann.
  • Besonders eignet sich das erfindungsgemäße Verfahren zum Unterstützen der Navigation der endoskopischen Vorrichtung innerhalb eines Hohlraumkörpers eines Patienten. Durch diese Ausführungsform werden unnötige Bewegungen der endoskopischen Vorrichtung vollständig oder teilweise vermieden, und es werden dadurch unnötige Traumata eines Gewebes eines Patienten oder unnötige Beschädigungen eines Materials des Hohlraumkörpers nahezu vollständig verhindert. Um bei der Navigation und dem Führen des Endoskops zum Beispiel keine Hauptgefäße zu verletzen oder um ein Gewebe, zum Beispiel einen Tumor, präzise zu resektieren, wird die computergestützte Realitätswahrnehmung vorzugsweise in der minimal-invasiven Chirurgie eingesetzt.
  • Gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens kann ein Ermitteln eines Navigationspfades von einer Ausgangslage des Sensors zu der vorgegebenen relativen Lage erfolgen. Dies ermöglicht ein bestmögliches Erreichen der vorgegebenen Lage. Zusätzlich oder alternativ erfolgen in besonders vorteilhafter Weise ein Abändern der vorgegebenen Lage zu einer alternativen Lage des Sensors. In Abhängigkeit von einer technischen Ausgestaltung des Sensors und/oder von einer beschränkenden Bedingung, die eine Bewegbarkeit der endoskopischen Vorrichtung beeinträchtigt, kann zusätzlich oder alternativ ein Abändern des ermittelten Navigationspfades erfolgen. Mit anderen Worten umfasst eine technische Ausgestaltung eine technische Ausgestaltung des Sensors beispielsweise einen Neigungswinkel, einen Erfassungswinkel, über den der Sensor ein Bild einer Umgebung erfassen kann, oder eine Abschrägung einer Sensoroberfläche. Eine beschränkende Bedingung, die eine Bewegbarkeit der endoskopischen Vorrichtung beeinträchtigt, ist insbesondere eine Einschränkung der Beweglichkeit der endoskopischen Vorrichtung durch eine Eintrittsöffnung in den Hohlraumkörper, also zum Beispiel eine Beschränkung durch ein Material, Gewebe oder Organ in der Nähe der Eintrittsöffnung.
  • Die Eintrittsöffnung kann dabei beispielsweise an einer Stelle liegen, an der sich zum Beispiel viele empfindliche Gewebe oder Gefäße befinden, oder beispielsweise durch eine Umgebung, zum Beispiel eine dicken Muskelschicht, sehr starr ausgebildet sein. Durch das Berücksichtigen der beschränkenden Bedingung und/oder der technischen Ausgestaltung des Sensors zum Ermitteln der alternativen Lage und/oder des alternativen Navigationspfades wird eine verbesserte Zugänglichkeit zu einer Stelle des zu untersuchenden Objekts ermöglicht und es stehen mehr Freiheitsgrade in der Bewegung der endoskopischen Vorrichtung zur Verfügung. Weiterhin wird größtenteils ein häufiges „Ausprobieren“ eines Benutzers des Bewegens der endoskopischen Vorrichtung vermieden, wodurch zusätzlich ein vollständiges oder teilweises Vermeiden von Verletzungen des Hohlraumkörpers begünstigt werden.
  • Ein zusätzliches Erhöhen der Anzahl der Freiheitsgrade der Beweglichkeit der endoskopischen Vorrichtung und ein weitgehendes Vermeiden einer Beschädigung oder Traumatisierung des Hohlraumkörpers wird durch eine weitere bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens erreicht, gemäß der ein Ermitteln einer Eintrittsposition der endoskopischen Vorrichtung in den Hohlraumkörper und ein Ermitteln des Navigationspfades von der ermittelten Eintrittsposition zu der vorgegebenen relativen Lage erfolgt und/oder wobei ein Abändern der ermittelten Eintrittsposition in Abhängigkeit von einer technischen Ausgestaltung des Sensors und/oder von einer beschränkenden Bedingung, die die Bewegbarkeit der endoskopischen Vorrichtung beeinträchtigt, erfolgt.
  • Das erzeugte Navigationssignal kann gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens ein Ausgeben eines Navigationshinweises durch eine Ausgabeeinrichtung bewirken. Dabei kann beispielsweise ein schriftlicher Hinweis auf zum Beispiel einen Bildschirm als Ausgabeeinrichtung ausgegeben werden, oder zum Beispiel ein Text als Hinweis durch einen Lautsprecher als Ausgabeeinrichtung. Ein Benutzer der endoskopischen Vorrichtung muss sich somit nicht zusätzlich zur Bedienung der endoskopischen Vorrichtung im Kopf ein Koordinatensystem des Hohlraumkörpers vorstellen, sondern kann sich auf ein manuelle Steuern der endoskopischen Vorrichtung konzentrieren.
  • Um die vorgegebene relative Lage oder die alternative Lage des Sensors der endoskopischen Vorrichtung zu erreichen, kann gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens ein Ermitteln einer Position des Sensors der endoskopischen Vorrichtung anhand eines a) von einer bildgebenden Untersuchungsmodalität bereitgestellten Bilddatensatzes und/ oder b) von einem Magnetsensor, und/oder durch einen optischen Positionsgeber, einem sogenannten optischen „Tracker“, und/oder durch einen mechanisch-kinematischen, kinematischen oder robotischen Positionsgeber, oder eines von der endoskopischen Vorrichtung bereitgestellten Positionssignals, erfolgen. Die ermittelte Position kann zusätzlich oder alternativ an das Modell übertragen und/oder ausgegeben werden. Das Verwenden eines Magnetsensors und/oder eines optischen Positionsgebers und/oder eines mechanisch-kinematischen, kinematischen oder robotischen Positionsgebers, oder eines von der endoskopischen Vorrichtung bereitgestellten Positionssignals erweist sich dabei als vorteilhaft, weil hierdurch keine zusätzliche Röntgendosis auf einen Patienten erfolgt.
  • Es kann sich eine Situation ergeben, in denen ein Standardisieren des Steuerns der endoskopischen Vorrichtung wünschenswert ist, zum Beispiel wenn Untersuchungen verschiedener Labors standardisiert werden sollen. Hierzu kann das erfindungsgemäße Verfahren mittels des Navigationssignals ein automatisches oder teilautomatisches Steuern der endoskopischen Vorrichtung entlang des Navigationspfads durch ein automatisches oder teilautomatisches Steuern eines mit der endoskopischen Vorrichtung verbundenen Steuergeräts, zum Beispiel einen Roboter, umfassen.
  • Das Registrieren des Modells mit der endoskopischen Vorrichtung und/oder dem von der endoskopischen Vorrichtung bereitgestellten digitalen endoskopischen Datensatz kann in einer weiteren Ausführungsform des Verfahrens nach dem Empfangen der Bedienhandlung erfolgen. Hier wird dem Benutzer die Möglichkeit gegeben, zunächst verschiedene Sichtweisen, also verschiedene relative Lagen anzusehen und eine bevorzugte relative Lage auszuwählen. Gegebenenfalls kann eine bestimmte Auswahl des Modells mit einer bestimmten relativen Lage zum Beispiel auf einem Speichermedium gespeichert werden.
  • Die oben gestellte Aufgabe wird ebenfalls gelöst von einer Steuereinrichtung, die dazu eingerichtet ist, ein Verfahren gemäß einer der oben genannten Ausführungsformen durchzuführen.
  • Die oben gestellte Aufgabe wird weiterhin gelöst durch eine endoskopische Vorrichtung, die eine oben beschriebene Steuervorrichtung umfasst.
  • Ein Computerprogrammprodukt zum Unterstützen einer Navigation einer endoskopischen Vorrichtung, umfassend mindestens ein Speichermedium mit einem darauf gespeicherten Programmcode, der dazu ausgelegt ist, bei Ausführen durch eine Steuereinrichtung diese dazu zu veranlassen, ein Verfahren gemäß der oben genannten Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen, löst die oben gestellte Aufgabe ebenfalls.
  • Die Vorteile der erfindungsgemäßen Steuereinrichtung, der erfindungsgemäßen endoskopischen Vorrichtung und des erfindungsgemäßen Computerprogrammprodukts ergeben sich in der gleichen Weise wie bereits zu dem erfindungsgemäßen Verfahren beschrieben.
  • Die Erfindung wird anhand der beigefügten Zeichnungen noch einmal durch ein konkretes Ausführungsbeispiel näher erläutert. Das gezeigte Beispiel stellt eine bevorzugte Ausführungsform der Erfindung dar. Funktionsgleiche Elemente weisen in der FIGUR dieselben Bezugszeichen auf.
  • Es zeigt die einzige FIGUR („FIG“):
  • Eine schematische Darstellung zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • Die einzige Figur zeigt das Prinzip des erfindungsgemäßen Verfahrens zum Unterstützen einer Navigation einer endoskopischen Vorrichtung 10 durch eine Steuereinrichtung 12 mit Hilfe mindestens eines digitalen Bilddatensatzes 14 einer bildgebenden Untersuchungsmodalität 16. Die endoskopische Vorrichtung 10 kann dabei beispielsweise ein starres Endoskop mit zum Beispiel einem Linsensystem oder ein flexibles Endoskop, vorzugsweise ein Videoendoskop, umfassen. Die endoskopische Vorrichtung 10 umfasst einen Sensor 18, zum Beispiel ein Linsensystem, ein Objektiv oder eine Kamera. In der FIG ist die endoskopische Vorrichtung 10, deren Sensor 18 aufgrund der Bauweise einen vorbestimmten Blickwinkel umfasst und damit ein Blickfeld B erfasst, in einem schematisch dargestellten Hohlraumkörper 20 angeordnet. Zum Durchführen des Verfahrens kann jedoch auch die endoskopische Vorrichtung 10 zunächst außerhalb des Hohlraumkörpers 20 angeordnet sein.
  • Die Steuereinrichtung 12 umfasst vorzugsweise ein Steuergerät und ist im vorliegenden Beispiel in einem von der endoskopischen Vorrichtung 10 baulich unabhängigen Gerät integriert. Alternativ kann die Steuereinrichtung 12 jedoch auch beispielsweise als Mikrocontroller oder Chip der endoskopischen Vorrichtung 10 oder eines weiteren Steuergeräts 22, zum Beispiel eines Roboters, ausgestaltet sein.
  • Eine bildgebende Untersuchungsmodalität 16 umfasst ein Gerät, das dazu ausgelegt ist, einen zweidimensionalen, dreidimensionalen oder mehrdimensionalen Bilddatensatz eines zu untersuchenden Objekts 26 zu erzeugen. Beispielsweise handelt es sich bei der bildgebenden Untersuchungsmodalität 16 um ein Röntgengerät, einen Magnetresonanztomographen oder einen Computertomographen. Der von der bildgebenden Untersuchungsmodalität 16 erzeugte digitale Bilddatensatz 14 kann dementsprechend zum Beispiel ein zweidimensionales oder dreidimensionales Röntgenbild, einen Magneteresonanz(„MRT“)-Scan oder einen Bilddatensatz 14 eines beispielhaften Computertomographen umfassen.
  • Im vorliegenden Beispiel wird das erfindungsgemäße Verfahren zum Beispiel zum Navigieren eines medizinischen Endoskops als endoskopische Vorrichtung 10 verwendet. In der FIG ist dabei ein Patient 24 gezeigt, von dem die bildgebende Untersuchungsmodalität 16, hier im Beispiel ein Computertomograph, beispielsweise einen dreidimensionalen Bilddatensatz 14 oder mehrere digitale Bilddatensätze 14 der inneren Organe des Patienten 24 bereitstellt (Verfahrensschritt S1). In der FIG ist der digitale Bilddatensatz 14 schematisch als Bild eines zu untersuchenden Objekts 26 des Patienten 24, zum Beispiel eine Leber, gezeigt. Dieser beispielhafte prä-operative CT-Scan zeigt auf dem zu untersuchenden Objekt 26 eine vorgegebene Stelle 28 des Objekts, zum Beispiel einen Lebertumor, der beispielsweise in einem geplanten Eingriff resektiert werden soll. Der Resektionsschritt ist dabei nicht Teil des erfindungsgemäßen Verfahrens. Neben der bildgebenden Untersuchungsmodalität 16 können beispielsweise auch weitere bildgebende Untersuchungsmodalitäten 16 einen oder mehrere Bilddatensätze 14 bereitstellen (S1). Mit Hilfe des digitalen Bilddatensatzes ermittelt die Steuereinrichtung 12 ein digitales zwei- oder mehrdimensionales Modell 30 (S2). Im vorliegenden Beispiel der Figur ermittelt die Steuereinrichtung 12 beispielsweise ein dreidimensionales Modell 30 (S2). Zum Ermitteln des dreidimensionalen Modells 30 stehen dem Fachmann aus dem Stand der Technik gängige Methoden zum Beispiel zur Triangulation zur Verfügung.
  • Wie in der Figur schematisch angedeutet, ist zum Beispiel das gesamte zu untersuchende Objekt 26, hier im Beispiel beide Lederlappen der Leber, eine Gallenblase und eine Pfortader, sowie die vorbestimmte Stelle 28 des Objekts 26, zu sehen. Weiterhin zeigt das beispielhafte dreidimensionale Modell 30 eine Darstellung einer Bauchdecke als weitere vorbestimmte Stelle 28’.
  • In dem beispielhaften dreidimensionalen Modell 30 können zusätzlich Änderungen vorgenommen werden, zum Beispiel ein zusätzliches Segmentieren oder Weglassen einer ausgewählten Struktur, so dass das zwei- oder mehrdimensionale Modell 30 zum Beispiel keine arteriellen Strukturen des zu untersuchenden Objekts 26 zeigt.
  • Das zwei- oder mehrdimensionale Modell 30 zeigt vorteilhafterweise wichtige Informationen über das zu untersuchende Objekt 26, da in dem zwei- oder mehrdimensionalen Modell 30 verschiedene Blickwinkel und Blickpositionen durch einen Benutzer eingestellt werden können. Dadurch kann der Benutzer zum Beispiel relevante anatomische und pathologische Stellen erkennen. Am Beispiel der FIG ist so ein optimales Erkennen des beispielhaften Lebertumors im rechten Teil des zu untersuchenden Objekts 26 zu sehen.
  • Gemäß dem erfindungsgemäßen Verfahren empfängt die Steuereinrichtung 12 eine Bedienhandlung, zum Beispiel ein Drehen D, ein „Bewegen“ des zwei- oder mehrdimensionalen Modells 30 oder eine Auswahl eines bestimmten Bereiches des zwei- oder mehrdimensionale Modells 30 mit einer Benutzerschnittstelle 34, zum Beispiel einer Maus als Bedieneinrichtung. Die Bedienhandlung D kann alternativ auch zum Beispiel eine Körpergeste eines Benutzers umfassen. Diese kann beispielsweise mit einer Kamera und einer Gestenerkennungssoftware erfasst und ermittelt werden. Mit Hilfe der Bedienhandlung kann zum Beispiel zusätzlich oder alternativ auch eine Ansicht verschoben, ein Winkel oder eine Blickrichtung eingestellt werden. Anhand der Bedienhandlung wird dann eine relative Lage der endoskopischen Vorrichtung 10 zu der Stelle 28 vorgegeben, aus der der Sensor 18 die Stelle 28 zum Beispiel aus einem besseren Winkel und/oder einer vorteilhafteren Richtung erfassen kann. Einem Benutzer kann es zusätzlich ermöglicht sein, eine ausgewählte Ansicht des zwei- oder mehrdimensionalen Modells 30 auf einem Speichermedium, zum Beispiel in einer Cloud oder auf einem physikalischen Datenträger, zu speichern, um die ausgewählte Ansicht zu einem späteren Zeitpunkt wieder aufrufen zu können.
  • Bevor die endoskopische Vorrichtung 10 die vorgegebene Lage einnimmt, befindet sie sich in einer Lage, von der aus der Sensor 18 die vorgegebene Stelle 28 zum Beispiel nur weniger günstig erfassen kann. Die endoskopische Vorrichtung 10 stellt einen digitalen endoskopischen Datensatz 36 bereit (S6), im vorliegenden Beispiel zum Beispiel als Bild des zu untersuchenden Objekts 26, also einer Leber, aus zum Beispiel einer Ausgangslage der endoskopischen Vorrichtung 10 gezeigt. Die Steuereinrichtung 12 empfängt den digitalen endoskopischen Datensatz 36 (S7), beispielsweise über eine drahtgebundene Kommunikationsverbindung oder über eine drahtlose Kommunikationsverbindung, wie zum Beispiel WLAN.
  • Durch die Steuereinrichtung 12 erfolgt das Registrieren des zwei- oder mehrdimensionalen Modells 30 im vorliegenden Beispiel mit dem digitalen endoskopischen Datensatz 36 (S4), kann jedoch auch mit der endoskopischen Vorrichtung 10 erfolgen. Das Registrieren kann zum Beispiel über ein merkmalsbasiertes oder ein flächenbasiertes Verfahren erfolgen. Dem Fachmann stehen hierzu Methoden zur Merkmalsextraktion, Merkmalsanpassung, Transformationsberechnung und Transformation zur Verfügung. Dabei kann beispielsweise eine Clusteranalyse oder eine Rasteranalyse durchgeführt werden. Hierdurch erhält der Benutzer eine Orientierungshilfe vor und während der Endoskopie. Durch die Verbindung mit der computergestützten Realitätswahrnehmung wird das Bereitstellen weiterer Informationen über den Hohlraumkörper 20 weiter begünstigt.
  • Die Steuereinrichtung 12 kann des Weiteren ein Vergleichen einer Ausgangslage des Sensors 18 der endoskopischen Vorrichtung 10 mit der vorgegebenen Lage durchführen. Die Steuereinrichtung 12 kann beispielsweise ein Ermitteln einer Position des Sensors 18 der endoskopischen Vorrichtung 10 anhand zum Beispiel eines von der bildgebenden Untersuchungsmodalität 16 (oder einer anderen bildgebenden Untersuchungsmodalität 16) bereitgestellten Bilddatensatzes durchführen. Der bereitgestellte Bilddatensatz kann beispielsweise durch eine Röntgenaufnahme der endoskopischen Vorrichtung 10 bereitgestellt werden. Das Ermitteln der Position der endoskopischen Vorrichtung 10 kann manuell oder automatisch erfolgen. Ein Benutzer erhält dadurch eine Information, wo sich die endoskopische Vorrichtung 10 und/oder der Sensor 18 der endoskopischen Vorrichtung 10 befinden. Dabei kann zum Beispiel in dem zwei- oder mehrdimensionalen Modell 30 ein virtuelles Abbild der endoskopischen Vorrichtung 10 an der entsprechenden Position erzeugt und angezeigt werden. Vorzugsweise erfolgt ein solches „Tracking“ beispielsweise mithilfe eines MRT-Scans, da hierdurch eine bessere Auflösung gewährleistet wird.
  • Alternativ kann die Position des Sensors 18 mit Hilfe eines Magnetsensors, und/oder durch einen optischen Positionsgeber, einem sogenannten optischen „Tracker“, und/oder durch einen mechanisch-kinematischen, kinematischen oder robotischen Positionsgeber, oder einem von der endoskopischen Vorrichtung 10 bereitgestellten Positionssignal durchgeführt werden. Das erfasste Positionssignal kann an die Steuereinrichtung 12 übertragen werden (S8). Die ermittelte Position wird kann zusätzlich oder alternativ in das Modell 30 übertragen und/oder ausgegeben werden, also zum Beispiel in dem Modell angezeigt werden. Ein Positionssignal, das mit Hilfe eines Magnetsensors erfasst wird, zum Beispiel mit Hilfe einer Spule und einem Sensor, ist hierbei bevorzugt, da hier im Gegensatz zu einem Erfassen der Position mit Hilfe einer bildgebenden Untersuchungsmodalität 16 des Patienten 24 nicht mit einer Röntgenstrahldosis beaufschlagt wird. Als besonders vorteilhaft hat sich dabei ein mechanisch-kinematischer Positionsgeber erwiesen, der einen Roboter mit einer aktiven Beschränkung einer Beweglichkeit umfasst.
  • Die Steuereinrichtung 12 erzeugt ein Navigationssignal zum Navigieren der endoskopischen Vorrichtung 10 unter Berücksichtigung der vorgegebenen relativen Lage (S5). Das erzeugte Navigationssignal kann beispielsweise an eine Ausgabeeinrichtung 38, zum Beispiel ein Display eines Computers, übertragen werden (S6) und dabei beispielsweise das Ausgeben eines Navigationshinweises in einem Textfeld 40 bewirken. Ein solcher Navigationshinweis kann beispielsweise eine Information umfassen, die den Benutzer anweist, beispielsweise die endoskopische Vorrichtung 10 um 20 Zentimeter in eine bestimmte Richtung zu bewegen und/oder die endoskopische Vorrichtung um beispielsweise 20 Grad zu drehen, um die vorgegebene Lage zu erreichen.
  • Um das Navigationssignal zu erzeugen, kann beispielsweise ein Ermitteln eines Navigationspfades von der Ausgangslage des Sensors 18 zu der vorgegebenen relativen Lage erfolgen. Durch zum Beispiel eine technische Ausgestaltung des Sensors 18, zum Beispiel eine Symmetrie und/oder Geometrie der Endoskopiespitze, wie zum Beispiel eine schräge Ausgestaltung der Sensoroberfläche, ein vorgegebener Blickwinkel beziehungsweise Erfassungswinkel des Sensors 18 und/oder eine Flexibilität einer Spitze der endoskopischen Vorrichtung 10, können jedoch nicht alle Blickpositionen und Blickwinkel, wie sie in dem zwei- oder mehrdimensionalen Modell 30 gesehen und eingestellt werden können, mit der endoskopischen Vorrichtung 10 erreicht werden. Gemäß dem erfindungsgemäßen Verfahren kann in Abhängigkeit einer technischen Ausgestaltung ein Abändern der vorgegebenen Lage zu einer alternativen Lage und/oder ein Abändern des ermittelten Navigationspfades erfolgen, wenn zum Beispiel eine beschränkende Bedingung vorliegt, die eine Bewegbarkeit der endoskopischen Vorrichtung 10 beeinträchtigt. Eine solche beschränkende Bedingung ist beispielsweise eine Einschränkung der Beweglichkeit der endoskopischen Vorrichtung 10 durch die Eintrittsöffnung 32, aufgrund deren Position beispielsweise die endoskopische Vorrichtung 10 durch ein festes Material geführt werden soll, zum Beispiel eine Muskulaturschicht, oder die endoskopische Vorrichtung 10 in einer Umgebung in den Hohlraum eingeführt werden soll, der die Bewegung zum Beispiel durch naheliegende Organe einschränkt.
  • Eine solche beschränkende Bedingung kann beispielsweise eine Rotation der endoskopischen Vorrichtung 10 in alle Freiheitsgrade beschränken. Durch Verwendung der endoskopischen Vorrichtung 10 kann beispielsweise eine Umgebung, die kritische Gefäßstrukturen umfasst, eine solche Rotation beschränken. Ein Parameter zu der technischen Ausgestaltung des Sensors 18 und/oder Koordinaten und/oder Parameter zu der beschränkenden Bedingung können beispielsweise manuell von einem Benutzer in die Steuereinrichtung 12 eingegeben und dort gespeichert werden. Alternativ können die genannten Parameter auch beispielsweise durch die Steuereinrichtung 12 von einem externen Datenserver abgerufen und empfangen werden.
  • Alternativ oder zusätzlich kann das erzeugte Navigationssystem an ein weiteres Steuergerät 22 übertragen werden (S6). Ein solches Steuergerät 22, zum Beispiel ein Roboter, kann automatisch die Sichtweise auf das zu untersuchende Objekt 26 annehmen. Bei dem weiteren Steuergerät 22 handelt es sich vorzugsweise um einen Roboter, der in allen oder in einigen Achsen Drehmomentsensoren umfasst, die eine Kraftausübung erfasst. Ein solcher Roboter 22 arbeitet vorzugsweise nach dem „Active Constraint“-Prinzip, umfasst also einen Roboter mit einer aktiven Beschränkung einer Beweglichkeit. Dabei kann ein Benutzer beispielsweise einen Arm des Roboters 22 führen, jedoch nur in eine Bewegungsrichtung, in der durch das Navigationssignal eine Bewegung zugelassen ist. Vorzugsweise ist das Steuergerät 22 dazu ausgelegt, einen Schwerkraftsausgleich („Gravity Compensation“) durchzuführen. Dabei wird ein Tunnel definiert, in den die endoskopische Vorrichtung 10 geführt werden kann. Mittels des Navigationssignals kann ein automatisches oder teilautomatisches Steuern der endoskopischen Vorrichtung 10 entlang des ermittelten Navigationspfads mit der endoskopischen Vorrichtung 10 erfolgen. Wie bereits oben beschrieben, kann ein solcher mechanisch-kinematischer Positionsgeber bevorzugt auch als Positionsgeber zum Ermitteln der Position des Sensors 18 verwendet werden.
  • In einem weiteren optionalen Verfahrensschritt des erfindungsgemäßen Verfahrens erfolgt ein Ermitteln einer Eintrittsposition 32 der endoskopischen Vorrichtung 10 in den Hohlraumkörper 20 und ein Ermitteln des Navigationspfades von der ermittelten Eintrittsposition 32 zu der vorgegebenen relativen Lage. Gemäß einer individuellen Anatomie eines Patienten kann somit eine Kollisionsrechnung erfolgen, wobei Strukturen ermittelt werden, an denen die endoskopische Vorrichtung 10 beschränkt wird. Die ermittelte Eintrittsposition 32 kann in Abhängigkeit von der technischen Ausgestaltung des Sensors 18 und/oder von einer beschränkenden Bedingung, die eine Bewegbarkeit der endoskopischen Vorrichtung 10 beeinträchtigt, abgeändert werden. Für ein Ermitteln einer Eintrittsposition 32 stehen dem Fachmann gängige Algorithmen zur Verfügung.
  • Das oben erläuterte Ausführungsbeispiel erläutert das Prinzip des erfindungsgemäßen Verfahrens, eine Position einer endoskopischen Vorrichtung 10 zu steuern, so dass beispielsweise ein Videobild der endoskopischen Vorrichtung 10, eine Blickrichtung und/oder einem Blickwinkel auf zum Beispiel ein dreidimensionales volumetrisches Bild, also zum Beispiel ein dreidimensionales Modell 30, einer bildgebenden Untersuchungsmodalität 16, zum Beispiel einer radiologischen Untersuchungsmodalität, angeglichen ist. Der Blick auf das beispielhafte dreidimensionale volumetrische Bild, also das beispielhafte dreidimensionale Modell 30, ist vorteilhaft, da ein Visualisieren anatomischer und pathologischer Strukturen einen Benutzer, zum Beispiel einen Chirurg, bei einer Bedienung der endoskopischen Vorrichtung 10 unterstützt, wenn das beispielhafte 3D-Volumen einem endoskopischen Bild eines endoskopischen Bilddatensatzes 36 überlagert wird.
  • Die Erfindung beschreibt ein System, das eine Position einer endoskopischen Vorrichtung 10, zum Beispiel eines medizinischen Endoskops, automatisch steuert, so dass dessen Blickposition und/oder Blickwinkel dem Blickwinkel und einer Blickposition entspricht, die zuvor auf einem beispielhaften 3D-Volumen, also zum Beispiel einem dreidimensionalen Modell 30, ausgewählt wurden. Dies erlaubt eine Verwendung einer computergestützten Realitätswahrnehmung. Dem Benutzer, zum Beispiel einem Mediziner, wird es ermöglicht, einen optimalen Blick auf Anatomien und Pathologien als Beispiel auszuwählen, die auf einem beispielhaften 3D-volumetrischen Bild basieren. Vorzugsweise nach der Selektion erfolgt ein Transfer dieses Blickes und/oder dieses Blickwinkels in die computergestützte Realitätswahrnehmung, also zum Beispiel in ein endoskopisches Bild als beispielhaften digital-endoskopischen Datensatz 36.
  • Um die gewünschte Position der endoskopischen Vorrichtung zu erreichen, werden zwei Lösungen vorgeschlagen:
    • 1) Die endoskopische Vorrichtung 10 wird verfolgt, zum Beispiel über Erfassen und Ermitteln eines Positionssignals der endoskopischen Vorrichtung 10, beispielsweise durch einen elektromagnetischen und/oder optischen Sensor, und kann danach beispielsweise manuell von dem Benutzer bedient werden. Der Sensor zum Erfassen des Positionssignals kann in der bildgebenden Untersuchungsmodalität 16 registriert sein. Der Sensor und/oder die Steuereinrichtung 12 können dann von dem Benutzer zu der vorgegebenen Lage oder zu einer alternativen vorgegebenen Lage geführt werden.
    • 2) Alternativ kann die endoskopische Vorrichtung 10 auch beispielsweise an einen Roboterarm eines weiteren Steuergeräts 22 angebracht werden, wobei das Steuergerät 22 beispielsweise eine Position decodieren kann, die zusätzlich oder alternativ zu der bildgebenden Untersuchungsmodalität 16 registriert wurde. Das weitere Steuergerät 22 kann dann die endoskopische Vorrichtung 10 zu der vorgegebenen Lage oder der alternativen Lage führen. Dies kann automatisch oder teilautomatisch geschehen.
  • Bei beiden genannten Anwendungen kann beispielsweise eine Software, beispielsweise der Steuereinrichtung 12, und eine Beschränkung der Eintrittsöffnung 32 mit einbeziehen. Zusätzlich oder alternativ kann die technische Ausgestaltung der endoskopischen Vorrichtung zum Beispiel eine abgeschrägte Optik mit einem bestimmten Grad der Abschrägung mit einbeziehen. Wenn diese Parameter berücksichtigt werden, aber wegen der vorgegebenen Lage aufgrund beispielsweise einer einschränkenden Bedingung der Eintrittsöffnung 32 die vorgegebene Lage nicht erreicht werden kann, kann das System eine möglichst optimale Position für den Sensor 18 der endoskopischen Vorrichtung 10 berechnen, die der vorgegebenen Lage sehr nahe kommt.

Claims (11)

  1. Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung (10) durch eine Steuereinrichtung (12) mithilfe mindestens eines digitalen Bilddatensatzes (14) einer bildgebenden Untersuchungsmodalität (16), wobei der mindestens eine digitale Bilddatensatz (14) jeweils ein Bild eines mithilfe der endoskopischen Vorrichtung (10) zu untersuchenden Objekts (26) in einem Hohlraumkörper (20) beschreibt, umfassend die Schritte: – Ermitteln eines digitalen zwei- oder mehrdimensionalen Modells (30) des zu untersuchenden Objekts (26) anhand des mindestens einen Bilddatensatzes (14, S2) – Empfangen einer Bedienhandlung (S3), die anhand des Modells (30) eine relative Lage eines Sensors (18) der endoskopischen Vorrichtung (10) zu dem Objekt (26) vorgibt, – Registrieren des Modells (30) mit der endoskopischen Vorrichtung (10) und/oder einem von der endoskopischen Vorrichtung (10) bereitgestellten digitalen endoskopischen Datensatz (36, S4) – Vergleichen einer Ausgangslage des Sensors mit der vorgegebenen Lage, und – Erzeugen eines Navigationssignals zum Navigieren der endoskopischen Vorrichtung (10) unter Berücksichtigung der vorgegebenen relativen Lage. (S5)
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Navigation der endoskopischen Vorrichtung (10) innerhalb eines Hohlraumkörpers (20) eines Patienten (24) unterstützt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch den Schritt: – Ermitteln eines Navigationspfades von einer Ausgangslage des Sensors (18) zu der vorgegebenen relativen Lage, und/oder – in Abhängigkeit von einer technischen Ausgestaltung des Sensors (18) und/oder von einer beschränkenden Bedingung, die eine Bewegbarkeit der endoskopischen Vorrichtung (10) beeinträchtigt, Abändern der vorgegebenen Lage zu einer alternativen Lage und/oder des ermittelten Navigationspfads.
  4. Verfahren nach Anspruch 3, gekennzeichnet durch: – Ermitteln einer Eintrittsposition (32) der endoskopischen Vorrichtung (10) in den Hohlraumkörper (20) und Ermitteln des Navigationspfades von der ermittelten Eintrittsposition (32) zu der vorgegebenen relativen Lage, und/oder – Abändern der ermittelten Eintrittsposition (32) in Abhängigkeit von einer technischen Ausgestaltung des Sensors (18) und/oder von einer beschränkenden Bedingung, die eine Bewegbarkeit der endoskopischen Vorrichtung (10) beeinträchtigt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: – mittels des Navigationssignals Erzeugen und Ausgeben eines Navigationshinweises durch eine Ausgabeeinrichtung (38). (S6)
  6. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: – Ermitteln einer Position des Sensors (18) der endoskopischen Vorrichtung (10) anhand eines a) von einer bildgebenden Untersuchungsmodalität (16) bereitgestellten Bilddatensatzes (14) und/oder b) von einem Magnetsensor und/oder von einem optischen Positionsgeber und/oder durch einen mechanischkinematischen, kinematischen oder robotischen Positionsgeber oder der endoskopischen Vorrichtung (10) bereitgestellten Positionssignals, und/oder – Übertragen und/oder Ausgeben der ermittelten Position in das Modell (30). (S8)
  7. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch den Schritt: – mittels des Navigationssignals automatisches oder teilautomatisches Steuern der endoskopischen Vorrichtung (10) entlang des Navigationspfads durch automatisches oder teilautomatisches Steuern (S9) eines mit der endoskopischen Vorrichtung (10) verbundenen Steuergeräts (22).
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Registrieren des Modells (30) mit der endoskopischen Vorrichtung (10) einem von der endoskopischen Vorrichtung (10) bereitgestellten digitalen endoskopischen Datensatz (36) nach dem Empfangen der Bedienhandlung erfolgt.
  9. Steuereinrichtung (12), die dazu eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen.
  10. Endoskopische Vorrichtung (10), umfassend eine Steuereinrichtung (12) gemäß Anspruch 9.
  11. Computerprogrammprodukt zum Unterstützen einer Navigation einer endoskopischen Vorrichtung, umfassend mindestens ein Speichermedium mit einem darauf gespeicherten Programmcode, der dazu ausgelegt ist, bei Ausführen durch eine Steuereinrichtung diese dazu zu veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen.
DE102014203097.8A 2014-02-20 2014-02-20 Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung Pending DE102014203097A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014203097.8A DE102014203097A1 (de) 2014-02-20 2014-02-20 Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung
US14/627,937 US10674891B2 (en) 2014-02-20 2015-02-20 Method for assisting navigation of an endoscopic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014203097.8A DE102014203097A1 (de) 2014-02-20 2014-02-20 Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung

Publications (1)

Publication Number Publication Date
DE102014203097A1 true DE102014203097A1 (de) 2015-08-20

Family

ID=53758933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014203097.8A Pending DE102014203097A1 (de) 2014-02-20 2014-02-20 Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung

Country Status (2)

Country Link
US (1) US10674891B2 (de)
DE (1) DE102014203097A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
EP3703604A4 (de) * 2017-10-30 2021-08-11 Intuitive Surgical Operations, Inc. Systeme und verfahren zur auswahl der platzierung von geführten ports
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019199125A1 (ko) 2018-04-12 2019-10-17 주식회사 이지엔도서지컬 자율 주행 내시경 시스템 및 그 제어 방법
CN111936076A (zh) * 2018-04-12 2020-11-13 逸吉恩哆股份公司 结石清除装置及方法
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN112206008A (zh) * 2020-10-10 2021-01-12 唐绍辉 一种非接触式鼻咽检测机器人
CN114767031B (zh) * 2022-03-31 2024-03-08 常州朗合医疗器械有限公司 内窥镜设备、内窥镜的位置引导设备、系统、方法和计算机可读存储介质
CN114699169A (zh) * 2022-03-31 2022-07-05 复旦大学附属眼耳鼻喉科医院 一种多模态导航插管系统
CN114947691A (zh) * 2022-03-31 2022-08-30 常州朗合医疗器械有限公司 内窥镜设备、内窥镜的位置引导设备和医疗床
CN115281583B (zh) * 2022-09-26 2022-12-13 南京诺源医疗器械有限公司 一种用于医疗内窥拉曼光谱成像的导航系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090062646A1 (en) * 2005-07-07 2009-03-05 Creighton Iv Francis M Operation of a remote medical navigation system using ultrasound image
US20120035481A1 (en) * 2006-10-02 2012-02-09 Hansen Medical, Inc. Systems and methods for three-dimensional ultrasound mapping
US20120289777A1 (en) * 2011-05-13 2012-11-15 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120130171A1 (en) * 2010-11-18 2012-05-24 C2Cure Inc. Endoscope guidance based on image matching
EP2838412B1 (de) * 2012-04-19 2020-09-09 Koninklijke Philips N.V. Führungswerkzeuge zum manuellen steuern eines endoskops mit präoperativen und perioperativen 3d-bildern
US20140188440A1 (en) * 2012-12-31 2014-07-03 Intuitive Surgical Operations, Inc. Systems And Methods For Interventional Procedure Planning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090062646A1 (en) * 2005-07-07 2009-03-05 Creighton Iv Francis M Operation of a remote medical navigation system using ultrasound image
US20120035481A1 (en) * 2006-10-02 2012-02-09 Hansen Medical, Inc. Systems and methods for three-dimensional ultrasound mapping
US20120289777A1 (en) * 2011-05-13 2012-11-15 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery

Also Published As

Publication number Publication date
US10674891B2 (en) 2020-06-09
US20150230689A1 (en) 2015-08-20

Similar Documents

Publication Publication Date Title
DE102014203097A1 (de) Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung
US20180153383A1 (en) Surgical tissue recognition and navigation aparatus and method
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE102008044529A1 (de) System und Verfahren zur Verwendung von Fluoroskop- und Computertomographie-Registrierung für Sinuplastie-Navigation
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
EP4213755B1 (de) Chirurgisches assistenzsystem
DE19842239A1 (de) Medizintechnische Einrichtung
US20210228283A1 (en) Methods and systems for providing depth information
DE102010062340A1 (de) Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
CA2958766C (en) System and method for scope based depth map acquisition
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE10334074A1 (de) System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
WO2023275158A1 (de) Chirurgisches assistenzsystem mit verbesserter registrierung und registrierverfahren
JP2023508213A (ja) 内部カメラを有するナビゲーショントロカール
DE102021201729A1 (de) Vorrichtung zum Bewegen eines medizinischen Objekts und Verfahren zum Bereitstellen einer Steuerungsvorgabe
EP2441410A1 (de) Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102014219581A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Registrierung eines medizinischen Bildes mit einer anatomischen Struktur
EP4299029A2 (de) Kegelstrahl-computertomographieintegration zur erzeugung eines navigationspfades zu einem ziel in der lunge und verfahren zur navigation zum ziel
US20240156549A1 (en) Cavity modeling system and cavity modeling method
EP3474764A1 (de) Lenkbares einführungsinstrument für minimalinvasive chirurgie
DE102020205976A1 (de) Anpassen einer erweiterten und/oder künstlichen Realität
Williamson et al. Image-guided microsurgery

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE