DE102004038610A1 - System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe - Google Patents

System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe Download PDF

Info

Publication number
DE102004038610A1
DE102004038610A1 DE102004038610A DE102004038610A DE102004038610A1 DE 102004038610 A1 DE102004038610 A1 DE 102004038610A1 DE 102004038610 A DE102004038610 A DE 102004038610A DE 102004038610 A DE102004038610 A DE 102004038610A DE 102004038610 A1 DE102004038610 A1 DE 102004038610A1
Authority
DE
Germany
Prior art keywords
tissue
model
vascular tree
image
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102004038610A
Other languages
English (en)
Inventor
Tim Prof. Dr. Lüth
Stefan Dr.-Ing. Weber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LB Medical GmbH
Original Assignee
LB Medical GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LB Medical GmbH filed Critical LB Medical GmbH
Priority to DE102004038610A priority Critical patent/DE102004038610A1/de
Publication of DE102004038610A1 publication Critical patent/DE102004038610A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3908Soft tissue, e.g. breast tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe gemäß dem Oberbegriff des Anspruchs. DOLLAR A Aufgabe der Erfindung ist es, die bekannten Nachteil des Standes der Technik zu vermeiden und ein System zu entwickeln, das intraoperativ einen Gefäßbaum im Inneren von biegeschlaffem Gewebe über eine 2-D- oder 3-D-Bildgebung (z. B. Ultraschall) räumlich erfassen, als Struktur modellieren, mit intraoperativen oder präoperativen Bildern registrieren, an einem Bildschirm darstellen und für die Instrumentennavigation auf der Basis von Planungsdaten nutzbar machen kann. Diese Aufgabe wird durch Verfahren und System nach den Merkmalen des Anspruchs 1 gelöst. DOLLAR A Verfahren und System sind insbesondere für die echtzeitfähige Bildaufnahme, Modellierung, Registrierung, Darstellung und chirurgische Navigation von Gewebe und Organen mit innenliegenden Gefäßbäumen vorteilhaft anwendbar. Das System ist dadurch gekennzeichnet, dass die Lage eines kalibrierten Bildsensors (1, 7) relativ zu einem Gewebe (2, 8) erfasst (6) wird, Merkmale (13) eines im Gewebe (2) liegenden Gefäßbaumes (3) in einem Einzelbild (12) kontinuierlich ausgewertet werden und aus räumlich benachbarten oder sich schneidenden Einzelbildern einer Bildfolge (14) ein elementares Modell (15) der Baumstruktur (Knoten, Anzahl der Äste am Knoten, räumliche Anordnung der Verästelung am Knoten) sowie dessen Lage relativ zum Gewebe (2) berechnet ...

Description

  • Die Erfindung betrifft ein Verfahren und System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe gemäß dem Oberbegriff des Anspruchs 1.
  • Verfahren und System sind insbesondere für die echtzeitfähige Bildaufnahme, Modellierung, Registrierung, Darstellung und chirurgische Navigation von Gewebe und Organen mit innenliegenden Gefäßbäumen geeignet.
  • In der Allgemeinchirurgie, Leberchirurgie und anderen chirurgischen Disziplinen wird Weichgewebe zu therapeutischen Zwecken offen oder lapraskopisch manipuliert. Es werden beispielsweise Gewebeteile abgetrennt (Transplantate, Resektionen) oder gezielt einer besonderen Strahlung (ionisierend, Teilchen, Kälte, Wärme, Radio usw.) ausgesetzt. Innerhalb des Gewebes liegen häufig Gefäße oder Strukturen mit besonderer Bedeutung für den Eingriff. Diese Strukturen sollen geschützt oder dürfen nicht geschädigt werden bzw. sollen entfernt oder bestrahlt werden. Die Kenntnis über die genaue Lage (Position und Orientierung) im Körper relativ zu einem Referenzkoordinatensystem spielt dabei eine bedeutende Rolle.
  • Das Problem der Lagebestimmung besteht darin, dass sich die Gefäße im Inneren des Gewebes befinden und von außen nicht einsehbar sind. Darüber hinaus ist das Gewebe biegeschlaff und ist sowohl Bewegungen als auch Deformationen ausgesetzt. Die Operationstechniken im Umgang mit Weichgewebe sind in der Chirurgie erprobt und beruhen auf einer intraoperativen Bildgebung meist auf der Basis von Ultraschall. Es besteht jedoch der Wunsch von Seiten der Chirurgen die bestehende Operationstechnik mit einer Navigationshilfe analog der Knochenchirurgie zu unterstützen.
  • Diese Weichgewebsnavigation spielt vor allem bei Leberlebendspenden eine besonders wichtige Rolle, bei der ein Organ geteilt wird und beide Hälften über einen kompletten Gefäßbaum verfügen müssen der ausreichend groß und vollständig vernetzt sein muss. Es besteht sonst die Gefahr, dass der Spender oder der Empfänger stirbt.
  • Für die Leberlebendspende gibt es aus diesem Grund inzwischen Planungsprogramme (Peitgen, Mevis), die aus präoperativen Bilddaten die Gefäßbäume für Spender und Empfänger berechnen, um das Transplantationsrisiko zu minimieren und den Spender maximal zu schützen. Diese Gefäßbaumdarstellungen sind gegenwärtig nur am Computer verfügbar und nicht auf den Patienten übertragbar.
  • Aus der Knochenchirurgie (Nolte, Medivision) und Neurochirurgie (Buchholtz, Medtronic) sind Navigationssysteme bekannt, die auf präoperativen Bildern der Skelettknochens beruhen. Da sich der Skelettknochen als Hartgewebe nicht deformiert, kann das präoperative Bild des Patienten intraoperativ als Patientenmodell im Computer verwendet werden. Über das Abgleichen von mindestens drei Punkt-Landmarken am Patienten, kann dann das Knochenmodell mit der Oberfläche des Patientenknochens abgeglichen werden. Die Registrierung beruht auf der Verwendung von Oberflächeninformationen einer festen Oberfläche, die intraoperativ abgeglichen werden können.
  • Ein weiteres Verfahren ist aus der Orthopädie (Aesculap, Lavallee) bekannt, bei dem keine Bildinformation sondern eine kinematische Information zur Planung verwendet wird. Dabei werden die Längen und Winkelstellungen bzw. die Freiheitsgrade der Bewegung des menschlichen Beins vermessen. Da in diesem Fall die Messmarken nach der Modellerfassung nicht mehr abgenommen werden, ist keine Registrierung mehr nötig. Die Registrierung beruht auf der Verwendung von kinematischen Daten der Verwendung von fixierten Landmarken.
  • Beim gegenwärtigen Stand der Technik (Weichteilchirurgie) gibt es keine Möglichkeit, intraoperativ den Gefäßbaum im Inneren des Gewebes in seiner intraoperativen Lage zu sehen.
  • Beim gegenwärtigen Stand der Technik (Weichteilchirurgie) gibt es keine Möglichkeit, intraoperativ Instrumente relativ zum Gefäßbaum im Inneren des Gewebes auszurichten oder zu führen.
  • Beim gegenwärtigen Stand der Technik (Weichteilchirurgie) gibt es keine Möglichkeit, intraoperativ Planungsdaten relativ zum Gefäßbaum im Inneren des Gewebes anzuzeigen oder zu projizieren.
  • Beim gegenwärtigen Stand der Technik (Weichteilchirurgie) gibt es keine Möglichkeit, intraoperativ die Instrumentenleistung nach Planungsvorgaben relativ zum Gefäßbaum im Inneren des Gewebes zu steuern, zu regeln oder zu begrenzen.
  • Beim gegenwärtigen Stand der Technik (Weichteilchirurgie) gibt es keine Möglichkeit einen präoperativ generierten Gefäßbaum mit einem intraoperativ gemessenen Gefäßbaum zu registrieren.
  • Die Verwendung von 2D-Ultraschall macht Querschnitte des Gefäßbaums kurzfristig sichtbar, gibt aber keinen Hinweis wie diese Querschnitte in Relation zu dem Gesamtbaum stehen. Durch die Deformation des Gewebes ist eine Orientierung nur sehr schwer möglich. Die oben beschrieben Nachteile werden durch 2D-Ultraschall nicht behoben.
  • Die Verwendung von 3D-Ultraschall kann zwar Teile des Gefäßbaums sichtbar machen, gibt aber ebenfalls keinen Hinweis darüber wo sich das entsprechende Segment im Gesamtbaum befindet. Durch die Deformation des Gewebes ist eine Orientierung nur sehr schwer möglich. Die oben beschrieben Nachteile werden durch 3D-Ultraschall nicht behoben.
  • Es gibt keinerlei Möglichkeiten eine computerbasierte Planung für Resektionen oder Schnittführungen zu übertragen, da eine Registrierung des biegeschlaffen Gewebes nach der Mobilisierung nicht mehr möglich ist und nur die Oberfläche des Gewebes sichtbar ist. Eine Registrierung des biegeschlaffen Gewebes auf der Basis von Oberflächendaten ist nicht möglich.
  • Aufgabe der Erfindung ist es, die bekannten Nachteile des Standes der Technik zu vermeiden und ein Verfahren und System zu entwickeln, das intraoperativ einen Gefäßbaum im Inneren von biegeschlaffen Gewebe über eine 2D oder 3D Bildgebung (z.B. Ultraschall) räumlich erfassen, als Struktur modellieren, mit intraoperativen oder präoperativen Bildern registrie ren, an einem Bildschirm darstellen und für die Instrumentennavigation auf der Basis von Planungsdaten nutzbar machen kann.
  • Diese Aufgabe wird durch Verfahren und System nach den Merkmalen des Anspruchs 1 gelöst.
  • Verfahren und System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe sind dadurch gekennzeichnet, dass die Lage eines kalibrierten Bildsensors relativ zu einem Gewebe erfasst wird, Merkmale eines im Gewebe liegenden Gefäßbaumes in einem Einzelbild kontinuierlich ausgewertet werden und aus räumlich benachbarten oder sich schneidenden Einzelbildern einer Bildfolge ein elementares Modell der Baumstruktur (Knoten, Anzahl der Äste am Knoten, räumliche Anordnung der Verästelung am Knoten) sowie dessen Lage relativ zum Gewebe berechnet und als Gefäßbaumstrukturmodell gespeichert wird.
  • Verfahren und System sind insbesondere für die echtzeitfähige Bildaufnahme, Modellierung, Registrierung, Darstellung und chirurgische Navigation von Gewebe und Organen mit innenliegenden Gefäßbäumen vorteilhaft anwendbar.
  • Verfahren und System ermöglichen die intraoperative Berechnung eines Gefäßbaummodells aus 2D- und 3D Schichtbildern unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Berechnung eines Gewebemodells unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Registrierung eines Gewebemodells sowie eines Gefäßbaummodells unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Darstellung eines Gewebemodells sowie eines Gefäßbaummodells unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Darstellung von Planungsdaten relativ zu Gewebemodell/Gefäßbaummodell unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Darstellung von Planungsdaten relativ zum intraoperativen Gewebe/Gefäßbaum unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Darstellung und Führung von Instrumenten relativ zu Planungsdaten und zum intraoperativen Gewebe/Gefäßbaum unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Steuerung von Instrumenten relativ zu Planungsdaten und zum intraoperativen Gewebe/Gefäßbaum unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die intraoperative Generierung von Signalen relativ zu Planungsdaten und zum intraoperativen Gewebe/Gefäßbaum unter Berücksichtigung der intraoperativen Verformungssituation des Gewebes.
  • Verfahren und System ermöglichen die Steigerung der Sicherheit bei der Diagnose und Therapie von Weichgewebe.
  • Verfahren und System ermöglichen die Senkung des Komplikationsrisikos bei der Diagnose und Therapie von Weichgewebe.
  • Da keine weiteren Geräte notwendig sind, entsteht der Vorteil ohne die Anschaffung weiterer Komponenten für die Behandlung.
  • Es zeigen:
  • 1 Ein System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung von biologischen Gefäßstrukturen,
  • 2 Merkmalsstrukturen von Gefäßen in einzelnen und räumlich benachbarten Schichtbildern,
  • 3 Abstrakte und räumliche Gefäß- und Gewebemodelle,
  • 4 Ein Display mit Echtzeitschichtbildaufnahme und Projektion von rekonstruierten Gefäßbaummodellen,
  • 5 Ein Navigiertes Display mit Echtzeitschichtbildaufnahme und Projektion von rekonstruierten Gefäßbaummodellen als Aufsichtschirm,
  • 6 Ein Navigiertes Display mit Videoeinblendung, Echtzeitschichtbildaufnahme und Projektion von rekonstruierten Gefäßbaummodellen als Aufsichtschirm,
  • 7 Ein Gewebereferenzmodell und verformtes Gewebereferenzmodell,
  • 1 zeigt ein erfindungsgemäßes System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung von biologischen Gefäßstrukturen. Es umfasst einen bildgebenden Sensor (1) zur intraoperativen Bildgebung des Gewebes (2) und der Gefäßstruktur (3). Des Sensor kann eine manuell oder endoskopisch geführte Ultraschallsonde oder ein Kleinröntgensensor sein oder ein andere Bildmodalität, die den Gefäßbaum abbilden kann. Die Bildinformation wird an einem Display (4) angezeigt. Der Bildschirm ist vorzugsweise ein Flachbildschirm mit angeschlossener Rechnereinheit (5) (Laptop, Panel-PC, usw.). Es wird ein Koordinatenmesssystem (6) verwendet (optisch, elektromagnetisch, mechanisch, usw.) zur kontinuierlichen Bestimmung der Lage (Position und Orientierung) von Landmarken im Raum. Die Landmarken repräsentieren Koordinatensysteme im Raum. Das Sensorkoordinatensystem (7) ist durch am Sensor befestigte Landmarken definiert. Ein Gewebekoordinatensystem (8) ist durch Landmarken am Gewebe oder in Gewebenähe befestigte Landmarken definiert. Ein Displaykoordinatensystem (9) ist durch Landmarken am Display definiert. Ein Instrumentenkoordinatensystem (11) ist durch Landmarken an einem Instrument (10) definiert. Als Koordinatenmesssystem ist im Bild eine Stereokamera und als Landmarken sind Reflektorsysteme dargestellt. Als Instrument ist ein einfacher Pointer dargestellt.
  • 2 zeigt Merkmalsstrukturen von Gefäßen in einzelnen und räumlich benachbarten Schichtbildern. Biologische Gefäßstrukturen sind auch in verrauschten Bilddaten wie beispielsweise Ultraschall -Schnittbilder durch kreisförmige bzw. elliptische Merkmale erkennbar. Im Bild ist ein Ultraschallbild (12) mit den Merkmalen (13) von drei Gefäßzweigen dargestellt. Diese Merkmale lassen sich in einem Menge bzw. Stapel von räumlich benachbarten Schnittbildern (14) wiederfinden und verfolgen, um die Struktur des Gefäßbaums (3) aus den Bilddaten zu rekonstruieren.
  • 3 zeigt ein abstraktes Gefäßbaummodell (15), das vor allem die Verzweigungsstruktur des Gefäßbaums enthält. Dieses wird zusammen mit der Information über Abstände und Durchmesser der Gefäßmerkmale (13) für die Rekonstruktion des räumlichen Gefäßbaummodells (16) verwendet. Es wird durch Ausbreitungsalgorithmen um Gewebe ergänzt bis hin zum räumlichen Gewebemodell (17)
  • 4 zeigt die Ultraschallsonde (1) mit einem darauf befestigten Kleindisplay (18). In diesem Fall sind Sensor- und Displaykoordinatensystem redundant. Auf dem Display ist das Schichtbild (12) mit den eingezeichneten Merkmalen (13) zu sehen. Zusätzlich ist eine Projektion (19) des rekonstruierten räumlichen Gefäßbaums auf dem Display angezeigt, die im Laufe der Zeit verblassen kann, um die Vergänglichkeit der Registrierungsinformation zu signalisieren.
  • 5 zeigt einen navigierten Flachbildschirm (4) mit Displaykoordinatensystem (9) der in direkter Nähe des Gewebes (2) angebracht ist und den Blickwinkel des Betrachters auf das Gewebe (2) berücksichtigt. Dies wird über die relative Lage des Displaykoordinatensystem (9) zum Gewebekoordinatensystem (8) erreicht. Am Bildschirm (4) sind die Umrisse des rekonstruierten Gewebemodells (17) sowie des rekonstruierten Gefäßbaums (16) dargestellt.
  • 6 zeigt einen navigierten Flachbildschirm (4) mit Displaykoordinatensystem (9) und Einblendung von Videoinformation (20) der in direkter Nähe des Gewebes(2) angebracht ist und den Blickwinkel des Betrachters auf das Gewebe (2) berücksichtigt. Dies wird über die relative Lage des Displaykoordinatensystem (9) zum Gewebekoordinatensystem (8) erreicht. Am Bildschirm (4) sind das Videobild des Gewebes (2), die Umrisses des rekonstruierten Gewebemodells (17) sowie des rekonstruierten Gefäßbaums (16) dargestellt. Weiterhin ist die Echtzeitbildgebung (12) lagerichtig eingezeichnet. Abweichungen der Lage der Rekonstruktion (17) und der Videodarstellung des Gewebes (2) geben Hinweise auf die Genauigkeit der Registrierung. Durch ein Verschieben des Displays kann die Registrierung verbessert werden.
  • 7 zeigt ein vorliegendes Gewebereferenzmodell (21) mit einem innenliegenden Gefäßbaum sowie ein verformtes Geweberefenzmodell (22), das an die Lage des in Echtzeit erfassten Gewebestrukturmodells bzw. Gefäßbaummodell angepasst ist.
  • Verfahren und System kommen folgendermaßen zum Einsatz: Echtzeitbilderfassung: Mit der intraoperativen Bildgebung (Ultraschall, Röntgen usw.) werden vom Chirurgen intraoperativ Aufnahmen des biegeschlaffen Gewebes mit dem darin liegenden Gefäßbaum aufgenommen. Dabei ist an dem bildgebenden Sensor (z.B. Ultraschallkopf, Ultraschall-Endoskop, Röntgensensor) ein Sensorkoordinatensystem definiert, dessen Lage (Position und Orientierung) im Raum über Landmarken von einer Koordinatenmesseinrichtung (optisch, elektromagnetisch, usw.) ständig erfasst werden kann. Der Sensor liefert kalibrierte Bilddaten, deren Lage relativ zum Sensorkoordinatensystem definiert bzw. bekannt ist.
  • Die Bilddaten des Sensors sind in der Praxis meist 2-dimensional. Die beschriebene Methode funktioniert jedoch auch mit 3-dimensionalen Bilddaten.
  • Segmentierung der Gefäßbaumquerschnitte: Ein Segmentierungsalgorithmus sucht in den Bildern nach den Schnitten bzw. Volumenelementen des Gefäßbaums. Dabei zeigt der Bildausschnitt in den meisten Fällen immer nur einen Ausschnitt des Gewebes und des Gefäßbaums.
  • Speicherung der Gefäßbaumquerschnitte: Die segmentierten Gefäßbaumelemente werden vom Computer mit ihrer räumlichen Lage gespeichert. Gespeichert werden für jeden im Bild sichtbaren Zweig des Gefäßbaums die Form, die Größe und die räumliche Position des Zweigelements.
  • Zur Erhöhung der Registrierungsgeschwindigkeit und der Verlängerung des zeitlichen Vertrauensintervalls für die Zuverlässigkeit der Registrierungsinformation ist es möglich, an dem Gewebe (Gefäßbaum) oder in seiner unmittelbaren Nähe (z.B. an der Hand oder Schale, in der sich das Gewebe befindet) ebenfalls ein Gewebekoordinatensystem zu definieren, dessen Lage (Position und Orientierung) im Raum über Landmarken von einer Koordinatenmesseinrichtung (optisch, elektromagnetisch, usw.) ständig erfasst werden kann. In diesem Fall wird die räumliche Lage des Sensors relativ zum dem Gewebe bestimmt.
  • Berechnung des abstrakten Gefäßbaummodells durch Analyse der Gefäßbaumquerschnitte in Bildfolgen: Wird der Sensor jetzt langsam über das Gewebe geschoben, dann kann über die gespeicherte Information der dabei aufgenommenen und in den Einzelbildern vorhandenen Informationen über Position, Form und Größe einzelner Zweigelemente ein Modell des Gefäßbaums erstellt werden. Dabei wird als zusätzliche Information das Wissen darüber verwendet, dass die Zweige des Gefäßbaumes miteinander verbunden sein müssen.
  • Speicherung der Baumstruktur des Gefäßbaums: Auf diesem Wege wird ein bildunabhängiges geometrisches Modell des Gefäßbaumes erstellt. Hierbei werden vor allem die Verzweigungsstruktur des Baumes und die Länge und Durchmesser der Äste zwischen Zweigen gespeichert. Dieses Verfahren funktioniert auch dann, wenn der Gefäßbaum sich bei den Aufnahmen verformt, da die Baumstruktur bei der Verformung unverändert bleibt. Selbst wenn der Gefäßbaum stark deformiert wird und sich die Volumen der Zweige verändern, bleibt die Baumstruktur erhalten.
  • Wird ein 3D Sensor verwendet, dann lässt sich das Verfahren analog mit Schnittbildern aus dem 3D-Sensor verwenden, wobei zumindest die Außenflächen des 3D-Bildes ausgewertet werden können, um das Anschlussbilder einzelnen 3D-Bilder zu ermöglichen.
  • Generierung eines Gewebemodells: Mit der Information über Größe, Lage und Struktur des Gefäßbaumes kann jetzt ein geometrisches Modell des Gewebes zwischen den Gefäßbäumen berechnet bzw. approximiert werden. Grundlage dieser Berechnung ist der bekannte Gewebe- bzw. organspezifische Zusammenhang zwischen Organ und Gefäßbaum. Auf diesem Wege wird auch ein Oberflächenmodell des Gewebes berechnet.
  • Registrierung mit einem präoperativ aufgenommenen Gefäßbaummodell: Auf der Grundlage des mit der intraoperativen Bildgebung aufgenommenen und berechneten Gefäßbaummodells kann ein Vergleich mit einem präoperativ berechneten Gefäßbaum durchgeführt werden. Dabei kann auch die räumliche Lage des präoperativen Gefäßmodells relativ zum Gewebekoordinatensystem berechnet werden (Registrierung). Dies geschieht auf der Basis des Verlaufs der Baumstruktur. Diese Berechnung ist deutlich einfacher als eine Deformationsberechnung des Gewebes und auch deutlich zuverlässiger. Das Gewebemodell folgt auch hier wieder dem Gefäßbaummodell.
  • Registrierung des Gefäßbaums in dem Echtzeitbild: Werden Gewebeabschnitte mit den innenliegenden Gefäßbaum erneut mit der Bildgebung (z.B. Ultraschall) erfasst, dann kann jetzt ein zuvor aufgenommenes Gefäßbaummodell (und Gewebemodell) sowie ein präoperativ aufgenommenes und registriertes Gefäßbaummodell (und Gewebemodell) auf der Basis der Verzweigungsinformation sowie der Länge und Größe der Verästelung in Echtzeit registriert und in seiner Lage zum Sensorkoordinatensystem bzw. Gewebekoordinatensystem kontinuierlich mitgeführt werden. Visualisierung des Gefäßbaums in dem Echtzeitbild: Mit der Lageinformation des Gefäßbaumes relativ zum Bildsensor kann die approximierte Lage des Gefäßbaums in das Echtzeitbild des Sensors eingezeichnet werden. Auf diese Weise erhält der Behandler sowohl die Information über die Lage des Gefäßbaums als auch die sehr wichtige Information, ob seine Wahrnehmung des Gefäßbaums mit der des System übereinstimmt. Erkennt der Behandler unterschiede zwischen Visualisierung und persönlicher Wahrnehmen, dann muss die Lage des Gefäßbaums neu registriert werden. Dies ist unter anderem dann der Fall, wenn Teile des Gewebes mit dem Gefäßbaum zerschnitten oder abgetrennt wurden.
  • Die Visualisierung kann 2-dimensional oder 3-dimensional erfolgen. Es ist sinnvoll, auch Strukturen des Gefäßbaums in das Bild einzublenden, die nicht im Einzelbild sichtbar sind. Die Visualisierung kann direkt am Ultraschallkopf erfolgen. Die Visualisierung kann mit einem Bildschirm über dem OP-Gebiet erfolgen.
  • Zeitliche Begrenzung der Registrierinformation: Da es sich um biegeschlaffes Gewebe handelt und dieses stark verformt werden kann, ist es sinnvoll die Lageregistrierung mit einem zeitlich befristeten bzw. abnehmenden Vertrauensintervall zu belegen und wiederholt eine Echtzeitbildgebung zur Auffrischung bzw. Aktualisierung der Lageinformation des Gefäßbaums zum Gewebekoordinatensystem vom Behandler anzufordern. Dies kann beispielsweise durch ein Verblassen der visualisierten Bilddaten oder auf expliziter Aufforderung hin geschehen.
  • Navigiertes Display bzw. Bildbetrachter: Mit einem navigierten Display ist es möglich, die Echtzeitbildgebung in der entsprechenden relativen Lage zum Gewebekoordinatensystem darzustellen. Es ist ebenfalls möglich, unterschiedliche Zusatzinformationen wie Oberflächendaten oder Trennlinien oder Schneiddaten in der entsprechenden relativen Lage zum Gewebekoordinatensystem darzustellen. Mit einen navigierten Durchlichtdisplay (Flachbildschirm mit rückseitig montierter kalibrierter Videokamera) kann zusätzlich das Originalgewebe auf dem Display dargestellt werden.
  • Registrierung mit dem navigierten Durchlicht-Display: Dies ermöglicht die Registrierinformation über eine weitere Bildmodalität, in diesem Fall visuell auf Videobildbasis zu kontrollieren und gegebenenfalls zu korrigieren. Dazu kann das Display so verschoben werden, bis die berechnete Bildinformation mit der realen Bildinformation übereinstimmt.
  • Navigation: Auf diesem Wege hat der Chirurg bei der bisherigen Behandlung von Weichgewebe jetzt ein Navigationssystem für registrierte Bilddaten zur Verfügung, das sich auf die Gefäßstruktur des Gewebes stützt.
  • Wie im bisherigen Stand der Technik können jetzt auch Instrumente sowie Planungsdaten in diese Bilddaten eingeblendet werden, um den Behandler bei der Schnittführung oder Resektion zu unterstützen.
  • 1
    Intraoperativer Bildsensor
    2
    Gewebe
    3
    Gefäßbaum
    4
    Display
    5
    Computer
    6
    Koordinatenmesssystem
    7
    Sensorkoordinatensystem
    8
    Gewebekoordinatensystem
    9
    Displaykoordinatensystem
    10
    Instrument
    11
    Instrumentkoordinatensystem
    12
    Ultraschallbild
    13
    Gefäßmerkmale
    14
    Menge von Schnittbildern
    15
    Gefäßbaumstrukturmodell
    16
    Räumliches Gefäßbaummodell
    17
    Räumliches Gewebemodell
    18
    Sensordisplay
    19
    Projektion des Gefäßmodells
    20
    Videobild
    21
    Gewebereferenzmodell
    22
    Verformtes Referenzmodell

Claims (11)

  1. Ein System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von biologischem Gewebe mit eingebetteten durch Bildgebung erfassbaren Baumstrukturen dadurch gekennzeichnet, dass die Lage eines kalibrierten Bildsensors (1, 7) relativ zu einem Gewebe (2, 8) erfasst (6) wird, Merkmale (13) eines im Gewebe (2) liegenden Gefäßbaumes (3) in einem Einzelbild (12) kontinuierlich ausgewertet werden und aus räumlich benachbarten oder sich schneidenden Einzelbildern einer Bildfolge (14) ein elementares Modell (15) der Baumstruktur (Knoten, Anzahl der Äste am Knoten, räumliche Anordnung der Verästelung am Knoten) sowie dessen Lage relativ zum Gewebe (2) berechnet und als Gefäßbaumstrukturmodell (15) gespeichert wird.
  2. Ein System nach Anspruch 1, dadurch gekennzeichnet, dass es neben dem elementaren Modell der Baumstruktur (15) auch Länge und Durchmesser der Äste berechnet und als Gefäßbaummodell (16) speichert.
  3. Ein System nach Anspruch 1-2, dadurch gekennzeichnet, dass es auf der Basis des Gefäßbaummodells (15, 16) ein räumliches Modell (17) des Gewebes (2) um den Gefäßbaum (3) herum berechnet und als Gewebemodell (17) speichert.
  4. Ein System nach Anspruch 1-3, dadurch gekennzeichnet, dass es die Lage (Position und Orientierung) eines in Echtzeit erfassten Gefäßbaumstrukturmodell (15) sowie eines Gefäßbaummodells (16) in einem vorher bekannten Gewebereferenzmodell (21) mit bekanntem Gefäßbaum berechnet. Das Gewebereferenzmodell (21) kann von dem System selbst aufgenommen worden sein, oder mit einem anderen bildgebenden System. Aus dem Gewebereferenzmodell (21) wird ein verformtes Gewebereferenzmodell (22) berechnet, das der aktuelle Lage (Position und Orientie rung) des Gefäßbaumstrukturmodells (15) und des Gefäßbaummodells (16) im Gewebe (2) entspricht.
  5. Ein System nach Anspruch 4, dadurch gekennzeichnet, dass es die Position des aktuellen Echtzeitbildes (12) im (verformten) Gewebereferenzmodell (21, 22) in dem Echtzeitbild (12) einzeichnet und dem Bediener anzeigt (4). Die Position kann numerisch, als Schnittbild, Ausschnitt, oder Projektion angezeigt werden.
  6. Ein System nach Anspruch 4, dadurch gekennzeichnet, dass es das aktuelle Echtzeitbild (12) in die Darstellung des (verformten) Gewebereferenzmodell (21, 22) einzeichnet und dem Bediener anzeigt (4). Die Darstellung des Echtzeitbildes (12) kann 2D oder 3D als Schnittbilder, Projektion oder Volumenelement erfolgen.
  7. Ein System nach Anspruch 5-6, dadurch gekennzeichnet, dass es Planungsdaten (Konturen, Linien, Oberflächen) die relativ zu einem (verformten) Gewebereferenzmodell (21, 22) bekannt sind, räumlich richtig relativ zur aktuellen Lage des Gewebestrukturbaums (15) des Gewebes (2) in die Darstellung des aktuellen Echtzeitbildes (12) sowie in eine Darstellung des (verformten) Gewebereferenzmodell (21, 22) einzeichnet. Die Planungsdaten können numerisch, als Schnittbild, Ausschnitt oder Projektion angezeigt (4) werden.
  8. Ein System nach Anspruch 5-7, dadurch gekennzeichnet, dass es die Lage eines Instruments (10) kontinuierlich erfasst (6,11) und räumlich richtig relativ zur aktuellen Lage des Gewebestrukturbaums (15) des Gewebes (2) in eine Darstellung des aktuellen Echtzeitbild (12), der Planungsdaten oder des (verformten) Gewebereferenzmodell (21, 22) einzeichnet.
  9. Ein System nach Anspruch 5-8, dadurch gekennzeichnet, dass es bei der Darstellung (4) die Lage (8) des Gewebes (2) relativ zum Bildschirm (4, 9) berücksichtigt und die Darstellung der Lage (8) des Gewebes zum Bildschirm (4, 9) so anpasst, dass die Ausrichtung des Gewebes (2) auf dem Bild der Ausrichtung des Gewebes (8) relativ zum Bildschirm (9) entspricht.
  10. Ein System nach Anspruch 9, dadurch gekennzeichnet, dass eine zum Bildschirm (4) kalibrierte Videokamera ein Bild (20) des Gewebes (2) aufnimmt und die Abweichung des Videobilds (20) des Gewebes von der Darstellung des (verformten) Gewebereferenzmodells (22) zur Messung der Übereinstimmung von Registrierung und Verformung verwendet wird.
  11. Ein System nach Anspruch 6-10, dadurch gekennzeichnet, dass die Planungsdaten zur Steuerung bzw. Regelung der Instrumentenleistung verwendet werden.
DE102004038610A 2004-08-08 2004-08-08 System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe Ceased DE102004038610A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004038610A DE102004038610A1 (de) 2004-08-08 2004-08-08 System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004038610A DE102004038610A1 (de) 2004-08-08 2004-08-08 System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe

Publications (1)

Publication Number Publication Date
DE102004038610A1 true DE102004038610A1 (de) 2006-03-16

Family

ID=35853443

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004038610A Ceased DE102004038610A1 (de) 2004-08-08 2004-08-08 System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe

Country Status (1)

Country Link
DE (1) DE102004038610A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1958570A1 (de) * 2007-02-15 2008-08-20 BrainLAB AG Verfahren zur Darstellung anatomischer Patientenstrukturen im interessierenden Bereich eines Bilderfassungsgeräts

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001093745A2 (en) * 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
WO2002034153A1 (de) * 2000-10-23 2002-05-02 Deutsches Krebsforschungszentrum Stiffung D. Öffentl. Rechts Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur
EP0969780B1 (de) * 1997-03-11 2002-12-18 Aesculap AG & Co. KG Verfahren und vorrichtung zur präoperativen bestimmung der positionsdaten von endoprothesenteilen
DE10162272A1 (de) * 2001-12-19 2003-07-10 Philips Intellectual Property Verfahren zur Unterstützung der Orientierung im Gefäßsystem
DE10206190A1 (de) * 2002-02-14 2003-09-04 Siemens Ag Verfahren und Vorrichtung zur Erzeugung eines Volumendatensatzes
US6708184B2 (en) * 1997-04-11 2004-03-16 Medtronic/Surgical Navigation Technologies Method and apparatus for producing and accessing composite data using a device having a distributed communication controller interface
EP1421913A1 (de) * 2002-11-19 2004-05-26 Surgical Navigation Technologies, Inc. Bildgesteuertes Katheter-Navigationssystem für die Herzchirurgie
EP1498851A1 (de) * 2003-07-15 2005-01-19 BrainLAB AG Bestimmung einer dreidimensionalen Form eines Körpers, insbesondere einer anatomischen Struktur, aus zweidimensionalen Projektionsbildern

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0969780B1 (de) * 1997-03-11 2002-12-18 Aesculap AG & Co. KG Verfahren und vorrichtung zur präoperativen bestimmung der positionsdaten von endoprothesenteilen
US6708184B2 (en) * 1997-04-11 2004-03-16 Medtronic/Surgical Navigation Technologies Method and apparatus for producing and accessing composite data using a device having a distributed communication controller interface
WO2001093745A2 (en) * 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
WO2002034153A1 (de) * 2000-10-23 2002-05-02 Deutsches Krebsforschungszentrum Stiffung D. Öffentl. Rechts Verfahren und vorrichtung zur navigation bei medizinischen eingriffen bzw. zur fixation einer nicht-knöchernen struktur
DE10162272A1 (de) * 2001-12-19 2003-07-10 Philips Intellectual Property Verfahren zur Unterstützung der Orientierung im Gefäßsystem
DE10206190A1 (de) * 2002-02-14 2003-09-04 Siemens Ag Verfahren und Vorrichtung zur Erzeugung eines Volumendatensatzes
EP1421913A1 (de) * 2002-11-19 2004-05-26 Surgical Navigation Technologies, Inc. Bildgesteuertes Katheter-Navigationssystem für die Herzchirurgie
EP1498851A1 (de) * 2003-07-15 2005-01-19 BrainLAB AG Bestimmung einer dreidimensionalen Form eines Körpers, insbesondere einer anatomischen Struktur, aus zweidimensionalen Projektionsbildern

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
LANGS,G. u.a.: Building and Registering Parameter-ized 3D Models of Vessel Trees for Visualization during Intervention. In: Proceedings of the 17th International Conference on Pattern Recognition, ICPR 2004, Vol.3, 23.-26. August 2004, S.726-729 *
LANGS,G. u.a.; Building and Registering Parameter- ized 3D Models of Vessel Trees for Visualization during Intervention. In: Proceedings of the 17th International Conference on Pattern Recognition, ICPR 2004, Vol.3, 23.-26. August 2004, S.726-729
MAGEE,D. u.a.: 3D Automated Segmentation and Structural Analysis of Vascular Trees Using De- formable Models. In: IEEE Workshop on Variational and Level Set Methods in Computer Vision, Pro- ceedings, 2001, S.119-126 *
PUJOL,O. u.a.: Three-Dimensional Reconstruction of Coronary Tree using Intravascular Ultrasound Ima- ges. In: Computers in Cardiology 1999, 1999, S.265-268
PUJOL,O. u.a.: Three-Dimensional Reconstruction ofCoronary Tree using Intravascular Ultrasound Ima- ges. In: Computers in Cardiology 1999, 1999, S.265-268 *
SELLE,D. u.a.: Analysis of Vasculature for Liver Surgical Planning. In: IEEE Transactions on Medi- cal Imaging, Vol.21, Iss.11, Nov.2002, S.1344- 1357 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1958570A1 (de) * 2007-02-15 2008-08-20 BrainLAB AG Verfahren zur Darstellung anatomischer Patientenstrukturen im interessierenden Bereich eines Bilderfassungsgeräts

Similar Documents

Publication Publication Date Title
EP2260784B1 (de) System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
DE69835422T2 (de) Messung im körperinneren
EP1127545B1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE19914455B4 (de) Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
EP2632382B2 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE112004002435B4 (de) Bestimmung von patientenbezogenen Informationen zur Position und Orientierung von MR-Bildern durch Individualisierung eines Körpermodells
DE102015226669A1 (de) Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
DE102010020284A1 (de) Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
WO2002034152A1 (de) Verfahren, vorrichtung und navigationshilfe zur navigation bei medizinischen eingriffen
DE102005023167A1 (de) Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
WO1994003100A1 (de) Verfahren zur darstellung des inneren von körpern
EP3393391A1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE102008002850A1 (de) Verfahren zur Anwendung eines Bildgebungs- und Navigationssystems
DE10015826A1 (de) System und Verfahren zur Erzeugung eines Bildes
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
DE102005029242A1 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102010062340A1 (de) Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
EP1348394A1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientdaten mit zweidimensionaler Anpassung
DE10334074A1 (de) System und Verfahren zur Erzeugung eines virtuellen Beobachtungs- und Zugangskanals in medizinischen 3D-Bildern
DE60318010T2 (de) Verfahren und vorrichtung zur rekonstruktion von knochenoberflächen während einer chirurgischen behandlung
DE102019200786A1 (de) Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102004038610A1 (de) System zur echtzeitfähigen Erfassung, Modellierung, Darstellung, Registrierung und Navigation von Gewebe

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection