DE69927001T2 - Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur - Google Patents

Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur Download PDF

Info

Publication number
DE69927001T2
DE69927001T2 DE69927001T DE69927001T DE69927001T2 DE 69927001 T2 DE69927001 T2 DE 69927001T2 DE 69927001 T DE69927001 T DE 69927001T DE 69927001 T DE69927001 T DE 69927001T DE 69927001 T2 DE69927001 T2 DE 69927001T2
Authority
DE
Germany
Prior art keywords
der
path
propagation
die
central region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69927001T
Other languages
English (en)
Other versions
DE69927001D1 (de
Inventor
Thomas Deschamps
Sherif Makram-Ebeid
Laurent Cohen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69927001D1 publication Critical patent/DE69927001D1/de
Application granted granted Critical
Publication of DE69927001T2 publication Critical patent/DE69927001T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)

Description

  • Die Erfindung bezieht sich auf ein Bildverarbeitungsverfahren zur Verarbeitung eines eine röhrenförmige Struktur darstellendes Bildes zur Bestimmung eines Pfades durch die genannte Struktur. Die Erfindung bezieht sich ferner auf ein Bildverarbeitungsverfahren, um das genannte Verfahren durchzuführen. Außerdem bezieht sich die Erfindung auf ein medizinisches CT- oder MR-Gerät mit Verarbeitungsmitteln, um 3D-Bildern zu konstruieren, sowie Verarbeitungsmitteln, um eine virtuelle Endoskopie basierend auf dem genannten Verfahren durchzuführen.
  • Die Erfindung findet ihre Anwendung in der medizinischen Geräteindustrie.
  • Ein Bildverarbeitungsverfahren zur Berechnung einer Flugbahn in medizinischen Bildern für die virtuelle Endoskopie ist bereits aus der Veröffentlichung „Automated Flight Path Planning for Virtual Endoscopy" von David S. PAIK, Christopher F. BEAULIEU et alii, in Med. Phys. 25 (5), Mai 1998, SS. 629–637, bekannt. In dieser Veröffentlichung wird eine automatische Berechnung einer Flugbahn zur Führung einer virtuellen endoskopischen Untersuchung von dreidimensionalen medizinischen Bildern beschreiben. Dieses Flugbahnfindungsverfahren zur Positionierung einer virtuellen, durch Bilder fliegenden Kamera beinhaltet eine Durchschnittsachsentransformation, die einen ersten Pfad liefert, und eine iterative Korrektur des genannten ersten Pfades in Richtung der Durchschnittsachse. Genauer gesagt umfasst dieses Verfahren folgende Schritte: Segmentierung des Volumens durch ein Regionenwachstums- und Blasenbeseitigungsverfahren; Berechnung eines ersten Pfades, indem ein Startvoxel und ein Endvoxel miteinander verbunden werden; iteratives Vorwärtsbringen der 3D-Durchschnittsachse, bezeichnet als Verbesserung des ersten Pfades; Glätten des Pfades zur Bestimmung von Positionen entlang der Durchschnittsachse, um die genannte Flugbahn zu bilden; Festlegen der Ausrichtung der virtuellen Kamera (Richtung und Verdrehung) entlang der Flugbahn.
  • Bei diesem Verfahren wird zunächst eine interessierende Struktur mit einem Regionenwachstumsalgorithmus definiert, der das 3D-Bild beginnend mit Kernelement-Voxeln segmentiert und interessierenden Regionen wachsen lässt, indem jedes Kernelement-Voxel 26 mit Voxeln verbunden wird, die ein Grenzwertkriterium erfüllen, und indem als „Blasen" bezeichnete Inhomogenitäten entfernt werden; anschließend berechnet dieses Verfahren eine euklidische Distanzkarte in einer interessierenden Region sowie einen ersten euklidischen Pfad, der die flachste Absenkung auf dieser Karte ist; dieser erste euklidische Pfad wird durch einen iterativen Schritt weiter zentralisiert, bei dem alle Oberflächenvoxel aus der interessierenden Region entfernt werden, wobei eine neue Distanzkarte und ein neuer Pfad durch diese neue Distanzkarte festgelegt werden, bis die interessierende Region bis zum Verschwinden ausgedünnt ist und nur noch der zentralisierte Pfad übrig bleibt.
  • Dieses bekannte Verfahren schafft Mittel zum Konstruieren einer Flugbahn, die in der genannten röhrenförmigen Struktur optimal zentriert ist. Für die Anwendung bei der virtuellen Endoskopie ist ein zentrierter Pfad eigentlich nicht optimal geeignet, um die virtuelle Kamera durch das röhrenförmige Objekt fliegen zu lassen, weil das anatomische röhrenförmige Objekt im Allgemeinen sehr gewunden ist, so dass ein zentrierter Pfad unnötigerweise sehr lang und kompliziert wäre. Außerdem wäre eine bestimmte auf dem genannten zentrierten Pfad zu findende Stelle nicht einmal korrekt, um die virtuelle Kamera zu positionieren, weil sich die genannte Stelle beispielsweise gerade vor einer wichtigen, die Sicht versperrenden Protuberanz befinden kann. Darüber hinaus nimmt die Durchführung des bekannten Verfahrens bei Benutzung der derzeit bekannten Berechnungsmittel mehrere Minuten in Anspruch, weil es bei dem Iterationsschritt verschiedene Distanzkarten berechnen muss, was unverhältnismäßig zeitaufwändig ist.
  • Ein weiteres solches System ist aus dem Dokument WO 98/11524 bekannt, das ein System zur Erzeugung einer dreidimensionalen Visualisierung eines Objektes, wie beispielsweise eines Organs, vorschlägt, bei dem Volumenvisualisierungsverfahren eingesetzt werden und das Bild mittels eines geführten Navigationssystems untersucht wird, welches dem Bediener ermöglicht, sich entlang einer Fugbahn zu bewegen und die Ansicht an einen bestimmten Teil des interessierenden Bildes anzupassen. Basierend auf drei Abstandswerten ordnet das System Voxeln eines ausgewählten Volumens des Objekts potenzielle Werte zu: einen Abstand zu einem Endpunkt, einen Abstand zur Objektoberfläche (z.B. Dickdarm) und einen Abstand zur Zentrallinie des Dickdarmraums. Der Abstand zum Endpunkt wird mittels herkömmlicher Wachstumsstrategien berechnet, und der Abstand zum Dickdarm oder zur Objektoberfläche wird mittels eines herkömmlichen Wachstumsverfahrens von den Oberflächenvoxeln nach innen berechnet. Um den Abstand zur Zentrallinie des Dickdarmraums zu bestimmen, wird zunächst die Zentrallinie extrahiert. Dieses Dokument schlägt eine Lösung zur Konstruktion eines endoskopischen Pfads von einem Startpunkt zu einem Endpunkt basierend auf der Bestimmung der Strukturwände des Objekts vor. Der endoskopische Pfad wird hier ebenfalls auf der Basis der Zentrallinie bestimmt.
  • Die Visualisierung volumetrischer medizinischer Bilddaten spielt eine wesentliche Rolle beim Diagnoseablauf und bei der Therapieplanung. Je besser Anatomie und Pathologie verstanden werden, desto effizienter lassen sich Operationen mit geringem Risiko durchführen. Im Wesentlichen gibt die virtuelle Endoskopie Einblicke in Regionen des Körpers, bei denen es gefährlich oder unmöglich ist, sie physikalisch mit einer Kamera zu erreichen, wie beispielsweise Hirngefäße, wobei die einzige Voraussetzung ist, zur besseren Erkennung ein Kontrastmittel in die anatomischen Objekte zu injizieren. Die virtuelle Endoskopie liefert perspektivische Ansichten der menschlichen Anatomie, simuliert von der Innenseite röhrenförmiger Strukturen. Dadurch kann der Benutzer komplexe anatomische Strukturen auf bequeme Weise nach der Datenerfassung und beinahe unmittelbar betrachten. Ein virtuelles Endoskopiesystem kann zwei Teile enthalten:
    Mittel für eine endoskopische Pfadkonstruktion, die eine kontinuierliche Fluglage durch die interessierende röhrenförmige Struktur schaffen;
    eine dreidimensionale Innenansicht entlang des endoskopischen Pfads; diese Ansichten werden aneinandergefügt und erzeugen eine Animation, die einen virtuellen Flug durch sie hindurch simuliert; die Ansichten können mittels bekannter 3D-Rendering- oder Ray-Tracing-Verfahren erzeugt werden.
  • Eine Aufgabe der Erfindung besteht darin, ein Verfahren zum Erfassen von Daten eines 3D-Bildes, das eine gewundene röhrenförmige Struktur darstellt, sowie zum automatischen Konstruieren des am besten geeigneten Pfads zu schaffen, dem man bei der Anwendung in der virtuellen Endoskopie in medizinischen 3D-Bildern innerhalb der genannten Struktur folgen kann. Eine weitere Aufgabe der Erfindung besteht darin, dafür zu sorgen, dass sich das genannte Verfahren in kürzerer Zeit als das bekannte Verfahren durchführen lässt, wenn dieselbe Art von Berechnungsmitteln verwendet wird.
  • Gemäß der Erfindung werden diese Aufgaben mittels eines Verfahrens nach Anspruch 1 gelöst.
  • Ein Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass der konstruierte Pfad in einer gewundenen röhrenförmigen Struktur zwei wichtige Eigenschaften aufweist: erstens wird dieser Pfad in einem vorgegebenen Abstand zu den Innenwänden der gewundenen röhrenförmigen Struktur gehalten, der sich vom Abstand der exakten Zentrallinie unterscheiden kann, aber besser geeignet ist, um eine gute Visualisierung des Objektinneren zu erhalten, wobei sichergestellt wird, dass die genannte Visualisierung nicht durch eine nahegelegene Protuberanz behindert wird; zweitens ist dieser Pfad auch der kleinste mögliche Pfad, der jedoch im genannten vorgegebenen Abstand zu den Innenwänden bleibt. Ein weiterer Vorteil ist, dass dieses Verfahren vollständig automatisiert ist, abgesehen davon, dass lediglich zwei Endbedingungen eingestellt werden müssen und nur ein kleiner Teil des 3D-Bildes zur Findung des Pfads inspiziert werden muss. Ein weiterer Vorteil ist, dass nur eine erste Berechnung einer Distanzkarte erforderlich ist, wobei die genannte Distanzkarte die zur Durchführung der weiteren Schritte des Verfahrens erforderlichen Daten liefert. Somit ist das Verfahren nicht zeitaufwändig: nur 10 bis 30 Sekunden sind erforderlich, um die Schritte zur Bereitstellung des Pfads mit derselben Art von Berechnungsmitteln wie beim zitierten Verfahren nach dem Stand der Technik durchzuführen. Ein weiterer Vorteil dieses Verfahrens ist, dass es weiterhin die Bildung einer 3D-Innenansicht der Struktur entlang dieses Pfads ermöglicht, ohne dass außer der Einstellung der genannten beiden Endbedingungen ein weiterer Benutzereingriff erforderlich ist; außerdem ermöglicht es die Visualisierung des Inneren der genannten Struktur, ohne an die Innenwänden zu stoßen, ohne die genannten Wände zu kreuzen und ohne durch Teile der inspizierten röhrenförmigen Struktur behindert zu werden. Insbesondere ermöglicht dieses Verfahren die Visualisierung des Inneren eines anatomischen Objekts in dreidimensionalen CT- oder MR-Bildern auf virtuelle Art und auf eine automatisierte Weise. Daher kann dieses Verfahren auf die virtuelle Endoskopie angewandt werden.
  • Ferner hat die Erfindung zur Aufgabe, ein System zum Ausführen dieses Verfahrens sowie ein medizinisches Gerät mit Mitteln zum Erfassen von 3D-Bildern und mit einem System zu schaffen, um die Bilder gemäß dieses Verfahrens für die virtuelle Endoskopie zu verarbeiten.
  • Dieses Problem wird durch ein System nach Anspruch 1 beziehungsweise durch ein Gerät nach Anspruch 10 gelöst.
  • Die Erfindung wird im Folgenden ausführlich unter Bezugnahme auf die schematischen Figuren beschrieben. Es zeigen:
  • 1A und 1B funktionale Blockdiagramme der Verfahrensschritte;
  • 2A bis 2C das röhrenförmige Objekt in den Schritten des Verfahrens;
  • 3 ein medizinisches Gerät mit Mitteln zur Durchführung des Verfahrens.
  • Die Erfindung bezieht sich auf ein Bildverarbeitungsverfahren zum Verarbeiten eines mehrdimensionalen Bildes, beispielsweise eines als 3D-Originalbild bezeichneten dreidimensionalen Bildes, das ein röhrenförmiges, gewundenes Objekt vor einem ungleichmäßigen Hintergrund darstellt. Dieses Verfahren umfasst Schritte zum Durchführen einer automatischen Konstruktion einer bestmöglichen Flugbahn, die von einem gegebenen Startpunkt ausgeht und sich innerhalb des genannten röhrenförmigen gewundenen Objekts erstreckt, bis ein Endzustand erreicht ist. In der folgenden Beschreibung wird das Verfahren als Beispiel auf die virtuelle Endoskopie und dabei insbesondere auf die virtuelle Kolonoskopie (Darmspiegelung) angewandt, einem medizinischen Verfahren, bei dem praktische Ärzte volumetrische CT- oder MR-Bilder verwenden können, um das Innere des Dickdarms zu visualisieren, ohne dass dazu ein physikalisches Endoskop in den Dickdarm eines Patienten eingeführt werden muss, das heißt, ohne invasive Mittel. Gemäß vorliegender Erfindung kann der praktische Arzt schnell den am besten geeigneten Pfad finden, um virtuell innerhalb des im 3D-Bild dargestellten, topologisch komplexen Dickdarms zu navigieren. Das Bildverarbeitungsverfahren der Erfindung umfasst Schritte, um eine solche Flugbahn mit minimaler Benutzerinteraktivität zu erstellen. Dieses Bildverarbeitungsverfahren stellt eine automatische Pfadfindungstechnik dar, die in verschiedenen Bereichen der medizinischen Bildgebung angewandt werden kann.
  • Ein Verfahren zum Bestimmen einer minimalen Kontur, bezeichnet als minimaler Pfad, eines Objekts zwischen zwei Endpunkten in einem 2D-Bild, ist in der Veröffentlichung „Global Minimum for Active Contour Models: A minimal Path Approach" von Laurent D. COHEN und Ron KIMMEL, im International Journal of Computer Vision 24 (1), 57.58 (1997), beschrieben. Dieses Verfahren umfasst Schritte des manuellen Auswählens eines Startpunkts und eines Endpunkts in einem Konturbereich eines Gradientenbildes; des Ausbreitens einer Frontlinie im genannten Gradientenbild, beginnend am Startpunkt, dergestalt, dass sich diese Frontlinie mit geringeren Kosten in Regionen hoher Gradientenwerte ausbreitet, demnach hauptsächlich in genanntem Konturbereich, bis der Endpunkt erreicht ist; und Schritte des Zurückführens („Back-Propagation") vom Endpunkt zum Startpunkt durch einen einfachen steilsten Gradientenabfall, der einen minimalen Pfad zwischen dem Startpunkt und dem Endpunkt und dadurch eine binäre Kontur eines gegebenen Objekts im 2D-Bild liefert. Der genannte minimale Pfad ist ein Pfad minimaler Kosten zwischen zwei Punkten, d.h. ein Pfad, entlang dem die Integration über ein Potenzial, das in der Nähe von Konturen geringere Werte annimmt, minimal ist. Diese Veröffentlichung bezieht sich auf einen Algorithmus für das Ausbreiten einer Front in einem potenziellen 2D-Raster von Punkten, unter Verwendung eines „Fast Marching"-Verfahrens mit einer Bestimmung der Frontpunkte mittels eines in einem Buch von SETHIAN, 1996b, „Levelsets Method: Evolving Interfaces in Geometry, Fluid Mechanics, Computer Vision and Material Sciences", Cambridge University Press, dargelegten „Min Heap"-Verfahrens. Die Front ist eine Lösung einer so genannten Eikonal-Gleichung, die folgendermaßen lautet: |∇T|F = 1wobei F die Geschwindigkeit der sich bewegenden Front und T die Überquerungszeit ist. Der „Fast Marching"-Algorithmus berücksichtigt, dass sich Informationen von kleineren Werten der Zeit T zu größeren Werten ausbreiten. Der Algorithmus wird schnell gemacht, indem eine Reihe von Punkten in einem „Schmalband" um die bestehende Front herum berücksichtigt wird und dieses Schmalband vorwärts durchlaufen wird, wobei die Werte der vorhandenen Punkte eingefroren werden und neue in die Schmalbandstruktur eingebracht werden. Die Auswahl der Rasterpunkte zur Aktualisierung des „Schmalbands" erfolgt, indem die Rasterpunkte in einer „Min Heap"-Struktur angeordnet werden, die ein vollständig binärer Baum mit einer Eigenschaft ist, dass der Wert an jedem gegebenen Knoten kleiner oder gleich den Werten an seinen Kindern ist. Die Effizienz des Algorithmus hängt von der Zeit für die Lokalisierung der Punkte innerhalb des „Schmalbands" mit minimaler Ankunftszeit ab.
  • Gemäß vorliegender Erfindung wird ein automatisches Pfadverfolgungsverfahren in einem 3D-Bild geschaffen, indem ein Pfadverfolgungsvorgang in einen zwischen zwei festen Endpunkten vorgenommenen Verfolgungsvorgang für den kürzesten Pfad abgebildet wird. Durch Definieren einer Kostenfunktion innerhalb eines Bildes ist der kürzeste Pfad derjenige Pfad, dessen Integral der Kosten zwischen den beiden Endpunkten minimal ist. Nun wird der Vorgang, den minimalen Pfad zu finden, in einen Vorgang, die Lösung einer Frontausbreitungsgleichung mit einer gegebenen Anfangsfront zu finden, abgebildet. Die genannte Gleichung wird von der Eikonal-Gleichung abgeleitet. Da der resultierende Pfad der kürzeste ist, muss die Kostenfunktion ein geeigneter minimaler Größenwert sein. Gemäß der Erfindung werden jedoch zusätzliche Bedingungen festgelegt, damit die vorgeschlagene Kostenfunktion geeignet sein kann, einen endoskopischen Pfad für den Flug durch die gewundene röhrenförmige Struktur zu liefern.
  • Der erfindungsgemäße Pfad ist weder der bestzentrierte Pfad (Zentrallinie), noch ist es der kürzeste Pfad (Back-Propagation im Gradientenbild).
  • Der erfindungsgemäße Pfad ist der kürzeste unter den Pfaden, die am weitesten von der Wand entfernt liegen.
  • Zu diesem Zweck wird der genannte Pfad in einer Region positioniert, deren Ränder einen gleichen Abstand von den Wänden haben. Der genannte Pfad ist daher für den Flug durch die gewundene röhrenförmige Struktur mit der besten Ansicht des Strukturinneren geeignet.
  • Deshalb umfasst die Erfindung eine erste Phase zur Bildung eines bildbasierenden Größenwertes, um einen spezifischen minimalen Größenwert in dem 3D-Bild zu definieren und diesen in die Eikonal-Gleichung einzusetzen. Gemäß diesem Größenwert breitet sich in einem Bildbereich eine Front aus, beginnend von einer Anfangsfront, die auf einen der festen Punkte begrenzt ist. Die Ankunftszeiten an jedem Punkt des Bereichs werden mit der Eikonal-Gleichung berechnet und ergeben die Kosten, um von den genannten Punkten zum Startpunkt zu gelangen. Der Ausbreitungsvorgang wird gestoppt, sobald der zweite feste Punkt von der Front erreicht wurde. Die berechneten Kosten bilden eine Kostenkarte, die konvex ist und nur ein globales Minimum hat. Das „Fast Marching"-Verfahren wird an die Rasterpunkte des 3D-Bildes angepasst. Zu diesem Zweck bilden die Voxel, die dicht an einer aktuellen Front während deren Ausbreitung liegen, ein „Schmalband" von Voxeln, die bei jedem Schritt der Frontausbreitung in „Min Heap"-Strukturen gespeichert werden, um so effizient lokalisiert zu werden. Eine wichtige Eigenschaft ist, dass sich die Front in Regionen geringer Kosten schneller ausbreitet. Gemäß der Erfindung ist vorgesehen, dass die Kosten innerhalb der röhrenförmigen Struktur niedriger und anderswo, insbesondere in den Randzonen, höher sind. Zu diesem Zweck basiert der Größenwert auf Graustufeninformationen, damit sich die Front innerhalb der Graustufenregionen schneller ausbreitet und an der Objektgrenze praktisch stoppt. Dadurch lassen sich die Grenzen des röhrenförmigen Objektes korrekt erfassen.
  • Den kürzesten Pfad zwischen End- und Anfangspunkten könnte man durch Verwendung eines Back-Propagation-Abfalls entlang des steilsten Gradientenwerts vom Endpunkt zum Anfangspunkt erhalten, wobei, wie oben beschrieben, dieser kürzeste Pfad jedoch nicht geeignet ist, um das Problem der Erfindung zu lösen, weil er zu nahe an den röhrenförmigen Objektwänden um jede Pfaddrehung herum liegt, während der erwünschte endoskopische Pfad wie oben beschrieben positioniert sein sollte.
  • Zu diesem Zweck umfasst die Erfindung eine zweite Phase zur Schaffung eines zweiten Kostengrößenwertes, der nahe den Rändern hoch und in der Mitte des Objekts niedrig ist, indem eine Distanzkarte des gegenüberliegenden Abstands zu den röhrenförmigen Objektwänden berechnet wird. Der erwartete beste Pfad sollte so weit wie möglich von den Objekträndern entfernt sein, wobei berücksichtigt wird, dass der Radius des Objekts in bestimmten Regionen entlang des Pfades erheblich variieren kann, d.h. der Abstand von den Wänden entlang der Zentrallinie des Objekts ist nicht konstant; dies ist der Grund, warum die Distanzkarte ein Schwellenwert ist, um zu vermeiden, dass der endoskopische Pfad plötzliche Wendungen aufweist, wenn das röhrenförmige Objekt eine scharfe Biegung hat. Somit ist der endoskopische Pfad nicht absolut zentriert, sondern er befindet sich in einer Region, deren Ränder einen gleichen Abstand zu den Wänden haben.
  • Um schließlich den geeigneten endoskopischen Pfad zu erhalten, führt das erfindungsgemäße Verfahren diese beiden Phasen in fünf Hauptschritten durch, die -lich drei verschiedene Frontausbreitungen umfassen. Bezug nehmend auf 1A sind diese Hauptschritte:
    • 1. Erfassung 1 von 3D-Bilddaten 10, die das röhrenförmige Objekt 11 darstellen;
    • 2. Ausbreitung 2 einer ersten Front F1 in dem 3D-Bild von einer ersten Anfangsfront, die der Startpunkt 21 ist, bis ein Endpunkt 22 erreicht ist, um abschließende Schmalbandpunkte NB1 von abschließenden frontgekennzeichneten Randpunkten des röhrenförmigen Objekts zu berechnen;
    • 3. Ausbreitung 3 einer zweiten Front F2 von einer zweiten, aus genannten Randpunkten gebildeten Anfangsfront NB1 zur Objektmitte, um die Distanzkarte von zweiten Randpunkten im Hinblick auf die genannte Objektgrenze NB1 zu berechnen und eine zweite Anfangsfront NB2 zu liefern; Schwellenzwertbildung für diese Distanzkarte und Invertierung der genannten Schwellenwertdistanzkarte, um einen Größenwert für den Abstand von der Objektmitte zu liefern;
    • 4. Verwendung des genannten Abstandsgrößenwerts für die Ausbreitung 4 einer dritten Front F3 von genanntem Startpunkt 21, bis der Endpunkt 22 erreicht und somit der endoskopische Pfad EP bereitgestellt ist, der in der von der zweiten abschließenden Front NB2 definierten Zentralregion CR liegt.
  • Bezug nehmend auf 1B und 3 wird das vorliegende Verarbeitungsverfahren beispielsweise auf medizinische Bilder des Dickdarms eines Patienten angewendet und umfasst:
    • 1. Schritt 1, mit den folgenden Teilschritten:
    • a. Datenerfassung 1a eines 3D-Originalbildes 10, das ein röhrenförmiges, gewundenes Objekt 11 vor einem ungleichmäßigen Hintergrund BG darstellt, und Anzeige des genannten Bildes, beispielsweise auf einem Bildschirm 140 einer Workstation 130 mit Rechenmitteln 120, um diese Bilddaten zu verarbeiten. In dem genannten Beispiel ist das röhrenförmige Objekt der Dickdarm. Dieses medizinische Originalbild kann mit einem beliebigen Verfahren wie beispielsweise dem CT- oder MR-Verfahren erlangt werden. Die Erfindung ist nicht davon abhängig, auf welche Weise das 3D-Originalbild erlangt wird.
    • b. Verstärkung 1b der Bildgraustufen. Im 3D-Originalbild 10 hat der Dickdarm 11 geringere und etwas gleichmäßigere Graustufenwerte als der Hintergrund. In einer bevorzugten Ausführungsform werden die als Voxelwerte bezeichneten Voxelgraustufen verstärkt, um sie auf noch niedrigere und gleichmäßigere Werte innerhalb des gewünschten anatomischen Objekts festzulegen. Zu diesem Zweck kann die Graustufe jedes Voxels durch eine nichtlineare Funktion der genannten Graustufe ersetzt werden, wie beispielsweise den Quadratwert der Graustufe oder die Differenz zwischen der Originalgraustufe des genannten Voxels und der mittleren Graustufe der röhrenförmigen Struktur. Durch diesen Vorgang wird der Kontrast zwischen der Graustufe im inneren Teil der röhrenförmigen Struktur im Hinblick auf die Graustufe ihrer Ränder in einem Bild 20 verstärkt.
    • c. Festlegung 1c eines Startpunkts 21 in der Dickdarmregion und Bestimmung eines Endzustands 22. Beispielsweise kann der Startpunkt 21 mit Hilfe der Maus 132 oder der Tastatur 131 der Workstation 130 ausgewählt werden. Der Endzustand kann unter anderem über die Workstationmittel eingegeben werden: entweder ein Zielpunkt 22 oder das Extrem eines am Startpunkt 21 beginnenden euklidischen Pfads.
    • 2. Schritt 2, veranschaulicht in 2A, mit den folgenden Teilschritten:
    • a. Ausbreitung 2a einer ersten Front F1, basierend auf den Voxelgraustufendaten in diesem 3D-Bild 20, beginnend am Startpunkt 21, und Ausbreiten der Front F1, bis der Endzustand 22 erreicht ist; entweder hat die Front F1 den vorgegebenen, als Endpunkt bezeichneten Zielpunkt erreicht, oder die Front hat das Extrem der gegebenen euklidischen Pfadlänge erreicht. Für den Fall, dass die euklidische Pfadlänge als Endzustand verwendet wird, wird der zuletzt von der Front aufgesuchte Punkt als der eigentliche Endpunkt betrachtet. An jedem aufgesuchten Punkt der Front F1 werden die kumulierten Kosten für das Erreichen dieses Punktes errechnet. Für das Verbinden dieses Punktes mit dem Startpunkt wird eine nichteuklidische Pfadlänge ausgewertet. Alle bei diesem Teilschritt errechneten kumulierten Kosten bilden eine Kostenkarte. Die Front ist eine sich entwickelnde Schnittstelle, die wie ein innerhalb des 3D-Bildes aufgeblasener Ballon wächst, vorzugsweise in den im Wesentlichen gleichmäßigen Bereichen mit geringen Graustufen des Dickdarms. Die Front ist eine Oberfläche minimaler Aktion, die die Lösung der Eikonal-Gleichung wie beispielsweise an jedem aktuellen Punkt des Bildes ist, wobei der Wert dieser Oberfläche der minimalen Energie entspricht, integriert entlang eines Pfades, der am Startpunkt beginnt und an genanntem aktuellem Punkt endet. Ein vom bekannten „Fast Marching"-Verfahren abgeleitetes Marching-Verfahren wird benutzt, um diese Oberfläche basierend auf der Tatsache auszubreiten, dass die Graustufeninformationen ab dem Startpunkt ausgebreitet werden, sowie auf der Tatsache, dass die Lösung der Eikonal-Gleichung an einem gegebenen Punkt nur von solchen benachbarten Punkten abhängt, die geringere Graustufenwerte haben, wodurch ein Verfahren des Wanderns auf geordnete Weise geschaffen wird. Je geringer der Graustufenwert des aktuellen Voxels ist, desto geringer sind die Kosten, um vom Startpunkt zum genannten aktuellen Voxel zu gelangen. Dieser Teilschritt wird am Startpunkt initialisiert und bis zu den acht nächsten Nachbarn fortgesetzt. Bei jedem dieser Nachbarn werden die Kosten entsprechend der Eikonal-Gleichung auf folgende Weise berechnet: ∇U1 = P1wobei U1 die berechnete Distanz und P1 entweder der Pixelwert oder vorzugsweise die nichtlineare Funktion der Graustufe ist. Die bei jedem aufgesuchten aktuellen Punkt berechnete Eikonal-Gleichung ergibt die Kostenwerte, die die erste, eine erste Distanzkarte bildende Kostenkarte bilden. Von jedem der genannten acht ersten Nachbarn wird die Front F1 zu acht neuen Nachbarn einer ersten Distanzgruppe ausgebreitet, ausgenommen die Voxel, die bereits aufgesucht wurden, und so weiter, bis der Endzustand erreicht ist. Bei den Nachbarn mit der geringsten Graustufe sind die Kosten für das Aufsuchen der genannten Voxel niedriger. Somit breitet sich die Front F1 in den Voxeln mit den geringsten Graustufen schneller aus, und die Ausbreitung der Front wird gestoppt, sobald der Endzustand 22 erreicht ist. Ein Vorteil dieses auf Graustufeninformationen basierenden Ausbreitungsver fahrens ist, dass sich in dem Moment, in dem der Endzustand 22 erreicht ist, die Front nur in den Dickdarmregionen 11 ausgebreitet hat, die gleichmäßige Graustufenwerte haben, d.h. es brauchen nur die internen Voxel des Dickdarms aufgesucht zu werden, anstatt alle Voxel des 3D-Bildes, was eine drastische Zeiteinsparung bei der Berechnung in der Größenordnung von 90% darstellt. Ein weiterer Vorteil besteht darin, dass in dem Moment, in dem der Endzustand erreicht ist, das von den Punkten der Abschlussfront gebildete endgültige Schmalband NB1 an den Grenzen des Dickdarms bleibt, wo sich die Graustufenwerte ziemlich schnell ändern und hoch sind. Dadurch kann die Front F1 die Dickdarmgrenzen NB1 nicht überqueren. Dies ist ein großer Vorteil, weil der Dickdarm in dreidimensionaler Ansicht ein ziemlich gewundenes Objekt mit sehr schwer zu folgenden Grenzen ist. Gemäß dem erfindungsgemäßen Verfahren kann die Front den Dickdarm nicht verlassen. In diesem Teilschritt wird das Bild in eine Klasse von aufgesuchten Voxeln, d.h. die Voxel des Dickdarms 11, und in nicht aufgesuchte Voxel, d.h. diejenigen des Hintergrundes BG, segmentiert.
    • b. Kennzeichnung 2b der Randvoxel. Unter den aufgesuchten Voxeln wird das Bild erneut in eine Klasse interner Voxel 11 des Dickdarms und in eine Klasse der abschließenden frontvoxelmarkierten Randvoxel NB1 segmentiert. Dieser Schritt ist insbesondere wichtig, weil er es ermöglicht, diese Randpunkte zu lokalisieren.
    • 3. Schritt 3, veranschaulicht durch 2B, mit den folgenden Teilschritten:
    • a. Ausbreitung 3a einer zweiten Front F2 3a. Unter Verwendung eines Frontausbreitungsverfahrens wie oben beschrieben wird dafür gesorgt, dass sich ausgehend von einer zweiten Anfangsfront bestehend aus den Punkten des abschließenden Schmalbandes NB1 aus dem vorhergehenden Schritt 2, das die Randklasse bildet, eine zweiten Front F2 basierend auf dem Abstand zwischen Voxeln und nicht auf den Graustufenwerten innerhalb des Dickdarms 11 zur Mitte des Dickdarms hin ausbreitet, und zwar gemäß der Eikonal-Gleichung: ∇U2 = P2wobei U2 der Abstand der aktuellen Front F2 zu der am Rand des Dickdarms befindlichen Anfangsfront NB1 ist und P2 überall gleich 1 ist. Dieser Teilschritt verwendet keine Graustufeninformationen mehr; es wird angenommen, dass die Graustufe innerhalb des röhrenförmigen Objekts gleichmäßig ist. Diese zweite Frontausbreitung stellt eine Deflation dar, die eine neue Kostenkarte innerhalb des Objekts liefert, welche an jedem Punkt den Ab stand U2 zu den Wänden angibt, und somit eine zweite Distanzkarte liefert; bei jedem Schritt dieses zweiten Ausbreitungsverfahrens bildet die Front F2 Oberflächen, die gleichweit von der Anfangsfront NB1, d.h. dem Rand des Objekts, entfernt sind. Die genannte neue Kostenkarte ist so definiert, dass die Kosten umso geringer sind, je weiter der aktuelle Punkt von den Wänden des Dickdarms entfernt ist. Dieser Vorgang legt eine zentrale Region CR des Dickdarms fest, die durch eine Endfront NB2 dieser Deflation 3a begrenzt ist, welche die Ränder dieser zentralen Region CR bildet, die gleichweit von den Rändern NB1 des röhrenförmigen Objekts 11 entfernt sind.
    • b. Schwellenwertbildung 3b des Abstands U2 zwischen der Anfangsfront NB1 und der Endfront NB2, d.h. zwischen dem anfänglichen, von den Randpunkten des Objekts gebildeten Schmalband und dem abschließenden, von den Randpunkten der zentralen Region CR gebildeten Schmalband. Dieser Schwellenwertabstand kann in Millimetern ausgewertet werden, wie beispielsweise 10 mm.
    • c. Invertierung 3c des Abstands U2 in der Distanzkarte, um die Berechnungszeit zu verkürzen.
    • 4. Schritt 4, veranschaulicht durch 2C, mit Ausbreitung einer dritten Front F3 gemäß der Eikonal-Gleichung: ∇U3 = P2 mit P3 = 1/(1 + U2)wobei U3 die Ausbreitungszeit dieser dritten Front F3 ist. Diese dritte Front F3 breitet sich vom Startpunkt 21 zum Endpunkt 22 sowie in der im vorhergehenden Schritt festgelegten zentralen Region aus. Gemäß dieser Gleichung ist die Ausbreitungszeit in der Mitte der zentralen Region CR sehr kurz und an den Rändern der zentralen Region NB2 länger. Je besser der Ausbreitungspfad zentriert ist, desto geringer sind folglich die Kosten, denn je besser der Ausbreitungspfad zentriert ist, desto kürzer ist die Ausbreitungszeit. Der resultierende Pfad EP ist nun am besten in der zentralen Region CR zentriert; es ist der kürzeste Pfad innerhalb der genannten Region CR; es ist der am weitesten von den Wänden des röhrenförmigen Objekts NB1 in dem anatomischen Objekt 11 entfernt liegende Pfad; und er wird als endoskopischer Pfad EP genommen.
  • Bezug nehmend auf 3 können Bildsignale von Einzelbildern, geliefert beispielsweise durch ein Röntgengerät 200, an ein bekanntes System 110 zur Konstruktion von 3D-Bildern, zum Beispiel an ein 3D-Rendering-System, weitergeleitet werden. Von diesem bekannten System werden die 3D-Bilddaten an ein Bildverarbeitungssystem 120 zur Verarbeitung der Daten gemäß dem erfindungsgemäßen Verfahren weitergeleitet. Bei dem Bildverarbeitungssystem 120 kann es sich um einen in geeigneter Weise programmierten Computer einer Workstation 130 mit einem Bildschirm 140 oder einen Spezialprozessor mit Schaltungsmitteln handeln, die dafür eingerichtet sind, die Funktionen der Verfahrensschritte gemäß der Erfindung auszuführen. Die Workstation 130 kann auch eine Tastatur 131 und eine Maus 132 umfassen. Das Bildverarbeitungssystem 120 umfasst auch virtuelle Kameramittel zum Simulieren einer virtuellen Kamera, die einen virtuellen Flug innerhalb des röhrenförmigen Objekts durchführt, wobei die genannte virtuelle Kamera dem endoskopischen Pfad folgt, der gemäß dem Verfahren der Erfindung festgelegt wurde. Die virtuellen Kameramittel erzeugen eine Animation, die den virtuellen Flug simuliert.

Claims (10)

  1. Automatisiertes Bildverarbeitungsverfahren zur Verarbeitung eines dreidimensionalen, eine röhrenförmige Struktur (11) darstellenden Bildes mit Wänden, das die folgenden Schritte umfasst: Bestimmen einer Oberfläche innerhalb der röhrenförmigen Struktur in einem vorgegebenen konstanten Abstand zu den Wänden der röhrenförmigen Struktur, wobei die genannte Oberfläche eine zentrale Region (CT) der genannten röhrenförmigen Struktur definiert, und Verwenden der genannten zentralen Region (CR) zum Bestimmen einer Flugbahn (EP) innerhalb dieser röhrenförmigen Struktur zwischen einem ersten vorgegebenen Endpunkt und einem zweiten Endpunkt (21, 22), wobei die genannte Flugbahn als der kürzeste Pfad zwischen genannten Endpunkten festgelegt ist, das heißt, am besten innerhalb der genannten Region (CR) zentriert ist.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Bestimmens der zentralen Region einen Teilschritt des Bestimmens einer Lage von Strukturwandpunkten beinhaltet.
  3. Verfahren nach Anspruch 2, wobei der genannte Teilschritt Folgendes umfasst: Auferlegen von im Wesentlichen niedrigen Graustufenwerte auf strukturinterne Voxel, und Ausbreiten einer ersten Front (F1) ausgehend von einer ersten Anfangsfront, reduziert auf den ersten Endpunkt, basierend auf Graustufenwerten, die eine erste, aus den Strukturwandpunkten gebildete Endfront (NB1) bestimmt, wenn der zweite Endpunkt erreicht ist.
  4. Verfahren nach Anspruch 3, wobei der Schritt des Bestimmens der zentralen Region weiterhin umfasst: Ausbreiten einer zweiten Front (F2) ausgehend von einer zweiten Anfangsfront, die die erste Endfront (NB1) ist, basierend auf Abstandswerten, in Richtung der Mitte der Struktur, die eine zweite Endfront (NB2) bestimmt, deren Voxel gleichmäßig von der zweiten Anfangsfront entfernt liegen, die ebenfalls die genannte zentrale Region (CR) innerhalb der zweiten Endfront bestimmt.
  5. Verfahren nach Anspruch 4, wobei das Verfahren weiterhin umfasst: Ausbreiten einer dritten Front (F3) innerhalb der zentralen Region vom ersten Endpunkt zum zweiten Endpunkt, wodurch die genannte Flugbahn (EP) bestimmt wird.
  6. Verfahren nach Anspruch 5, wobei der Teilschritt des Ausbreitens der dritten Front (F3) basierend auf einer Distanzkarte ausgeführt wird, die anhand der Ausbreitung der zweiten Front (F2) errechnet wurde, deren Schwellenzwert gebildet wurde und die invertiert wurde.
  7. Verfahren nach einem der Ansprüche 3 bis 6, wobei die Frontausbreitungen entlang Oberflächen minimaler Energie erfolgen, integriert zwischen den Anfangsfronten und den Endfronten gemäß der Eikonal-Gleichung.
  8. Verfahren nach Anspruch 7, wobei die erste Frontausbreitung auf den Graustufenwerten und Voxelabständen basiert, die zweite Frontausbreitung auf dem Abstand der aktuellen Front zur Anfangsfront (NB1) bei genannter Ausbreitung basiert, und die dritte Frontausbreitung auf der Ausbreitungszeit zwischen den beiden Endpunkten in der zentralen Region (CR) basiert.
  9. System, umfassend einen in geeigneter Weise programmierten Computer einer Workstation oder einen Spezialprozessor mit Schaltungsmitteln, die dafür eingerichtet sind, das Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen, und mit Mitteln, um gemäß genanntem Verfahren verarbeitete Bilder anzuzeigen, sowie mit virtuellen Kameramitteln, um eine virtuelle Endoskopie entlang dem unter Verwendung des genannten Verfahrens konstruierten Pfad durchzuführen.
  10. Gerät mit Mitteln, um medizinische 3D-Bilder röhrenförmiger Strukturen zu erfassen, und mit einem System nach Anspruch 9, um eine virtuelle Endoskopie genannter röhrenförmiger Strukturen durchzuführen.
DE69927001T 1999-01-04 1999-12-20 Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur Expired - Lifetime DE69927001T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP99400003 1999-01-04
EP99400003 1999-01-04
EP99400748 1999-03-26
EP99400748 1999-03-26
PCT/EP1999/010298 WO2000041134A1 (en) 1999-01-04 1999-12-20 Method, system and apparatus for processing an image representing a tubular structure and for constructing a path through said structure

Publications (2)

Publication Number Publication Date
DE69927001D1 DE69927001D1 (de) 2005-10-06
DE69927001T2 true DE69927001T2 (de) 2006-06-08

Family

ID=26153631

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69927001T Expired - Lifetime DE69927001T2 (de) 1999-01-04 1999-12-20 Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur

Country Status (5)

Country Link
US (1) US6496188B1 (de)
EP (1) EP1058913B1 (de)
JP (1) JP2002534191A (de)
DE (1) DE69927001T2 (de)
WO (1) WO2000041134A1 (de)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2831306A1 (fr) 2001-10-23 2003-04-25 Koninkl Philips Electronics Nv Station d'imagerie medicale a segmentation rapide d'image
FR2831698A1 (fr) 2001-10-30 2003-05-02 Koninkl Philips Electronics Nv Station d'imagerie medicale a fonction d'extraction de trajectoire au sein d'un objet ramifie
US7397937B2 (en) * 2001-11-23 2008-07-08 R2 Technology, Inc. Region growing in anatomical images
US6711231B2 (en) 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
WO2003088151A2 (en) 2002-04-16 2003-10-23 Koninklijke Philips Electronics N.V. Medical viewing system and image processing method for visualisation of folded anatomical portions of object surfaces
US6892090B2 (en) * 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
JP4564233B2 (ja) * 2003-01-31 2010-10-20 株式会社東芝 画像処理装置、画像データ処理方法、及びプログラム
AU2003901625A0 (en) * 2003-03-28 2003-05-01 Commonwealth Scientific And Industrial Research Organisation Combining front propagation with shape knowledge for accurate curvilinear modelling
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
US7300398B2 (en) * 2003-08-14 2007-11-27 Siemens Medical Solutions Usa, Inc. Method and apparatus for registration of virtual endoscopic images
US8276091B2 (en) * 2003-09-16 2012-09-25 Ram Consulting Haptic response system and method of use
WO2005041761A1 (ja) * 2003-10-31 2005-05-12 Olympus Corporation 挿入支援システム
US8352174B2 (en) * 2004-01-15 2013-01-08 Algotec Systems Ltd. Targeted marching
JP4343723B2 (ja) * 2004-01-30 2009-10-14 オリンパス株式会社 挿入支援システム
US7616800B2 (en) * 2004-11-08 2009-11-10 The Board Of Trustees Of The Leland Stanford Junior University Polyp identification through subtraction of models of medical images
WO2006085249A2 (en) * 2005-02-11 2006-08-17 Philips Intellectual Property & Standards Gmbh Analysis of pulmonary nodules from ct scans using the contrast agent enhancement as a function of distance to the boundary of the nodule
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US8019139B2 (en) * 2005-10-12 2011-09-13 Carestream Health, Inc. Method and system for processing an image of body tissues
US7711168B2 (en) * 2005-10-19 2010-05-04 Siemens Medical Solutions Usa, Inc. Method for tracking blood vessels
US20070249912A1 (en) * 2006-04-21 2007-10-25 Siemens Corporate Research, Inc. Method for artery-vein image separation in blood pool contrast agents
US8041141B2 (en) * 2006-06-30 2011-10-18 The University Of Louisville Research Foundation, Inc. Method and software for shape representation with curve skeletons
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
EP2206093B1 (de) * 2007-11-02 2013-06-26 Koninklijke Philips Electronics N.V. Automatische fly-path-berechnung für filme
US8218846B2 (en) * 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
US20090319100A1 (en) * 2008-06-20 2009-12-24 Honeywell International Inc. Systems and methods for defining and rendering a trajectory
CN102378594B (zh) * 2009-04-03 2015-09-02 皇家飞利浦电子股份有限公司 用于将传感器位置与图像位置相关联的系统和方法
DE102012203117B4 (de) * 2012-02-29 2016-03-03 Siemens Aktiengesellschaft Verfahren und System zur Ermittlung eines Begrenzungsflächennetzes
US9002938B2 (en) * 2012-04-26 2015-04-07 International Business Machines Corporation Notifying electronic meeting participants of interesting information
JP6228202B2 (ja) 2012-08-13 2017-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 管状構造追跡
JP6026357B2 (ja) * 2013-06-13 2016-11-16 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
US9588330B2 (en) * 2013-06-28 2017-03-07 Oregon Health & Science University Tomographic bright field imaging (TBFI)
US10327744B2 (en) * 2014-06-26 2019-06-25 Biosense Webster (Israel) Ltd Assistive manual zeroing visualization
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
AU2015284218B2 (en) 2014-07-02 2019-07-25 Covidien Lp System and method for segmentation of lung
JP6534193B2 (ja) 2014-07-02 2019-06-26 コヴィディエン リミテッド パートナーシップ 実時間自動位置合わせフィードバック
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9754367B2 (en) 2014-07-02 2017-09-05 Covidien Lp Trachea marking
WO2016004020A1 (en) 2014-07-02 2016-01-07 Covidien Lp System and method for detecting trachea
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US10643371B2 (en) 2014-08-11 2020-05-05 Covidien Lp Treatment procedure planning system and method
CN105231978B (zh) * 2015-09-14 2017-03-22 袁非牛 一种引导式虚拟内窥镜导航方法
US10986990B2 (en) 2015-09-24 2021-04-27 Covidien Lp Marker placement
US10709352B2 (en) 2015-10-27 2020-07-14 Covidien Lp Method of using lung airway carina locations to improve ENB registration
JP6570460B2 (ja) * 2016-02-25 2019-09-04 富士フイルム株式会社 評価装置、方法およびプログラム
US11494984B2 (en) 2016-03-31 2022-11-08 Brainlab Ag Atlas-based calculation of a flight-path through a virtual representation of anatomical structures
US10922556B2 (en) * 2017-04-28 2021-02-16 Intel Corporation Storage system of DNN outputs for black box
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
DE69805209T2 (de) * 1998-02-23 2002-11-28 Algotec Systems Ltd System und methode zur automatischen wegplanung

Also Published As

Publication number Publication date
JP2002534191A (ja) 2002-10-15
WO2000041134A1 (en) 2000-07-13
EP1058913B1 (de) 2005-08-31
DE69927001D1 (de) 2005-10-06
EP1058913A1 (de) 2000-12-13
US6496188B1 (en) 2002-12-17

Similar Documents

Publication Publication Date Title
DE69927001T2 (de) Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur
DE102006055173B4 (de) Verfahren, medizinisches diagnostisches bildgebendes System sowie computerlesbares Speichermedium für die halbautomatische Segmentierungstechnik für röhrenförmige Objekte mit niedrigem Kontrast
DE10249320A1 (de) Gefäss-Detektion durch Strahlausbreitung auf der Grundlage der mittleren Abweichung
DE60319288T2 (de) Verfahren und vorrichtung zum identifizieren von pathologien in gehirnbildern
DE102008023283B4 (de) Verfahren und System zur Segmentierung von schlauchförmigen Strukturen in 3D-Bildern
DE102006009255B4 (de) Bildverarbeitungsverfahren und Bildverarbeitungsgerät
DE19543410A1 (de) Virtuelles Untersuchungssystem für innere Hohlräume
DE102005051746B4 (de) Verfahren zum Erfassen einer Struktur in einem dreidimensionalen Computertomographie-Bild eines Knies sowie maschinenlesbares Medium
DE10296836T5 (de) System zur Modellierung statischer und dynamischer dreidimensioner anatomischer Strukturen durch 3D-Modelle
DE102006017113A1 (de) Verfahren und Vorrichtung zum Detektieren von Gefäßgrenzen
DE112004000128T5 (de) Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie
DE102006017112A1 (de) Effiziente Kerndichteschätzung von früheren Form- und Intensitätsbeispielen für die Niveausatz-Segmentierung
DE102012107529A1 (de) Verfahren System zur Navigation, Segmentierung und Extraktion eines dreidimensionalen Bildes
DE102007018763A1 (de) Verfahren zur Arterien-Venen-Bildseparation in Blutpoolkontrastmitteln
DE102008003878B3 (de) Verfahren und Vorrichtung zur Visualisierung von 3D-Bilddaten der tomographischen Bildgebung
DE102005047329A1 (de) Bereichskonkurrenz-Segmentierungsverfahren mittels lokaler Wasserscheiden-Operatoren
DE602004008102T2 (de) Dreidimensionale segmentierung durch verwendung deformierbarer oberflächen
EP2336979A1 (de) Verfahren und Vorrichtung zur Segmentierung von medizinischen Bilddaten
DE102012213461B4 (de) Erzeugung modifizierter Bilddaten eines Zielobjekts
DE102007021348A1 (de) Verfahren zur Simulation der Haptik einer Interaktion eines geführten Gegenstandes mit einem virtuellen dreidimensionalen Objekt
DE102004027709B4 (de) Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE102011076929A1 (de) Verfahren und Vorrichtung zur Darstellung von Volumendaten für eine Untersuchung von Dichteeigenschaften
DE60320453T2 (de) Verfahren zur segmentierung eines dreidimensionalen datensatzes mit ermöglichung von benutzerkorrekturen
DE102004003381B4 (de) Verfahren zur Bestimmung der Lage einer Schicht in einem Untersuchungsgebiet, in welcher Schicht eine Schichtbildaufnahme erfolgen soll
DE10163813A1 (de) Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition