DE112004000352B4 - System und Verfahren zum Durchführen einer virtuellen Endoskopie - Google Patents
System und Verfahren zum Durchführen einer virtuellen Endoskopie Download PDFInfo
- Publication number
- DE112004000352B4 DE112004000352B4 DE112004000352T DE112004000352T DE112004000352B4 DE 112004000352 B4 DE112004000352 B4 DE 112004000352B4 DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 T DE112004000352 T DE 112004000352T DE 112004000352 B4 DE112004000352 B4 DE 112004000352B4
- Authority
- DE
- Germany
- Prior art keywords
- lumen
- rendering
- region growing
- mpr
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Generation (AREA)
Abstract
Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: – Erhalten von dreidimensionalen (3D) Daten einer ein Lumen enthaltenden anatomischen Struktur; – Berechnen einer Abstandskarte unter Verwendung der dreidimensionalen (3D) Daten, welche die Abstände der Voxel des Lumens zu einem ersten Voxel des Lumens angibt; – Festlegen einer Position eines virtuellen Endoskops im Lumen; – Berechnen einer multiplanaren Rekonstruktion (MPR) orthogonal zum Lumen an der Endoskopposition; – Durchführen eines ersten Region Growing auf dem MPR-Bild an der Endoskopposition und Markieren der mit dem Region Growing verknüpften Pixel als Kandidaten für das 3D-Rendering; – Bestimmen des minimalen Abstandswerts und des maximalen Abstandswerts der markierten Pixel durch Nachschlagen der Abstandswerte der jeweils zugehörigen Voxel in der Abstandskarte; – Suchen von Pixeln der MPR, die zu dem Lumen gehören und die nach der ersten Bereichsanwachsung noch nicht markiert waren; ...
Description
- Querverweis auf verwandte Anmeldungen
- Diese Anmeldung nimmt die Priorität der vorläufigen US-Anmeldung 60/454,105 vom 12. März 2003 in Anspruch, die hierin durch Bezugnahme beinhaltet ist.
- Hintergrund der Erfindung
- 1. Technischer Bereich
- Die vorliegende Erfindung betrifft das Durchführen einer virtuellen Endoskopie und spezieller das Durchführen einer virtuellen Endoskopie unter Verwendung einer multiplanaren Rekonstruktion (MPR) und dreidimensionalem (3D) Rendering einer virtuellen endoskopischen Abbildung.
- 2. Diskussion des Standes der Technik
- Virtuelle Endoskopie (oder durch Computer berechnete Endoskopie) ist ein Verfahren einer Diagnose unter Verwendung der Computerverarbeitung dreidimensionaler (3D) Bilddatensätze wie Computertomographie (CT)- oder Magnetresonanzbildgebungs(MRI)-Scans, um simulierte Darstellungen patientenspezifischer Organe ähnlich denen, die durch übliche invasive Endoskopieverfahren erzeugt werden, herzustellen. Virtuelle Endoskopie wurde auf viele endoskopische Verfahren einschließlich Bronchoskopie, Darmspiegelung, Untersuchungen der Bauchspeicheldrüse, Kehlkopfspiegelungen und Otoskopie angewandt. Bei Verwendung der virtuellen Endoskopie können patientenspezifische anatomische Strukturen nicht-invasiv erhalten werden, wodurch die Schwierigkeiten bei der Durchführung, die mit üblichen invasiven Endoskopieverfahren einhergehen, reduziert werden.
- In einem typischen virtuellen Endoskopieverfahren werden 3D-Bilder erzeugt, um Bilder zu simulieren, die beispielsweise von einem faseroptischen Endoskop kommen. Somit kann man beispielsweise durch das Lumen, etwa ein Kolon, fliegen und die Innenfläche des Kolons betrachten, um Oberflächenanomalien festzustellen. Dies wird erreicht, indem ein Betrachtungspunkt eines virtuellen Endoskops unter Verwendung einer Perspektivprojektion ausgewählt wird, was typischerweise unter einem stumpfen Winkel wie 110° stattfindet.
- Obwohl die erhaltenen Bilder hilfreich sind, um die Innenfläche des Lumens zu betrachten, ist typischerweise Information auf der Außenoberfläche des Lumens nicht sichtbar. Somit ist es schwierig, die Wanddicke des Lumens oder Anomalien zu bestimmen, die auf der Außenoberfläche des Lumens vorhanden sein können. Außerdem können bei Verwendung einer Weitwinkel-Perspektivprojektion (z. B. 100 oder 110°) Merkmale wie Tumore, die hinter Falten und Kurven im Lumen versteckt sein können, nicht erkannt werden.
- Aus dem Artikel „Interventional 3D-Angiography: Calibration, Reconstruction and Visualization System”, Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision (WACV '98); 19.–21. Oct. 1998, Seiten 246–247 von Ali Bani-Hashemi et al. ist es bekannt, ein Lumen zu segmentieren und dieses Lumen in 3D zu rendern, während der Rest des Bildes in klassischer 2D-MPR-Ansicht verbleibt.
- Aus dem Artikel „Automatic Segmentation of the colon for virtual colonoscopy”, Computerized Medical Imaging and Graphics, vol. 24 no. 1, 2000, Seiten 1–9 von C. L. Wyatt et al. ist es bekannt, eine automatische Segmentierung eines Lumens mittel eines Region Growing Schritts durchzuführen.
- Problematisch dabei ist, dass bei den bekannten Vorgehensweisen unter Umständen das Lumen nicht vollständig segmentiert wird, und dass Informationen auf der Außenoberfläche des Lumens nicht sichtbar sind.
- Die Aufgabe der Erfindung besteht somit darin, ein Verfahren und ein System zu dessen Durchführung bereitzustellen, das eine zuverlässigere und vollständigere Segmentierung des Lumens ermöglicht.
- Diese Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein System mit den Merkmalen des Anspruchs 5.
- Weitere Merkmale und Vorteile der Erfindung werden aus der nachfolgenden Beschreibung, den Zeichnungen und den Ansprüchen deutlich.
- Kurze Beschreibung der Zeichnungen
-
1 ist ein Blockdiagramm eines Systems zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung; -
2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt; -
3 ist eine dreidimensionale (3D) Wiedergabe eines Lumens gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung; -
4 ist ein Lumen, das in 3D gerendert wurde, das einen Abschnitt aufweist, der nicht in 3D gerendert wurde; und -
5 ist der Abschnitt des Lumens aus4 , der nicht in 3D gerendert wurde, gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung in 3D gerendert. - Detaillierte Beschreibung beispielhafter Ausführungsformen
-
1 ist ein Blockdiagramm eines Systems10 zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung. Wie in1 dargestellt weist das System100 unter anderem eine Scanvorrichtung105 , einen Computer (PC)110 und eine Bedienkonsole115 auf, die beispielsweise über ein Ethernet-Netzwerk120 verbunden sind. Die Scanvorrichtung105 kann eine Magnetresonanzbildgebungs(MRI)-Vorrichtung, eine Computertomographie(CT)-Bildgebungsvorrichtung, eine Spiral-CT-Vorrichtung, eine Positronenemissionstomographie (PET)-, eine zweidimensionale (2D) oder dreidimensionale (3D) fluoroskopische Bildgebungsvorrichtung, eine 2D, 3D oder vierdimensionale (4D) Ultraschallbildgebungsvorrichtung oder ein Röntgengerät etc. sein. - Der PC
110 , der ein tragbarer Computer oder Laptop sein kann, ein PTA etc., weist eine zentrale Prozessoreinheit (CPU)125 und einen Speicher130 auf, die mit einer Eingabevorrichtung145 und einer Ausgabevorrichtung150 verbunden sind. Der Speicher umfasst einen Direktzugriffsspeicher (RAM)135 und einen Lesespeicher (ROM)140 . Der Speicher130 kann auch eine Datenbank, ein Laufwerk für Disks oder Kassetten etc. oder eine Kombination hiervon aufweisen. Der Direktzugriffsspeicher135 dient als Datenspeicher, der Daten speichert, die während der Ausführung eines Programms in der CPU125 verwendet werden, und wird als Arbeitsbereich verwendet. Der Lesespeicher140 dient als Programmspeicher zum Speichern eines Programms, das in der CPU ausgeführt wird. Die Eingabevorrichtung145 wird durch eine Tastatur, Maus etc. gebildet, und die Ausgabevorrichtung150 wird durch ein Flüssigkristalldisplay (LCD), ein Kathodenstrahlröhren(CRT)-Display, einen Drucker etc. gebildet. - Der Betrieb des Systems
100 wird von der Bedienkonsole115 gesteuert, die eine Steuerung160 aufweist, beispielsweise eine Tastatur, und ein Display155 , beispielsweise ein CRT-Display. Die Bedienkonsole115 kommuniziert mit dem PC110 und der Scanvorrichtung105 , so dass 2D-Bilddaten, die von der Scanvorrichtung105 gesammelt werden, in 3D-Daten durch den PC110 mittels Rendering umgewandelt werden und auf dem Display155 angezeigt werden können. Es soll klar sein, dass der PC110 betrieben werden kann und Informationen anzeigen kann, die von der Scanvorrichtung105 geliefert werden, auch wenn keine Bedienkonsole115 vorhanden ist. -
2 ist ein Ablaufdiagramm, das den Ablauf eines Verfahrens zum Durchführen einer virtuellen Endoskopie gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt. Wie in2 dargestellt, werden 3D-Daten von einem Lumen (Schritt205 ) erhalten. Dies wird erreicht durch Verwendung der Scanvorrichtung105 , in diesem Beispiel ein CT-Scanner, der von der Bedienkonsole115 aus betrieben wird, um ein gewähltes Lumen zu scannen, wodurch eine Reihe von 2D-Bildern erzeugt wird, die mit dem Lumen verknüpft sind. Die 2D-Bilder des Lumens werden anschließend in ein gerendertes 3D-Bild umgewandelt oder transformiert. Es soll klar sein, dass das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre, eine Harnblase oder jeder andere beliebige innere offene Raum oder Hohlraum eines rohrförmigen Organs sein kann. - Nachdem die 3D-Daten des Lumens erhalten wurden, wird eine Abstandskarte unter Verwendung der 3D-Daten des Lumens berechnet (Schritt
210 ). Die Abstandskarte wird berechnet, indem einem ersten Voxel (z. B. Keim- oder Saatvoxel) des Lumens ein anfänglicher Abstandswert von ”1” zugeordnet wird. Die an das erste Voxel angrenzenden Voxel werden untersucht, und wenn sie zu dem Lumen gehören und ihnen nicht zuvor ein Abstandswert zugeordnet wurde, wird ihnen ein Abstandswert von ”2” zugeordnet. Anschließend wird den Voxeln, die an die Voxel mit Abstandwert ”2” angrenzen, ein Abstandswert von ”3” zugeordnet, wenn sie zum Lumen gehören und ihnen nicht zuvor bereits ein Abstandswert zugeordnet wurde. Dieses Verfahren wird wiederholt, bis alle Voxel im Lumen bestimmte Abstandswerte erhalten haben. Während der Berechnung der Abstandskarte erhält somit ein Nachbar (z. B. ein angrenzendes Voxel) eines Voxels, das einen Abstandswert ”n” erhalten hat, einen Abstandswert von ”n + 1”, wenn es zum Lumen gehört und ihm noch kein Abstandswert zugeordnet wurde. - Wie weiter in
2 dargestellt ist, wird ein Endoskop (z. B. ein virtuelles Endoskop) an einer gewünschten Position im Lumen angeordnet (Schritt215 ). Dies wird durchgeführt, indem ein Nutzer auf eine Stelle am Bildschirm klickt, die mit einem Bereich des Lumens verknüpft ist, dessen Analyse gewünscht ist, oder indem ein Durchflug durch das Lumen über einen vorprogrammierten ”Flugpfad” durchgeführt wird, um eine gewünschte Position für das Studium zu finden. Nach Schritt215 wird eine multiplanare Rekonstruktion (MPR) orthogonal zum Lumen bei der Endoskopposition berechnet (Schritt220 ). Unter Verwendung des MPR-Bilds des Lumens wird anschließend eine Bereichsanwachsung (bzw. ein Region Growing) an der Endoskopposition durchgeführt (Schritt225 ). Ähnlich zum Verfahren des Berechnens einer Abstandskarte in Schritt210 wird bei der Bereichsanwachsung ein Keimvoxel beispielsweise im Mittelpunkt der Endoskopposition ausgewählt und es wird ihm ein erster Wert zugeordnet. Die Nachbarvoxel werden anschließend gelesen und mit einem Grenzbereich verglichen, der durch Markierung eines Bereichs von Interesse im Lumen bestimmt werden kann, um zu bestimmen, ob solche Nachbarvoxel (z. B. angrenzende Voxel) in den Grenzbereich fallen. Wenn das Vogel oder die Voxel innerhalb des Grenzbereichs zu finden sind, wird ihm/ihnen ein zweiter Wert zugeordnet, und das Verfahren wird wiederholt, bis alle Voxel in dem Bereich von Interesse getestet wurden und/oder ihnen Werte zugeordnet wurden. - Die mit der Bereichsanwachsung verknüpften Daten werden anschließend als Kandidat für das 3D-Rendering markiert (Schritt
230 ). Diese Daten werden markiert, indem ihnen eine Kennung zugeordnet wird, die beispielsweise ein Wert sein kann, der sich von dem aller anderen Pixel- oder Voxelwerte in der MPR unterscheidet. An diesem Punkt kann der Nutzer fortfahren, ein 3D-Rendering der markierten Daten in Schritt260 durchzuführen oder das MPR-Bild in Schritt240 zu modifizieren (Schritt235 ). Wenn der Nutzer zu Schritt260 schreitet, werden die MPR-Daten mit einem 3D-Rendering der markierten Daten kombiniert, um ein vergrößertes Bild des Lumens zu liefern. Mit anderen Worten werden die markierten Pixel oder Voxel in der MPR durch eine gerenderte 3D-Wiedergabe des Lumens ersetzt. - Ein beispielhaftes Bild
300 , das vom direkten Schreiten von Schritt235 zu260 geliefert wird, ist in3 dargestellt. Wie in3 gezeigt können Informationen außerhalb des Lumens (in diesem Beispiel ist das Lumen ein Kolon) beobachtet werden. Insbesondere sind Informationen außerhalb der Wand des Kolons sichtbar und unter Verwendung dieser Informationen kann die Dicke der Wand des Kolons bestimmt werden und Anomalien wie ein Polyp entdeckt werden. Zusätzlich werden die umgebenden MPR-Bildabschnitte nicht gerendert (z. B. nicht klare Bilder des Kolons), da sie nicht für das Rendering markiert wurden. Somit zeigt das Bild300 lediglich den gewünschten Abschnitt des Lumens an, der zuvor in Schritt215 durch den Nutzer ausgewählt wurde. Es soll klar sein, dass die Option des direkten Schreitens von Schritt235 zu Schritt260 dem Nutzer ermöglicht, schnell mit Abschnitten eines Lumens zu arbeiten, die keine Probleme wie Kurven oder beispielsweise haustrenartige Falten aufwerfen. Es soll außerdem klar sein, dass Schritt235 weggelassen werden und die Abfolge in2 direkt zu Schritt240 voranschreiten kann. - Wenn der Nutzer jedoch das MPR-Bild weiter modifizieren oder verbessern möchte, werden minimale und maximale Abstände der markierten Daten der ersten Bereichsanwachsung aus der Abstandskarte berechnet (Schritt
240 ). Dies erfolgt durch Nachschlagen der Abstandswerte der markierten Daten (z. B. markierte Pixel oder Voxel) und Tabellarieren ihrer minimalen und maximalen Abstände aus ihren entsprechenden Positionen auf der Abstandskarte von Schritt210 . Sobald die Abstandswerte berechnet wurden, können zusätzliche Bereichsanwachsungen für Daten außerhalb des ersten markierten Bereichs durchgeführt werden, die ein Teil des gewünschten Lumens sein sollen. Ein Beispiel von Daten, die außerhalb eines markierten Bereichs liegen, ist in Bild400 in4 dargestellt. - Wie in
4 dargestellt weist das Bild400 einen Abschnitt eines Lumens auf, der keinem 3D-Rendering unterzogen wurde (in diesem Beispiel ist das Lumen wiederum ein Kolon). Ein Pfeil zeigt diesen Abschnitt (d. h. einen Abschnitt des Lumens, der nach der ersten Bereichsanwachsung nicht markiert war). Um den durch den Pfeil gekennzeichneten Abschnitt zu rendern, wird eine weitere Bereichsanwachsung für Daten außerhalb der ersten Bereichsanwachsung durchgeführt (Schritt245 ). Dies erfolgt durch Untersuchung aller Pixel oder Voxel der MPR, die zu dem Lumen gehören, die nach der ersten Bereichsanwachsung nicht markiert waren. Wenn solche Pixel oder Voxel gefunden werden und diese innerhalb enger Nachbarschaft zum berechneten minimalen und maximalen Abstand der markierten Daten von der ersten Bereichsanwachsung liegen, werden sie als Keimpunkt für nachfolgende Bereichsanwachsungen (z. B. zweite, dritte etc. Bereichsanwachsung) verwendet. Daraufhin werden die mit der Bereichsanwachsung verknüpften Daten als Kandidat für das 3D-Rendering markiert und ihnen wird eine Kennung zugeordnet (Schritt250 ). Diese Abfolge (Schritte 245–255) wird sich selbst wiederholen, bis alle Bereichsanwachsungen auf der Basis des Abstands des Keimpixels zur ersten Bereichsanwachsung vervollständigt sind (Schritt255 ). - Es soll klar sein, dass lediglich eine einzelne Bereichsanwachsung in dieser Abfolge (Schritte
245 –255 ) stattfinden könnte, ohne dass ein Nutzer die Option haben könnte, nach der einzigen Bereichsanwachsung direkt zu Schritt260 zu schreiten. Mit anderen Worten wird lediglich eine zweite Bereichsanwachsung während dieser Abfolge durchgeführt, aber keine dritte, vierte, etc. - Es sollte klar sein, dass ein Schwellwert auf der Basis des berechneten maximalen und minimalen Abstands (aus Schritt
240 ) gesetzt werden könnte, um der Bereich einzugrenzen, in dem zweite oder nachfolgende Bereichsanwachsungen durchgeführt werden sollen. Beispielsweise kann der Schwellwert einfach auf den berechneten minimalen und maximalen Abstand gesetzt werden (deshalb kann die zweit Bereichsanwachsung nicht über diese Punkte hinausreichen), Er kann auf die Hälfte des berechneten minimalen und maximalen Abstands gesetzt werden, oder er kann auf eine Grenze jenseits des berechneten maximalen und minimalen Abstands gesetzt werden. - In Schritt
260 wird ein 3D-Rendering mit den markierten Daten der ersten, zweiten, dritten etc. Bereichanwachsung unter Verwendung einer 3D-Rendering-Technik wie Strahlformung, Oberflächenrendering (z. B. schattiertes Oberflächenrendering), Volumenrendering etc. durchgeführt. Es soll klar sein, dass das 3D-Rendering unter Verwendung der CPU125 aus1 oder durch bestimmte Rendering-Hardware wie eine Graphikkarte, Volumenrendering-Karte etc. durchgeführt werden kann. Die daraus resultierende 3D-Wiedergabe des markierten MPR-Bilds wird in Bild500 von5 dargestellt. Wie durch das Bild500 dargestellt ist der Abschnitt des Lumens aus4 , der durch den Pfeil gekennzeichnet ist, nun sichtbar, und dementsprechend sind. Informationen außerhalb der Wand des Kolons sichtbar und Informationen wie die Dicke der Wand des Kolons können bestimmt und Anomalien wie ein Polyp entdeckt werden. Nach dem Durchführen des 3D-Renderings in Schritt260 kann ein Nutzer das Endoskop in eine andere Position im Lumen bewegen und den oben beschriebenen Prozess wiederholen (Schritt265 ). - Es wird angemerkt, dass die vorliegende Erfindung in verschiedenen Formen von Hardware, Software, Firmware, Spezialzweckprozessoren oder einer Kombination hiervon implementiert sein kann. In einer Ausführungsform kann die vorliegende Erfindung in Software als ein Anwendungsprogramm implementiert sein, das auf einer Programmspeichervorrichtung verkörpert ist.
- Das Anwendungsprogramm kann geladen werden auf und ausgeführt werden durch ein Gerät mit einer beliebigen geeigneten Architektur.
Claims (5)
- Verfahren zum Durchführen einer virtuellen Endoskopie mit folgenden Schritten: – Erhalten von dreidimensionalen (3D) Daten einer ein Lumen enthaltenden anatomischen Struktur; – Berechnen einer Abstandskarte unter Verwendung der dreidimensionalen (3D) Daten, welche die Abstände der Voxel des Lumens zu einem ersten Voxel des Lumens angibt; – Festlegen einer Position eines virtuellen Endoskops im Lumen; – Berechnen einer multiplanaren Rekonstruktion (MPR) orthogonal zum Lumen an der Endoskopposition; – Durchführen eines ersten Region Growing auf dem MPR-Bild an der Endoskopposition und Markieren der mit dem Region Growing verknüpften Pixel als Kandidaten für das 3D-Rendering; – Bestimmen des minimalen Abstandswerts und des maximalen Abstandswerts der markierten Pixel durch Nachschlagen der Abstandswerte der jeweils zugehörigen Voxel in der Abstandskarte; – Suchen von Pixeln der MPR, die zu dem Lumen gehören und die nach der ersten Bereichsanwachsung noch nicht markiert waren; – wenn ein solches Pixel gefunden wird und der Abstandswert des zugehörigen Voxels gemäß der Abstandskarte innerhalb eines auf der Basis des bestimmten minimalen und maximalen Abstandswerts festgelegten Toleranzbereichs liegt, Durchführen eines weiteren Region Growing auf der MPR ausgehend von diesem Pixel als Keimpunkt und Markieren der mit dem weiteren Region Growing verknüpften Pixel; – Durchführen eines 3D-Renderings ausgehend von den markierten Pixeln, die zu dem ersten Region Growing und dem weiteren Region Growing gehören, und Ersetzen der markierten Pixel in der MPR durch die 3D-gerenderte Wiedergabe des Lumens.
- Verfahren nach Anspruch 1, wobei die 3D-Daten mittels Computertomographie (CT), Spiral-CT, Röntgen, Positronenemissionstomographie, fluoroskopischer, Ultraschall- oder Magnetresonanz(MR)-Bildgebungstechniken erhalten werden.
- Verfahren nach Anspruch 1, wobei das Lumen ein Kolon, eine Bauchspeicheldrüse, Bronchien, ein Kehlkopf, eine Luftröhre, eine Stirnhöhle, ein Ohrenkanal, ein Blutgefäß, eine Harnröhre oder eine Harnblase ist.
- Verfahren nach Anspruch 1, wobei das 3D-Rendering der Daten, die zu dem ersten Region Growing und dem weiteren Region Growing zugehörig sind, unter Verwendung von Strahlformung, Oberflächenrendering oder Volumenrendering als 3D-Rendering-Technik durchgeführt wird.
- System zum Durchführen einer virtuellen Endoskopie mit einer Speichervorrichtung zum Speichern eines Programms; einem Prozessor in Verbindung mit der Speichervorrichtung, wobei der Prozessor mit dem Programm zusammenwirkt, um das Verfahren nach einem der Ansprüche 1 bis 4 auszuführen.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US45410503P | 2003-03-12 | 2003-03-12 | |
US60/454,105 | 2003-03-12 | ||
US10/795,918 US7304644B2 (en) | 2003-03-12 | 2004-03-08 | System and method for performing a virtual endoscopy |
US10/795,918 | 2004-03-08 | ||
PCT/US2004/007300 WO2004081873A2 (en) | 2003-03-12 | 2004-03-11 | System and method for performing a virtual endoscopy |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112004000352T5 DE112004000352T5 (de) | 2006-03-09 |
DE112004000352B4 true DE112004000352B4 (de) | 2013-09-12 |
Family
ID=32994542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112004000352T Expired - Fee Related DE112004000352B4 (de) | 2003-03-12 | 2004-03-11 | System und Verfahren zum Durchführen einer virtuellen Endoskopie |
Country Status (5)
Country | Link |
---|---|
US (1) | US7304644B2 (de) |
JP (1) | JP2006519631A (de) |
CN (1) | CN1771517B (de) |
DE (1) | DE112004000352B4 (de) |
WO (1) | WO2004081873A2 (de) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10246355A1 (de) * | 2002-10-04 | 2004-04-15 | Rust, Georg-Friedemann, Dr. | Interaktive virtuelle Endoskopie |
JP2006346177A (ja) * | 2005-06-16 | 2006-12-28 | Toshiba Corp | 画像診断装置、画像処理装置及び3次元画像データ表示方法 |
US7623900B2 (en) | 2005-09-02 | 2009-11-24 | Toshiba Medical Visualization Systems Europe, Ltd. | Method for navigating a virtual camera along a biological object with a lumen |
DE102006020398B4 (de) * | 2006-04-28 | 2015-09-03 | Siemens Aktiengesellschaft | Medizintechnisches Diagnosesystem |
US7853058B2 (en) * | 2006-11-22 | 2010-12-14 | Toshiba Medical Visualization Systems Europe, Limited | Determining a viewpoint for navigating a virtual camera through a biological object with a lumen |
US20080117210A1 (en) * | 2006-11-22 | 2008-05-22 | Barco N.V. | Virtual endoscopy |
US8840558B2 (en) * | 2008-06-05 | 2014-09-23 | Starkey Laboratories, Inc. | Method and apparatus for mathematically characterizing ear canal geometry |
US20100248200A1 (en) * | 2008-09-26 | 2010-09-30 | Ladak Hanif M | System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training |
JP5433240B2 (ja) * | 2009-01-21 | 2014-03-05 | 株式会社東芝 | 超音波診断装置及び画像表示装置 |
CN101849843B (zh) * | 2009-03-31 | 2013-03-13 | 上海交通大学医学院附属新华医院 | 三维心脏超声虚拟内窥镜导航方法 |
DK2258266T3 (da) * | 2009-06-05 | 2012-07-09 | Starkey Lab Inc | Fremgangsmåde og apparat til matematisk karakterisering af ørekanalens geometri |
US8611989B2 (en) * | 2010-11-30 | 2013-12-17 | Kabushiki Kaisha Toshiba | Multi-planar reconstruction lumen imaging method and apparatus |
CN102078179B (zh) * | 2011-01-31 | 2012-05-30 | 广州宝胆医疗器械科技有限公司 | 三维立体电子结肠镜系统 |
CN104066380B (zh) * | 2012-02-01 | 2016-11-09 | 东芝医疗系统株式会社 | 超声波诊断装置、图像处理装置 |
JP6006092B2 (ja) * | 2012-11-15 | 2016-10-12 | 東芝メディカルシステムズ株式会社 | 超音波診断装置、画像処理装置及びプログラム |
CN103968829B (zh) * | 2014-05-13 | 2016-12-07 | 清华大学 | 基于虚拟标志物的三维空间定位追踪方法及系统 |
AU2015299765A1 (en) * | 2014-08-06 | 2017-02-16 | Commonwealth Scientific And Industrial Research Organisation | Representing an interior of a volume |
US10242488B1 (en) * | 2015-03-02 | 2019-03-26 | Kentucky Imaging Technologies, LLC | One-sided transparency: a novel visualization for tubular objects |
KR101717371B1 (ko) * | 2015-08-31 | 2017-03-16 | 왕용진 | 실시간 또는 기저장된 초고속 후두내시경 영상을 이용한 평면 스캔 비디오카이모그래피 영상 생성 방법, 이를 수행하는 평면 스캔 비디오카이모그래피 영상 생성 서버, 및 이를 저장하는 기록매체 |
CN106890031B (zh) * | 2017-04-11 | 2020-05-05 | 东北大学 | 一种标记物识别及标记点定位方法及手术导航系统 |
CN111212724B (zh) * | 2017-10-14 | 2022-06-17 | 惠普发展公司,有限责任合伙企业 | 处理3d对象模型 |
US10510178B2 (en) | 2018-02-27 | 2019-12-17 | Verizon Patent And Licensing Inc. | Methods and systems for volumetric reconstruction based on a confidence field |
CN108461128A (zh) * | 2018-03-02 | 2018-08-28 | 上海联影医疗科技有限公司 | 医学图像处理方法及系统和图像处理终端 |
US11132830B2 (en) * | 2018-03-29 | 2021-09-28 | Biosense Webster (Israel) Ltd. | Static virtual camera positioning |
US11151789B1 (en) | 2019-03-25 | 2021-10-19 | Kentucky Imaging Technologies | Fly-in visualization for virtual colonoscopy |
US11521316B1 (en) | 2019-04-03 | 2022-12-06 | Kentucky Imaging Technologies | Automatic extraction of interdental gingiva regions |
US11044400B1 (en) | 2019-04-03 | 2021-06-22 | Kentucky Imaging Technologies | Frame stitching in human oral cavity environment using intraoral camera |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4945478A (en) * | 1987-11-06 | 1990-07-31 | Center For Innovative Technology | Noninvasive medical imaging system and method for the identification and 3-D display of atherosclerosis and the like |
US5734384A (en) * | 1991-11-29 | 1998-03-31 | Picker International, Inc. | Cross-referenced sectioning and reprojection of diagnostic image volumes |
US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
US5782762A (en) * | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US5611025A (en) * | 1994-11-23 | 1997-03-11 | General Electric Company | Virtual internal cavity inspection system |
US6167296A (en) * | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
US6331116B1 (en) * | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
US7194117B2 (en) * | 1999-06-29 | 2007-03-20 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US5891030A (en) * | 1997-01-24 | 1999-04-06 | Mayo Foundation For Medical Education And Research | System for two dimensional and three dimensional imaging of tubular structures in the human body |
US6346940B1 (en) * | 1997-02-27 | 2002-02-12 | Kabushiki Kaisha Toshiba | Virtualized endoscope system |
US6246784B1 (en) * | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US6674894B1 (en) * | 1999-04-20 | 2004-01-06 | University Of Utah Research Foundation | Method and apparatus for enhancing an image using data optimization and segmentation |
US20020009215A1 (en) * | 2000-01-18 | 2002-01-24 | Arch Development Corporation | Automated method and system for the segmentation of lung regions in computed tomography scans |
US6898303B2 (en) * | 2000-01-18 | 2005-05-24 | Arch Development Corporation | Method, system and computer readable medium for the two-dimensional and three-dimensional detection of lesions in computed tomography scans |
US7274810B2 (en) * | 2000-04-11 | 2007-09-25 | Cornell Research Foundation, Inc. | System and method for three-dimensional image rendering and analysis |
JP2004522464A (ja) * | 2000-10-02 | 2004-07-29 | ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク | 向上した視覚化、ナビゲーション及び検査 |
US7072501B2 (en) * | 2000-11-22 | 2006-07-04 | R2 Technology, Inc. | Graphical user interface for display of anatomical information |
KR100788643B1 (ko) * | 2001-01-09 | 2007-12-26 | 삼성전자주식회사 | 색과 질감의 조합을 기반으로 하는 영상 검색 방법 |
US6816607B2 (en) * | 2001-05-16 | 2004-11-09 | Siemens Corporate Research, Inc. | System for modeling static and dynamic three dimensional anatomical structures by 3-D models |
WO2003024184A2 (en) * | 2001-09-14 | 2003-03-27 | Cornell Research Foundation, Inc. | System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans |
WO2003045222A2 (en) * | 2001-11-21 | 2003-06-05 | Viatronix Incorporated | System and method for visualization and navigation of three-dimensional medical images |
US7397937B2 (en) * | 2001-11-23 | 2008-07-08 | R2 Technology, Inc. | Region growing in anatomical images |
DE10160206A1 (de) * | 2001-12-07 | 2003-06-18 | Philips Intellectual Property | Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen |
US7123766B2 (en) * | 2002-02-11 | 2006-10-17 | Cedara Software Corp. | Method and system for recognizing and selecting a region of interest in an image |
US6574304B1 (en) * | 2002-09-13 | 2003-06-03 | Ge Medical Systems Global Technology Company, Llc | Computer aided acquisition of medical images |
US7260250B2 (en) * | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
US7123760B2 (en) * | 2002-11-21 | 2006-10-17 | General Electric Company | Method and apparatus for removing obstructing structures in CT imaging |
EP1455307A1 (de) * | 2003-03-06 | 2004-09-08 | MeVis GmbH | Teilvolumenvisualisierung |
US7142726B2 (en) * | 2003-03-19 | 2006-11-28 | Mitsubishi Electric Research Labs, Inc. | Three-dimensional scene reconstruction from labeled two-dimensional images |
WO2005010699A2 (en) * | 2003-07-15 | 2005-02-03 | Medical Metrx Solutions, Inc. | Generating a computer model using scan data of a patient |
US7209581B2 (en) * | 2003-07-31 | 2007-04-24 | Siemens Medical Solutions Usa, Inc. | System and method for ground glass nodule (GGN) segmentation |
-
2004
- 2004-03-08 US US10/795,918 patent/US7304644B2/en not_active Expired - Fee Related
- 2004-03-11 WO PCT/US2004/007300 patent/WO2004081873A2/en active Search and Examination
- 2004-03-11 CN CN2004800067415A patent/CN1771517B/zh not_active Expired - Fee Related
- 2004-03-11 DE DE112004000352T patent/DE112004000352B4/de not_active Expired - Fee Related
- 2004-03-11 JP JP2005518895A patent/JP2006519631A/ja not_active Withdrawn
Non-Patent Citations (2)
Title |
---|
Ali Bani-Hashemi et.al.: "Interventional 3D-Angiography: Calibration, Reconstruction and Visualization System", Proceedings of the Fourth IEEE Workshop on Applications of Computer Vision (WACV'98), 19-21 Oct. 1998, Page(s): 246-247 * |
C.L. Wyatt, Y. Ge, D.J. Vining: "Automatic segmentation of the colon for virtual colonoscopy", Computerized Medical Imaging and Graphics, Vol. 24, No. 1, 2000, pp. 1-9 * |
Also Published As
Publication number | Publication date |
---|---|
US7304644B2 (en) | 2007-12-04 |
WO2004081873A3 (en) | 2005-03-31 |
WO2004081873A2 (en) | 2004-09-23 |
CN1771517B (zh) | 2010-05-26 |
DE112004000352T5 (de) | 2006-03-09 |
JP2006519631A (ja) | 2006-08-31 |
CN1771517A (zh) | 2006-05-10 |
US20040202990A1 (en) | 2004-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112004000352B4 (de) | System und Verfahren zum Durchführen einer virtuellen Endoskopie | |
DE102005036412B4 (de) | Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz | |
DE69838698T2 (de) | Bildanzeigevorrichtung und Verfahren | |
DE112004001177T5 (de) | System und Verfahren zur Planung eines endoskopischen Pfades | |
DE102004043676B4 (de) | Verfahren zur Visualisierung von Plaqueablagerungen aus 3D-Bilddatensätzen von Gefäßstrukturen | |
DE102004022902B4 (de) | Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt | |
DE112005001755T5 (de) | System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie | |
DE102007046250A1 (de) | Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild | |
DE102005045602B4 (de) | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs | |
DE102005046385A1 (de) | Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie | |
DE112004000128T5 (de) | Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie | |
DE112004000722T5 (de) | Verfahren und Vorrichtung zur schnellen automatischen Mittellinien-Extraktion für die virtuelle Endoskopie | |
DE10355382A1 (de) | Verfahren und System zur Vermessung von Luftwegen | |
DE102005009271A1 (de) | System und Verfahren zur Durchführung einer virtuellen Endoskopie in einer Verzweigungsstruktur | |
DE102022112136A1 (de) | Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren | |
DE10254908B4 (de) | Verfahren zum Herstellen eines Bildes | |
DE102006039921A1 (de) | System und Verfahren zum automatischen Atemwegevaluieren für Multi-Schnitt Computertomographie (MSCT) Bilddaten unter Verwendung eines Atemweglumendurchmessers, einer Atemwegwanddicke und eines Bronchien-Arterien-Verhältnisses | |
DE102004027710A1 (de) | Verfahren zur automatischen Detektion einer Struktur bei bildgebenden medizinischen Verfahren, Computertomografiegerät, Arbeitsstation und Comupterprogrammprodukt | |
DE102011006398A1 (de) | Verfahren, Bildverarbeitungseinrichtung und Computertomographiesystem zur Ermittlung eines Anteils von nekrotischem Gewebe sowie Computerprogrammprodukt mit Programmcodeabschnitten zur Ermittlung eines Anteils von nekrotischem Gewebe | |
DE102004027709B4 (de) | Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt | |
DE112011104887B4 (de) | Nichtflüchtiges computerlesbares Speichermedium zur Darstellung von Markierungen der computergestützten Detektion bei der computertomographischen Diagnose des Dickdarms | |
DE112007002807T5 (de) | Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem | |
DE102008016655B3 (de) | Verfahren und Vorrichtung zur Visualisierung eines Bilddatensatzes eines einen Hohlraum umschließenden Organs, insbesondere eines CT-Bilddatensatzes eines Kolons | |
DE102008025535B4 (de) | Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen | |
DE10163813A1 (de) | Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law |
Ref document number: 112004000352 Country of ref document: DE Date of ref document: 20060309 Kind code of ref document: P |
|
8125 | Change of the main classification |
Ipc: G06T 7/40 AFI20051017BHDE |
|
8127 | New person/name/address of the applicant |
Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., |
|
8120 | Willingness to grant licences paragraph 23 | ||
R019 | Grant decision by federal patent court | ||
R020 | Patent grant now final |
Effective date: 20131213 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20141001 |