DE112004000381B4 - Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen - Google Patents

Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen Download PDF

Info

Publication number
DE112004000381B4
DE112004000381B4 DE112004000381T DE112004000381T DE112004000381B4 DE 112004000381 B4 DE112004000381 B4 DE 112004000381B4 DE 112004000381 T DE112004000381 T DE 112004000381T DE 112004000381 T DE112004000381 T DE 112004000381T DE 112004000381 B4 DE112004000381 B4 DE 112004000381B4
Authority
DE
Germany
Prior art keywords
lesion
volume
space
original
coordinate space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112004000381T
Other languages
English (en)
Other versions
DE112004000381T5 (de
Inventor
Anna Jerebko
Arun Krishnan
Luca Bogoni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE112004000381T5 publication Critical patent/DE112004000381T5/de
Application granted granted Critical
Publication of DE112004000381B4 publication Critical patent/DE112004000381B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur automatischen 3D-(dreidimensionalen) Läsionssegmentierung, welches die folgenden Schritte umfasst:
a) Bestimmen einer 3D-Oberfläche einer Läsion in einem ursprünglichen 3D-Volumenraum, wobei der Schritt des Bestimmens einer 3D-Oberfläche umfasst:
i) Extrahieren eines 3D-Subvolumens aus dem ursprünglichen 3D-Volumenraum, welches die Läsion umgibt;
ii) Interpolieren der Bilddaten in dem 3D-Subvolumen, um das 3D-Subvolumen isotrop zu machen; und
iii) Bestimmen eines 3D-Randes der Läsion in dem isotropen 3D-Subvolumen mit Hilfe eines 3D Canny Edge Detector Verfahrens;
b) Transformieren der 3D-Oberfläche der Läsion aus dem ursprünglichen ersten 3D-Volumenraum zu einem Kugelkoordinatenraum, wobei der Schritt des Transformierens der 3D-Oberfläche der Läsion zu dem Kugelkoordinatenraum umfasst:
i) Bestimmen einer Position eines Zentroids in dem ursprünglichen 3D-Volumenraum; und
ii) Bestimmen von Koordinaten für jedes Pixel der 3D-Oberfläche auf der Basis der Position des Zentroids; und
iii) Erzeugen einer 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum unter Verwendung der Koordinaten des Kugelkoordinatenraums...

Description

  • Die vorliegende Erfindung betrifft allgemein ein Verfahren für das dreidimensionale (3D) medizinische Image Rendering (Bildberechnung) und die Visualisierung. Genauer betrifft die vorliegende Erfindung medizinische Verfahren zur Bereitstellung einer automatischen 3D-Segmentierung von anormalen anatomischen Strukturen (Läsionen) wie etwa Dickdarmpolypen, Aneurysmen oder Lungenknötchen sowie Verfahren zur Erzielung genauer Größenmessungen und anderer beschreibender Merkmale von segmentierten Läsionen, welche für eine Identifizierung und Klassifizierung von Nutzen sind.
  • Auf dem Gebiet der medizinischen Bildgebung ist die Segmentierung von anormalen anatomischen Strukturen (Läsionen) wie etwa Dickdarmpolypen, Aneurysmen oder Lungenknötchen ein kompliziertes Problem aufgrund der höchst variablen Form, Beschaffenheit, Dichte und Größe solcher Läsionen und ihrer Anhaftung an umgebenden normalen Strukturen. Zum Beispiel ist das Problem der Segmentierung von Dickdarmpolypen besonders schwierig in Anbetracht der komplexen Form der Dickdarmwand, wo hervortretende oder verdickte Dickdarmausbuchtungen (Haustren) und zurückgebliebener Stuhl oft hinsichtlich ihrer Form und Dichte Polypen ähneln.
  • Es wurden verschiedene Verfahren vorgeschlagen, um eine automatisierte Segmentierung in medizinischen Bildgebungssystemen bereitzustellen. Zum Beispiel wurden früher veröffentlichte Verfahren der automatischen Segmentierung von Dickdarmpolypen vorgeschlagen, bei denen eine Oberflächensegmentierung mit Hilfe dreidimensionaler Formmerkmale, 2D-Verfahren der Segmentierung von Polypen oder deformierbare Modelle zur Anwendung kommen. Genauer wird zum Beispiel ein Verfahren zur Segmentierung von Polypen, bei dem eine Oberflächensegmentierung mit Hilfe dreidimensionaler Formmerkmale zur Anwendung kommt, im Artikel von H. Yoshida et al. mit dem Titel "Computerized Detection of Colonic Polyps at CT Colonographie an the Basis of Volumetric Features: Pilot Study" (Computergestützte Erkennung von Dickdarmpolypen bei der CT-Colonographie auf der Basis volumetrischer Merkmale: Pilotstudie), Radiology 2002, 222: 327-336 beschrieben. In der Arbeit wird ein Schema zur Erkennung potentieller Polypen beschrieben, bei dem eine Polypen-Segmentierung mittels Extraktion räumlich verbundener Voxel an der Dickdarmoberfläche mit speziellen Formmerkmalen angewendet wird. Als ein nachfolgender Schritt wird eine bedingte morphologische Dilatation angewendet.
  • Ferner wird ein 2D-Verfahren zur Segmentierung von Polypen zum Beispiel in der Arbeit von S. Göktürk et al. mit dem Titel "A statistical 3-D Pattern processing method for computer-aided detection of polyps in CT colonography" (Ein statistisches 3D-Verfahren zur Musterverarbeitung für die computergestützte Erkennung von Polypen in der CT-Colonographie), IEEE Trans. Med. Image, Bd. 20(12), S.1251-60, Dez. 2001, beschrieben. In der Arbeit wird ein 2D-Verfahren zur Segmentierung von Polypen beschrieben, welches auf verschiedene Tripel von senkrechten Ebenen angewendet wird, die das Subvolumen um den potentiellen Polypen herum slicen (in Scheiben zerlegen). Ziel der Segmentierung ist es, das beste rechteckige Fenster zu finden, welches einen potentiellen Polypen enthält. Es wird ein Anpassungsalgorithmus mit Hilfe quadratischer Kurven und Linien angewendet, um die polypoide Struktur in dem Unterfenster zu finden.
  • Der Nachteil der Anwendung einer 2D-Segmentierung von Polypen auf die aus den axialen Schnittbildern extrahierten Teilbilder oder auf Tripel von senkrechten Ebenen, die das Subvolumen um den potentiellen Polypen herum slicen, besteht darin, dass die Informationen über den dreidimensionalen Zusammenhang nicht berücksichtigt werden. Dieser Nachteil haftet auch der deutschen Patentanmeldung 197 11 670 A1 an, die ein Verfahren und eine Vorrichtung zum Codieren des Umrisses eines Gegenstandes unter Verwendung des Flächenschwerpunktes offenbart.
  • Ein anderes Verfahren zur Segmentierung von Dickdarmpolypen, bei dem 3D-Formmerkmale verwendet werden, wird in dem Artikel von H. Yoshida et al. mit dem Titel "Computerized Detection of Colonic Polyps at CT Colonography an the Basis of Volumetric Features: Pilot Study" (Computergestützte Erkennung von Dickdarmpolypen bei der CT-Colonographie auf der Basis volumetrischer Merkmale: Pilotstudie), Radiology 2002, 222: 327-336 beschrieben. In der Arbeit wird ein 3D-Verfahren zur Extraktion von Polypenoberflächen beschrieben, welches die Segmentierung nur von Eckpunkten der Polypenoberfläche ermöglicht. Jedoch sind die oben erwähnten Segmentierungsverfahren, bei denen eine 2D-Segmentierung von Polypen oder eine 3D-Oberflächensegmentierung von Polypen zur Anwendung kommt, weder für eine Extraktion einer durchgehenden Läsion geeignet, noch für die Gewinnung präziser 3D-Messwerte und beschreibender Merkmale, welche Dichte, Beschaffenheit und Form eines gesamten Läsionsvolumens charakterisieren.
  • Ein anderer Typ der Segmentierung von Polypen wird von J. Yao et al., "Automatic segmentation and detection of colonic polyps in CT colonography based an knowledge-guided deformable models" (Automatische Segmentierung und Erkennung von Dickdarmpolypen in der CT-Colonographie auf der Basis wissensbasierter deformierbarer Modelle), Medical Imaging 2003, SPIE, Bd. 5031-41, im Druck, vorgeschlagen. Yao et al. schlagen ein automatisches Verfahren zur Segmentierung von Polypen vor, das auf der Kombination von Fuzzy C-Mean Clustering und deformierbaren Modellen beruht. Der Gradient der Fuzzy Membership-Funktionen wird als die Bildkraft verwendet, um eine deformierbare Oberfläche um die "Seed" (Saat) herum zur Grenze des Polypen zu treiben. Dieses Verfahren berücksichtigt Intensitätsschwankungen an der ersten Position und kann daher in Fällen, in denen Schlingen des Dickdarms sich ohne sichtbare Grenze oder Intensitätsänderung zwischen ihnen berühren, zu irreführenden Ergebnissen der Segmentierung führen. In solchen Fällen kann das interessierende Volumen zwei durch Gewebe oder zwei aneinander angrenzende Dickdarmwände getrennte Dickdarmlumina enthalten, von denen eines den Polypen enthält, wobei die Oberfläche unterhalb des Polypen zu einer anderen Darmschlinge gehört. Das vorgeschlagene Verfahren kann die Oberfläche unterhalb des Polypen irrtümlich als einen Teil der Oberfläche des Polypen ansehen, was dazu führen könnte, dass ein Volumen extrahiert wird, welches größer als die tatsächliche Größe des Polypen ist.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen anzugeben, mit denen die Läsion unter Berücksichtigung dreidimensionaler Abhängigkeiten zuverlässlich aus dem aufgenommenen Bildmaterial extrahiert und automatisiert offenbart werden können.
  • Diese Aufgabe wird gemäss der Erfindung durch ein Verfahren zur automatischen 3D- (dreidimensionalen) Läsionssegmentierung gelöst, welches die folgenden Schritte umfasst:
    • a) Bestimmen einer 3D-Oberfläche einer Läsion in einem ursprünglichen 3D-Volumenraum, wobei der Schritt des Bestimmens einer 3D-Oberfläche umfasst: i) Extrahieren eines 3D-Subvolumens aus dem ursprünglichen 3D-Volumenraum, welches die Läsion umgibt; ii) Interpolieren der Bilddaten in dem 3D-Subvolumen, um das 3D-Subvolumen isotrop zu machen; und iii) Bestimmen eines 3D-Randes der Läsion in dem isotropen 3D-Subvolumen mit Hilfe eines 3D Canny Edge Detector Verfahrens;
    • b) Transformieren der 3D-Oberfläche der Läsion aus dem ursprünglichen ersten 3D-Volumenraum zu einem Kugelkoordinatenraum, wobei der Schritt des Transformierens der 3D-Oberfläche der Läsion zu dem Kugelkoordinatenraum umfasst: i) Bestimmen einer Position eines Zentroids in dem ursprünglichen 3D-Volumenraum; und ii) Bestimmen von Koordinaten für jedes Pixel der 3D-Oberfläche auf der Basis der Position des Zentroids; und iii) Erzeugen einer 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum unter Verwendung der Koordinaten des Kugelkoordinatenraums und Normierung der 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum;
    • c) Verarbeiten der 3D-Oberfläche in dem Kugelkoordinatenraum, um eine Läsionsoberfläche im Kugelkoordinatenraum zu bestimmen, welche die Läsion von der umgebenden normalen Struktur trennt, wobei der Schritt des Verarbeitens der 3D-Oberfläche in dem Kugelkoordinatenraum die folgenden Schritte umfasst: i) Erweitern der 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum; und ii) Interpolieren der erweiterten 2D-Darstellung, um eine trennende Oberfläche zu bestimmen, welche die Läsion von einer anatomischen Struktur trennt, an welcher die Läsion anhaftet.;
    • d) Invers-Transformieren der Läsionsoberfläche aus dem Kugelkoordinatenraum zum ursprünglichen ersten 3D-Volumenraum, wobei der Schritt des Invers-Transformierens der Läsionsoberfläche im Kugelkoordinatenraum zum ursprünglichen ersten 3D-Volumenraum das Abbilden von Randpunkten im ursprünglichen 3D-Volumenraum in den Kugelkoordinatenraum umfasst; und
    • e) Extrahieren eines der Läsion entsprechenden Volumens aus dem ursprünglichen 3D-Volumenraum unter Verwendung der inverstransformierten Läsionsoberfläche, wobei der Schritt des Extrahierens des der Läsion entsprechenden Volumens aus dem ursprünglichen 3D-Volumenraum unter Verwendung der transformierten Läsionsoberfläche den Schritt des Einbeziehens aller Pixel im ursprünglichen 3D-Volumenraum, welche innerhalb oder unter der Läsionsoberfläche im Kugelkoordinatenraum liegen, als Bestandteil des Läsionsvolumens umfasst.
  • Weitere beispielhafte Ausführungsformen, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden ausführlichen Beschreibung beispielhafter Ausführungsformen ersichtlich, welche in Verbindung mit den beigefügten Zeichnungen zu lesen ist.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Flussdiagramm, welches ein Verfahren zur automatischen 3D-Läsionssegmentierung gemäß einer beispielhaften Ausführungsform der Erfindung zeigt.
  • 2 ist ein Flussdiagramm, welches ein Verfahren zur Bestimmung eines 3D-Randbildes gemäß einer beispielhaften Ausführungsform der Erfindung zeigt, welches in dem Verfahren von 1 implementiert werden kann.
  • 3 ist ein Flussdiagramm, welches ein Verfahren zur Durchführung einer Kugelkoordinatentransformation eines 3D-Randbildes gemäß einer beispielhaften Ausführungsform der Erfindung zeigt, welches in dem Verfahren von 1 implementiert werden kann.
  • 4 ist ein Flussdiagramm eines Verfahrens zur Verarbeitung von Randbilddaten in einem Raum mit Kugelkoordinaten zwecks Extraktion eines interessierenden Volumens gemäß einer beispielhaften Ausführungsform der Erfindung, welches in dem Verfahren von 1 implementiert werden kann.
  • 5 ist ein Flussdiagramm eines Verfahrens zur Durchführung einer inversen Transformation aus dem Raum mit Kugelkoordinaten zwecks Extraktion eines interessierenden Volumens aus den ursprünglichen 3D-Bilddaten gemäß einer beispielhaften Ausführungsform der Erfindung, welches in dem Verfahren von 1 implementiert werden kann.
  • 6 ist ein Flussdiagramm eines Verfahrens zur Bestimmung falscher Oberflächen, welche nicht Teil einer Läsionsoberfläche sind, um eine Segmentierung eines übermäßig großen Läsionsvolumens zu verhindern, gemäß einer beispielhaften Ausführungsform der Erfindung, welches in dem Verfahren von 1 implementiert werden kann.
  • Die 7A bis 7E sind grafische Darstellungen, welche schematisch ein Verfahren zur Randerkennung gemäß einer beispielhaften Ausführungsform der Erfindung zeigen.
  • Die 8A und 8B sind grafische Darstellungen, welche schematisch ein Verfahren zur Kugelkoordinatentransformation gemäß einer beispielhaften Ausführungsform der Erfindung zeigen.
  • Die 9A und 9B sind grafische Darstellungen, welche schematisch ein Normierungsverfahren gemäß einer beispielhaften Ausführungsform der Erfindung zeigen.
  • Die 10A und 10B sind grafische Darstellungen, welche schematisch ein Verfahren zur Erweiterung eines Bildes im Raum mit Kugelkoordinaten zwecks Ermöglichung einer Interpolation der Läsionsoberfläche gemäß einer beispielhaften Ausführungsform der Erfindung zeigen.
  • Die 11A und 11B sind beispielhafte grafische Darstellungen zur Veranschaulichung eines Prozesses der Segmentierung eines Polypen, welcher zu einer übermäßig großen Segmentierung eines Polypen infolge der Erkennung falscher Oberflächen, welche nicht Teil der Läsionsoberfläche sind, führen kann.
  • Ausführliche Beschreibung beispielhafter Ausführungsformen
  • Allgemein beinhalten die beispielhaften Ausführungsformen der Erfindung, die hier beschrieben werden, Systeme und Verfahren zur automatischen 3D-Segmentierung von anormalen anatomischen Strukturen wie etwa Dickdarmpolypen, Aneurysmen oder Lungenknötchen usw. in medizinischen Anwendungen der 3D-Bildgebung. Bei einer hier beschriebenen beispielhaften Ausführungsform der Erfindung implementieren ein System und ein Verfahren zur 3D-Läsionssegmentierung automatisierte Verfahren für die Kugelkoordinatentransformation eines 3D-Randbildes und die anschließende Interpolation einer Läsionsoberfläche, was eine genaue Bestimmung einer Grenze zwischen einer interessierenden Läsion und den umgebenden normalen anatomischen Geweben und Strukturen ermöglicht.
  • Ferner werden durch beispielhafte Systeme und Verfahren gemäß der Erfindung Verfahren zur automatischen Messung verschiedener Maße und Merkmale von 3D segmentierten Läsionen bereitgestellt, welche für Zwecke einer Identifizierung oder automatischen Klassifizierung auf der Basis des extrahierten Läsionsvolumens implementiert werden können. Insbesondere können Systeme und Verfahren gemäß der Erfindung einen Benutzer (Radiologen) dabei unterstützen, automatisch genaue Messwerte der Läsionsgröße zu erhalten und zwischen der Läsion und anderen anatomischen Strukturen wie etwa gesundem Gewebe, zurückgebliebenem Stuhl oder Streifenartefakten zu unterscheiden. Außerdem könnten Systeme der computergestützten Erkennung (computer-aided detection, CAD) dahingehend erweitert werden, dass sie Systeme und Verfahren zur 3D-Segmentierung gemäß der Erfindung umfassen, um dadurch zusätzliche Unterscheidungsmerkmale zur Charakterisierung anormaler Läsionen oder als Eingangsgrößen für Klassifizierungsverfahren zu erhalten.
  • Selbstverständlich können die hier beschriebenen Systeme und Verfahren gemäß der vorliegenden Erfindung in unterschiedlichen Formen von Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination davon implementiert werden. Bei einer beispielhaften Ausführungsform der Erfindung werden die hier beschriebenen Systeme und Verfahren softwaremäßig als eine Anwendung implementiert, die Programmanweisungen umfasst, welche hardwaremäßig auf einem oder mehreren Programmspeichermedien (z. B. Diskette, RAM, CD-ROM, DVD, ROM und Flash-Speicher) implementiert sind und durch eine Vorrichtung oder Maschine ausgeführt werden können, welche eine geeignete Architektur umfasst.
  • Außerdem können selbstverständlich, da die in den beigefügten Zeichnungen abgebildeten Bausteine, aus denen das System besteht, und Verfahrensschritte softwaremäßig implementiert sein können, die tatsächlichen Verbindungen zwischen den Komponenten des Systems (oder der Ablauf der Verfahrensschritte) unterschiedlich sein, in Abhängigkeit von der Art und Weise, wie die Anwendung programmiert ist. Auf der Grundlage der Lehren der vorliegenden Patentanmeldung ist dann ein Fachmann auf dem betreffenden Gebiet in der Lage, diese und ähnliche Implementierungen oder Konfigurationen der vorliegenden Erfindung in Betracht zu ziehen.
  • 1 ist ein Flussdiagramm, welches ein Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung gemäß einer beispielhaften Ausführungsform der Erfindung zeigt. 1 kann ferner als ein System zur Bereitstellung einer 3D-Segmentierung betrachtet werden, wobei die in 1 dargestellten Verfahrensschritte Komponenten oder Bausteine sind, welche die hier beschriebenen Verfahren und Funktionen zur Bereitstellung einer 3D-Läsionssegmentierung und Messung ausführen. Ferner ist leicht einzusehen, dass die hier beschriebenen beispielhaften Systeme und Verfahren für medizinische 3D-Bildgebungs- und CAD-Systeme oder Anwendungen für verschiedene Arten der Bildgebung (CT, MRT usw.) implementiert werden können. Außerdem sind die hier beschriebenen beispielhaften Systeme und Verfahren gut für eine automatische Extraktion und Messung von anormalen anatomischen Strukturen oder Läsionen wie etwa Dickdarmpolypen, Aneurysmen, Lungenknötchen usw. geeignet. Insofern darf, auch wenn beispielhafte Ausführungsformen hier möglicherweise unter spezieller Bezugnahme auf die Segmentierung von Dickdarmpolypen beschrieben sind, nichts als den Schutzbereich der Erfindung einschränkend ausgelegt werden.
  • Es wird nun auf 1 Bezug genommen; ein beispielhaftes Verfahren der 3D-Läsionssegmentierung beginnt im Allgemeinen mit der Eingabe von Koordinaten einer interessierenden Läsion in einen Segmentierungsbaustein (Schritt 10). In der nachfolgenden Beschreibung wird angenommen, dass ein ursprünglicher 3D-Volumen-Datensatz (z. B. mehrere 2D-Schnittbilder) von einem bestimmten Körperteil (z. B. Dickdarm, Lunge, Herz usw.) mit einem bestimmten Bildgebungsverfahren (z. B. CT, MRT usw.) erfasst worden ist. Bei einer beispielhaften Ausführungsform der Erfindung können die Koordinaten der Läsion über eine grafische Benutzeroberfläche (graphical user interface, GUI) eingegeben werden, wobei eine Person eine Maus oder Zeigervorrichtung verwenden kann, um zum Beispiel eine interessierende Region (z. B. einen Polypen) eines angezeigten 2D- oder 3D-Bildes (z. B. einer 3D-Ansicht in einem Dickdarm) auszuwählen. Bei einer anderen Ausführungsform der Erfindung können die Koordinaten der Läsion von einem automatisierten System oder Verfahren aus eingegeben werden, welches in der Lage ist, Stellen potentieller Läsionen (welche vor der Eingabe eine Überprüfung oder auch keine Überprüfung durch den Benutzer erfordern können) automatisch auszuwählen/zu erkennen.
  • Anschließend wird auf der Basis der eingegebenen Koordinaten ein Teil (Subvolumen) des ursprünglichen 3D-Volumen-Datensatzes verarbeitet (über ein Verfahren zur Randerkennung), um einen 3D-Rand (Oberfläche) der ausgewählten Läsion zu bestimmen (Schritt 20). Genauer wird ein Randerkennungs-Prozess implementiert, um die Pixel in den Bilddaten des 3D-Subvolumens zu bestimmen, welche Bestandteil der 3D-Oberfläche der ausgewählten Läsion im ursprünglichen Koordinatenraum sind. Ein beispielhaftes Verfahren zur Durchführung einer 3D-Randerkennung wird weiter unten unter Bezugnahme z. B. auf das Flussdiagramm von 2 und die schematischen grafischen Darstellungen der 7A bis 7E erläutert.
  • Bei einer beispielhaften Ausführungsform der Erfindung wird anschließend eine Kugelkoordinatentransformation auf die Bilddaten des 3D-Randes angewendet (Schritt 30). Allgemein wird bei einem Prozess der Kugelkoordinatentransformation gemäß der Erfindung die 3D-Läsionsoberfläche in eine Oberflächendarstellung der ausgewählten Läsion in einem Raum mit Kugelkoordinaten auf der Basis einer vom Benutzer gewählten (oder automatisch berechneten) Position des Zentroids (Schwerpunktes) der interessierenden Läsion transformiert. Natürlich wird hier für Zwecke der Veranschaulichung ein beispielhafter Prozess der Kugelkoordinatentransformation beschrieben. Es ist jedoch zu beachten, dass entsprechend der vorliegenden Erfindung allgemein jeder beliebige geeignete Prozess einer Zentroid-Transformation implementiert werden kann, welcher räumliche Daten aus einem ursprünglichen Koordinatenraum (z. B. einem Raum mit kartesischen Koordinaten) übernimmt und die räumlichen Daten so transformiert, dass sie räumlichen Daten aus einem anderen Koordinatenraum, der auf einer vom Benutzer gewählten oder berechneten Position des Zentroids im ursprünglichen Koordinatenraum basiert, entsprechen. Der Typ des angewendeten Prozesses der Zentroid-Transformation kann von der typischen Form der interessierenden Läsionen abhängen. Zum Beispiel kann im Hinblick auf Polypen eine zentroidbasierte Transformation unter Anwendung eines Ellipsoid-Transformationsprozesses implementiert werden, da Polypen normalerweise Formen aufweisen, die von Natur aus ellipsoid sind. In diesem Zusammenhang darf nichts in dieser Patentanmeldung dahingehend ausgelegt werden, dass es den Typ der zentroidbasierten Transformation einschränkt, die angewendet werden kann, da ein Fachmann auf diesem Gebiet ohne weiteres andere zentroidbasierte Transformationen in Betracht ziehen und anwenden könnte, welche auf der Basis der hier dargelegten Lehren für eine 3D-Segmentierung implementiert werden können.
  • Die Oberflächendarstellung wird weiter verarbeitet, um genau die Oberfläche der ausgewählten Läsion zu bestimmen, welche die Grenze/den Übergangsbereich (z. B. den "Hals" des Polypen) zwischen der Läsion (z. B. dem Polypen) zu bestimmen, um die ausgewählte Läsion von dem umgebenden Gewebe (Dickdarmwand) zu trennen (Schritt 40). Verschiedene beispielhafte Ausführungsformen der Erfindung zum Transformieren der 3D-Randdaten (Läsionsoberfläche) in einen Raum mit Kugelkoordinaten und zum Verarbeiten der transformierten Daten, um die ausgewählte Läsion zu extrahieren, werden weiter unten ausführlicher beschrieben, unter Bezugnahme z. B. auf die Flussdiagramme der 3, 4 und 5.
  • Nachdem die ausgewählte Läsion im Raum mit Kugelkoordinaten extrahiert worden ist (Schritt 40), wird ein Prozess der inversen Transformation angewendet, um die in den Kugelkoordinaten extrahierten Volumendaten in die ursprünglichen Koordinaten (z. B. in kartesische Koordinaten) umzuwandeln und damit die Segmentierung der ausgewählten Läsion aus den ursprünglichen 3D-Bilddaten des Subvolumens zu ermöglichen (Schritt 50). Ein beispielhafter Prozess der inversen Transformation gemäß einer beispielhaften Ausführungsform der Erfindung wird weiter unten beschrieben, zum Beispiel unter Bezugnahme auf das Flussdiagramm von 5.
  • Bei einer anderen Ausführungsform der Erfindung kann ein automatisierter Prozess implementiert werden, um verschiedene Messwerte in Bezug auf das segmentierte Läsionsvolumen zu erhalten (Schritt 60), welche als beschreibende Merkmale für die Identifizierung und Klassifizierung der Läsion dienen können. Die Messwerte, welche aus dem extrahierten Läsionsvolumen erhalten werden können, umfassen zum Beispiel, ohne darauf beschränkt zu sein, die Größe der Läsionsoberfläche, Kompaktheit, Volumen, mittlere und Gaußsche Krümmungen, deren Mittelwert, min, max und Standardabweichung (STD), Mittelwert, min, max und Standardabweichung der Sphärizität, den minimalen und maximalen Durchmesser, Höhe, Fläche des "Halses" (bei Polypen), Mittelwert, min, max und Standardabweichung der Intensität (um Beschaffenheit und Artefakte zu berücksichtigen).
  • 2 ist ein Flussdiagramm, welches ein Verfahren zur Bestimmung eines 3D-Randbildes gemäß einer beispielhaften Ausführungsform der Erfindung zeigt. Das Verfahren von 2 kann für Schritt 20 des beispielhaften Verfahrens von 1 implementiert werden. Für Zwecke der Veranschaulichung wird das beispielhafte Verfahren von 2 ferner unter Bezugnahme auf die 7A bis 7E erörtert, welche schematisch ein beispielhaftes Verfahren zur Erkennung eines 3D-Randes (Oberfläche) eines interessierenden Dickdarmpolypen gemäß der Erfindung zeigen.
  • Es wird zunächst auf 2 Bezug genommen; ein Anfangsschritt besteht darin, die Koordinaten des Zentroids der ausgewählten Läsion zu bestimmen (oder zu approximieren) (Schritt 21). Bei einer Ausführungsform der Erfindung können die Koordinaten des Zentroids der ausgewählten Läsion automatisch mit Hilfe eines beliebigen geeigneten Verfahrens bestimmt werden. Bei einer anderen beispielhaften Ausführungsform der Erfindung können die Koordinaten des Zentroids vom Benutzer gewählt werden, wobei ein Benutzer einen Punkt auf den angezeigten kanonischen orthogonalen 2D-Ansichten (axial, koronal oder sagittal) oder der 3D-Läsion (z. B. des Polypen) wählt, von dem er annimmt, dass er in der Nähe der Position des Zentroids liegt. Zum Beispiel ist 7A eine beispielhafte endoluminale 3D-Ansicht eines gestielten Polypen, wobei der Punkt C eine vom Benutzer gewählte (oder automatisch bestimmte) Position des Zentroids in Bezug auf den dreidimensional dargestellten Polypenkopf bezeichnet.
  • Anschließend wird ein Datensatz eines Subvolumens, welcher die ausgewählte Läsion und deren Umgebung enthält, aus dem Datensatz des ursprünglichen 3D-Volumens extrahiert (Schritt 22). Bei einer beispielhaften Ausführungsform der Erfindung umfasst das extrahierte Subvolumen eine Vielzahl von räumlich nahe beieinander liegenden 2D-Schnittbildern von Bilddaten, welche sich in der Nachbarschaft der Position des Zentroids C befinden. Zum Beispiel zeigt 7B schematisch ein extrahiertes Subvolumen, welches fünfundzwanzig 2D-Schnittbilder von Bilddaten umfasst, die nahe beieinander liegend in der Nähe des in 7A abgebildeten ausgewählten Zentroids C angeordnet sind. Bei dieser beispielhaften Ausführungsform wird angenommen, dass die 2D-Schnittbilder Bilddaten in einer x-y-Ebene im kartesischen Koordinatenraum enthalten.
  • Das extrahierte 3D-Subvolumen wird anschließend unter Anwendung eines Interpolationsprozesses bearbeitet, um zu erreichen, dass das Subvolumen isotrop wird (Schritt 23). Genauer wird bei einer beispielhaften Ausführungsform, bei der die 2D-Schnittbilder des Subvolumens Pixel in der x-y-Ebene enthalten, ein Interpolationsverfahren in der z-Richtung ausgeführt, um zu erreichen, dass das Subvolumen isotrop wird (d. h. um zu erreichen, dass die Abmessungen der Pixel in den x-y-Schnittbildern mit den Abmessungen der Pixel in der z-Richtung übereinstimmen). Der Interpolationsprozess kann mit Hilfe eines beliebigen geeigneten Resampling-Prozesses durchgeführt werden. Die beispielhafte grafische Darstellung von 7C zeigt 2D-Schnittbilder von Bilddaten, welche aus der Interpolation der 2D-Schnittbilder von 7B resultieren.
  • Danach wird auf den isotropen Subvolumen-Datensatz ein 3D-Verfahren zur Randerkennung angewendet, um einen 3D-Rand (Oberfläche) der ausgewählten Läsion zu bestimmen (Schritt 24). Bei einer beispielhaften Ausführungsform wird die Randerkennung mit Hilfe eines 3D Canny Edge Detector Verfahrens durchgeführt, welches ein wohlbekanntes Verfahren zum Extrahieren von Rändern, welche ein Pixel dick sind, ist, das durch Hysterese realisiert wird. Zum Beispiel zeigt 7D schematisch Ergebnisse eines beispielhaften Prozesses der Randerkennung, welcher auf die interpolierten 2D-Schnittbilder von 7C angewendet wird. Wie dargestellt, enthält jedes 2D-Schnittbild eine oder mehrere Linien, welche die Oberfläche des Polypen von 7A repräsentieren. Ferner ist 7E eine beispielhafte Darstellung eines 3D-Randbildes, welches mit Hilfe der 2D-Randdaten von 7D erhalten wird. Die beispielhafte grafische Darstellung von 7E zeigt ein 3D-Randbild, welches ein kubisches Volumen von ungefähr 35×35×35 Pixeln aufweist.
  • Das Verfahren der Randerkennung wird angewendet, um die Koordinaten der Pixel im Raum des ursprünglichen 3D-Subvolumens zu bestimmen, welche in dem erkannten 3D-Rand (Oberfläche) der interessierenden Läsion enthalten sind. Die Ergebnisse des Verfahrens der Randerkennung werden zu einem Verfahren der Kugelkoordinatentransformation ausgegeben (Schritt 25).
  • 3 ist ein Flussdiagramm, welches ein Verfahren zur Durchführung einer Kugelkoordinatentransformation von 3D Rand-Bilddaten gemäß einer beispielhaften Ausführungsform der Erfindung zeigt. Das Verfahren von 3 kann in Schritt 30 von 1 implementiert werden. Ferner sind die 8A bis 8B beispielhafte grafische Darstellungen, welche schematisch einen Prozess der Kugelkoordinatentransformation zeigen. Es wird nun auf 3 Bezug genommen; ein Anfangsschritt besteht darin, die Koordinaten der 3D Rand-(Oberflächen-) Daten auf der Basis der gewählten/berechneten Position des Zentroids in Kugelkoordinaten zu transformieren (Schritt 31). Bei einer beispielhaften Ausführungsform beinhaltet ein Verfahren der Zentroidtransformation die Berechnung neuer Koordinaten (r, φ, θ) für jeden Punkt (x, y, z) auf dem 3D-Rand (Oberfläche) der gewählten Läsion aus dem Zentroid C (welcher als der Ursprung des ursprünglichen 3D-Raumes des Subvolumens betrachtet wird), wie folgt:
    Figure 00160001
  • Anschließend werden eventuelle zusätzliche Eckpunkte, welche nicht ausschließlich zur Oberfläche der Läsion gehören, gelöscht (Schritt 32), indem z. B. der Gradient der Intensität in der radialen Richtung vom gewählten (oder berechneten) Zentroid C aus geprüft wird. Weiterhin werden entfernte Oberflächen, welche nicht Bestandteil der Oberfläche der Läsion sind, entfernt (Schritt 33). Ergebnis dieses Prozesses ist eine transformierte Oberflächendarstellung r(φ, θ) (Schritt 34), bei der es sich um eine 2D-Darstellung der erkannten Oberfläche der Läsion im Raum mit Kugelkoordinaten handelt, bei der für jedes (φ, θ) nur ein Wert r vorhanden ist.
  • Die 8A und 8B sind beispielhafte grafische Darstellungen, welche schematisch ein Verfahren zur Kugelkoordinatentransformation gemäß der Erfindung zeigen. Genauer zeigt 8A ein 2D-Schnittbild eines Subvolumens, das einen Polypen enthält, welcher sich in ein Dickdarmlumen L hinein erstreckt. Die gestrichelte Linie (N) bezeichnet einen "Polypenhals", wo der Polyp an der Dickdarmwand anhaftet. Genauer, der "Polypenhals" ist der Übergang vom Polypenkopf zur Dickdarmwand. Wenn der Übergang lang gestreckt ist, wird der Polyp als gestielter Polyp bezeichnet.
  • Wie in 8A dargestellt, ist eine Kugelkoordinatentransformation gleichbedeutend damit, eine Vielzahl von "Strahlen" (R) aus der Position des Zentroids (C) auszusenden und zu bestimmen, wo jeder Strahl (R) den Rand (E) der Oberfläche der Läsion (des Polypen) im ursprünglichen 3D-Raum des Subvolumens schneidet, wobei der Wert von "r" die Entfernung entlang des Strahls vom Zentroid C bis zum dem Punkt, wo der Strahl den Rand E schneidet, darstellt. ABB 8B ist eine grafische Darstellung, welche schematisch eine Abstandstransformierte (Distance Transform) zeigt, welche auf der Basis des in 8A dargestellten Prozesses für sämtliche Schnittbilder in dem isotropen Subvolumen resultiert. 8B zeigt eine Oberfläche, so wie sie von der Position des Zentroids (C) aus gesehen würde, wobei der Abstand r als die Höhe der Oberfläche vom Zentroid (C) aus ausgedrückt ist.
  • Wie in 8A dargestellt ist, schneiden die Strahlen (R), welche durch den Polypenhals (N) hindurch in das Gewebe des Dickdarms hinein verlaufen, keinen Punkt auf dem Rand (E) des Polypen, sondern führen stattdessen in das Gewebe des Dickdarms hinein (wobei sie durch den Polypenhals N verlaufen). Deshalb werden Verfahren zur Beseitigung entfernter Oberflächen angewendet (Schritt 33). Eine beispielhafte Ausführungsform zur Beseitigung entfernter Oberflächen wird weiter unten unter Bezugnahme z. B. auf die 6 und 11A bis 11B ausführlich beschrieben. Allgemein beruhen Verfahren zur Beseitigung entfernter Oberflächen, welche in Wirklichkeit nicht Teil der Läsionsoberfläche sind, zum Beispiel auf verschiedenen Kriterien, welche angewendet werden können, um die Länge der Strahlen zu begrenzen, die z.B. durch den Polypenhals N hindurch verlaufen.
  • Zum Beispiel können Kriterien wie etwa der Abstand vom Zentroid und die Winkeländerung und die Schnittpunkte der Strahlen in der entfernten Oberfläche zwischen zwei aufeinander folgenden Strahlen berücksichtigt werden. Der Abstand kann verwendet werden, um entfernte Flächen (Oberflächen) vom mittleren Abstand von Strahlen in der Nähe des Zentroids zu diskriminieren. Genauer, wenn zum Beispiel der Zentroid in Bezug auf einen kugelförmigen Polypen bestimmt wurde, würden die Strahlabstände (r) im Mittel dem Radius der kugelförmigen Läsion nahe kommen. Dies gilt nicht, wenn zum Beispiel eine Läsion wie etwa ein Polyp einen Hals hat (siehe 11B). Im Falle von zwei benachbarten Strahlen, die ein kugelförmiges Objekt (z. B. Polyp) aufspannen, wären die Punkte, in denen diese Strahlen die Oberfläche der Läsion schneiden würden, näherungsweise äquidistant vom Zentroid. Wenn jedoch ein Strahl die Oberfläche des Polypen schneidet und der benachbarte Strahl sich in den Hals des Polypen hinein erstreckt und eine entfernte Oberfläche schneidet, wird die Differenz zwischen den Abständen, die von den Endpunkten dieser zwei eine Oberfläche schneidenden benachbarten Strahlen begrenzt werden, erheblich sein. Diese Abstände sind ebenfalls erkennbar und in der Transformation der Kugeloberfläche als eine Unstetigkeit dargestellt (siehe z. B. 11B). Wie oben erwähnt wurde, wird ein beispielhaftes Verfahren, welches in Schritt 33 von 3 implementiert werden kann, weiter unten unter Bezugnahme auf z. B. die 6 und 11A bis 11B ausführlich erläutert.
  • 4 ist ein Flussdiagramm, welches ein Verfahren zur Verarbeitung der Darstellung der Läsionsoberfläche in einem Raum mit Kugelkoordinaten zeigt, um die Oberfläche der ausgewählten Läsion einschließlich der Grenze (z. B. des Polypenhalses) zwischen der Läsion (z. B. dem Polypen) und dem umgebenden Gewebe genau zu bestimmen und dadurch zu ermöglichen, die ausgewählte Läsion von dem umgebenden Gewebe zu trennen (z. B. einen Polypenhals zu bestimmen, welcher den Polypen von einer Dickdarmwand trennt). Das Verfahren von 4 kann für Schritt 40 von 1 implementiert werden. Es wird nun auf 4 Bezug genommen; ein Anfangsschritt besteht darin, einen Normierungsfaktor (Streckfaktor) für jeden diskreten Wert des Radius zu bestimmen (Schritt 41). Das Normierungsverfahren stellt ein Mittel zum Ausbalancieren der Darstellung der Oberfläche in dem Raum mit Kugelkoordinaten dar, um dadurch die Pixel mit gleichen Gewichten zu versehen (d. h. diese werden proportional skaliert). Das Normierungsverfahren (Schritt 41) ist nicht unbedingt notwendig, ermöglicht jedoch eine Vereinfachung eines Oberflächen-Interpolationsverfahrens, das weiter unten beschrieben wird (als Alternative dazu könnte ein gewichtetes Interpolationsverfahren implementiert werden).
  • Die 9A und 9B sind beispielhafte grafische Darstellungen, welche schematisch ein Normierungsverfahren gemäß der Erfindung zeigen. In dem Beispiel wird ein Normierungsfaktor durch
    Figure 00190001
    bestimmt, ein Diskretisierungsgrad wird durch D = round(2nrmax) bestimmt, und ein Winkelinkrement wird durch Δθ =2π/D bestimmt. In 9A ist die Beziehung zwischen Punkten auf einer Läsionsoberfläche, welche sich an Positionen mit unterschiedlichen Radien (r1 = 1, r2 = 2, rmax = 3) befinden, grafisch dargestellt. Diese Abbildungen zeigen eine vereinfachte Version eines Normierungsverfahrens, welche das Verfahren mit einer 2D-Version in Verbindung bringt und somit das Verfahren über eine Transformation zu Polarkoordinaten ausdrückt. In diesem Falle spannt ein gegebener Winkel (wie abgebildet) einen längeren Abschnitt des Umfangs auf, wenn sich die Radien vergrößern. Wenn man dies in einen Raum mit Polarkoordinaten überträgt (siehe 9B), werden die Punkte, welche sich näher am Mittelpunkt befinden (im Abstand r1), "gestreckt". Ein Normierungsfaktor, welcher durch
    Figure 00190002
    bestimmt ist, erfasst diese Beziehung der Streckung und quantisiert sie in Form von Pixeln. Die Werte in 9A zeigen die quantisierte Beziehung zwischen Pixeln im Abstand r = 1, dem auf den nächsten ganzzahligen Wert = 6 gerundeten Umfang l1 und einem Normierungsfaktor δ1 = 3. Der Normierungsfaktor erfasst den Grad der Streckung, der erforderlich ist, um den innersten Umfang so lang zu machen wie den äußeren Umfang. Somit entsprechen eigentlich in dem betrachteten Beispiel jeder Längeneinheit auf dem äußeren Umfang rmax 3 Einheiten des innersten Umfangs. Wenn man eine Oberfläche interpoliert, welche verschiedene Radien kreuzt, ist es wichtig, den Beitrag der Interpolationsfunktion richtig zu Wichten, was durch das beispielhafte Normierungsverfahren erreicht wird. Das obige Beispiel lässt sich auf Kugelkoordinaten und Kugeloberflächen übertragen.
  • Es wird erneut auf 4 Bezug genommen; nach der Normierung wird ein Verfahren der Medianfilterung auf die Darstellung der Läsionsoberfläche r(φ, θ) angewendet (Schritt 42). Durch das Filterungsverfahren wird ein eventuelles Rauschen beseitigt, welches infolge des Transformationsprozesses erzeugt wird (die Filterung beseitigt berechnetes Rauschen von Fehlmessungen). Das Ergebnis der Normierung (Schritt 41) und Filterung (Schritt 42) ist ein quantisiertes Rendering der Läsionsoberfläche in einem Raum mit Kugelkoordinaten. Da die tatsächliche Läsionsoberfläche in Wirklichkeit glatt und stetig ist, wird ein Interpolationsverfahren ausgeführt, um aus der quantisierten Läsionsoberfläche eine glatte stetige Oberfläche zu erzeugen, welche dann verwendet werden soll, um das Läsionsvolumen aus dem umgebenden gesunden Gewebe zu extrahieren. Bei einer beispielhaften Ausführungsform der Erfindung wird, um die Läsion aus dem umgebenden gesunden Gewebe zu extrahieren, die Darstellung der Läsionsoberfläche r(φ, θ) weiter verarbeitet, um eine Position und eine Form der Läsionsoberfläche zu bestimmen, welche das interessierende Volumen von seiner Umgebung trennen. Durch dieses Verfahren wird eine Grenze (Trennfläche) zwischen der Läsion und den umgebenden normalen Strukturen bestimmt. Zum Beispiel wird bei der hier beschriebenen beispielhaften Ausführungsform der Segmentierung von Polypen die Trennfläche der Läsion als der "Polypenhals" bezeichnet.
  • Es wird auf 4 Bezug genommen; ein Anfangsschritt, um die Interpolation eines "Polypenhalses" zu ermöglichen, beinhaltet zum Beispiel die Durchführung eines Verfahrens, um die Darstellung der Läsionsoberfläche r(φ,θ) (Schritt 43) auf eine Art und Weise zu erweitern, welche die Tatsache berücksichtigt, dass die Ränder der 2D-Oberflächendarstellung r(φ, θ) verbunden sind, d. h., dass r(φ, θ + 2π) = r(φ, θ) und r(φ + π, θ) = r(φ, θ) ist. Bei einer beispielhaften Ausführungsform beinhaltet ein Verfahren zur Erweiterung ein Abbilden von r(φ, θ) auf r'(φ', θ') wie folgt:
    • (i) r'([π/2...3π/2],[2π...3π]) = r([0...π],[[0...2π]]);
    • (ii) r'([π/2...3π/2],[1...π]) = r([0...π],[[π..2π]]);
    • (iii) r'([0... π/2],[π...3π]) = r([π/2... ],[[0..2π]]);
    • (iv) r'([π/2...3π],[3π...4π]) = r([0...π],[{0...π]]); und
    • (v) r'([3π/2...π],[π...3π]) = r([0...π/2],[0..2π]).
  • Die 10A und 10B sind beispielhafte grafische Darstellungen zur Veranschaulichung eines Verfahrens zur Erweiterung der Darstellung der Läsionsoberfläche r(φ, θ), wobei 10A verschiedene Bereiche der Darstellung der Läsionsoberfläche r (φ, θ) zeigt und 10B die Ergebnisse der Erweiterung des Bildes von 10A zeigt. Wie dargestellt, wird bei dem Verfahren zur Erweiterung im Wesentlichen eine untere Hälfte des Bildes genommen und in einen Bereich über dem oberen Rand des Bildes kopiert, es wird eine obere Hälfte des Bildes genommen und in einen Bereich unter dem unteren Rand des Bildes kopiert, es wird eine linke Seite des Bildes genommen und rechts neben das Bild kopiert, und es wird eine rechte Seite des Bildes genommen und links neben das Bild kopiert. Durch dieses Verfahren wird das Bild im Grunde genommen "gefaltet", was einen glatten Interpolationsprozess ermöglicht. Genauer, die Replikation (Nachbildung) des Bildes wird durchgeführt, um eventuelle Probleme der Unterstützung für die Grenzbereiche zu lösen. Replikation des Randes, Faltung oder Cross-Copying (Kreuzkopieren) ist eine bekannte Methode im Bereich der Computersicht und wird hier angewendet, um eine Unterstützung für die Interpolation und/oder Filterung am Rand zu liefern. Wenn zum Beispiel der Interpolationswert für einen Randpunkt auf der linken Seite eines Bildes (Oberfläche) berechnet wird, sind nur Werte auf der rechten Seite der Oberfläche vorhanden. Eine herkömmliche Herangehensweise besteht darin, eine Unterstützung entweder durch Spiegelung der Werte vorzusehen, oder durch Bildumlauf (Wraparound), wie es hier durchgeführt wird. Dies ist im Zusammenhang mit einer Kugelkoordinatentransformation von Bedeutung. Folglich ist Replikation und Spiegelung des Bildes gleichbedeutend mit Wraparound um den Mittelpunkt, um ein wenig mehr einzubeziehen und dadurch ein Stück Überlappung zu extrahieren, welches anschließend als eine Replikation in den Raum mit Kugelkoordinaten übertragen wird. Nachdem die vollständige Interpolation abgeschlossen ist, werden die Erweiterungen der Bilder ignoriert, und es wird nur das ursprüngliche Bild (Oberfläche) betrachtet.
  • Danach wird unter Verwendung des erweiterten Bildes ein Interpolationsverfahren durchgeführt (Schritt 45). Die Bilderweiterung (Schritt 43) und die Interpolation (Schritt 45) führen zur Bestimmung einer glatten 3D-Läsionsoberfläche, welche die Grenze (z. B. den Polypenhals) oder Trennlinie zwischen der Läsion und den umgebenden normalen anatomischen Strukturen enthält. Anders ausgedrückt, Ergebnis des Verfahrens ist die Extraktion einer glatten, eingeschlossenen Oberfläche der Läsion im Raum mit Kugelkoordinaten, wobei sich diese Oberfläche auf das Zentroid C bezieht. Ein nächster Schritt besteht darin, das Läsionsvolumen im ursprünglichen 3D-Bildraum zu bestimmen.
  • 5 ist ein Flussdiagramm, welches ein Verfahren zur Durchführung einer inversen Transformation zwecks Extraktion eines interessierenden Volumens aus den ursprünglichen 3D-Bilddaten gemäß einer beispielhaften Ausführungsform der Erfindung zeigt. Das Verfahren von 5 kann angewendet werden, um Schritt 50 von 1 zu implementieren. Zunächst werden die Daten der interpolierten Läsionsoberfläche in ein inverses Transformationsverfahren eingegeben (Schritt 51). Es wird eine Abbildung (z. B. eine Nachschlagtabelle) erzeugt, um die interpolierte Läsionsoberfläche (welche sich in einem Raum mit Kugelkoordinaten befindet) zurück in den ursprünglichen 3D-Volumenraum (z. B. kartesische Koordinaten) abzubilden. Genauer, bei einer beispielhaften Ausführungsform der Erfindung werden die Eckpunkte des ursprünglichen Subvolumens (in kartesischen Koordinaten) in den Raum mit Kugelkoordinaten abgebildet (Schritt 52).
  • Anschließend werden alle Pixel des ursprünglichen Subvolumens gescannt (Schritt 53). Für jeden Pixel wird eine Bestimmung vorgenommen, ob das Pixel eine Intensität aufweist (Schritt 54). Falls das Pixel keinen Intensitätswert aufweist (z. B. wenn das Pixel sich im Dickdarmlumen befindet) (negative Bestimmung in Schritt 54), wird das Pixel als nicht zum interessierenden Volumen gehörend ignoriert (Schritt 55). Falls das Pixel eine Intensität aufweist (positive Bestimmung in Schritt 54), jedoch bestimmt wird (über die Abbildung), dass das Pixel nicht innerhalb oder unter der interpolierten Läsionsoberfläche in Kugelkoordinaten liegt (negative Bestimmung in Schritt 56), wird das Pixel als nicht zum interessierenden Volumen gehörend ignoriert (Schritt 55).
  • Andererseits, falls ein gegebenes Pixel eine Intensität aufweist (positive Bestimmung in Schritt 54) und außerdem bestimmt wird (über die Abbildung), dass es innerhalb oder unter der interpolierten Läsionsoberfläche in Kugelkoordinaten liegt (positive Bestimmung in Schritt 56), wird das Pixel als Bestandteil des interessierenden Volumens markiert (Schritt 57). Indem die Schritte 54, 55, 56 und 57 für alle Pixel im ursprünglichen 3D-Subvolumen wiederholt werden, kann das Volumen der Läsion aus den Bilddaten des ursprünglichen 3D-Subvolumens segmentiert werden.
  • Nachdem das interessierende Volumen segmentiert worden ist, können verschiedene Messungen durchgeführt werden (Schritt 60,
  • 1). Zum Beispiel wird bei einer beispielhaften Ausführungsform das Volumen der segmentierten Läsion bestimmt, indem die Voxel (vollständige und teilweise) gezählt werden, welche zwischen der tatsächlichen Oberfläche des segmentierten Objekts (Oberfläche des Polypen) und der interpolierten Oberfläche darunter enthalten sind. Diese Voxel werden in mm3 konvertiert, indem die tatsächliche räumliche Auflösung der erfassten Daten in x-, y- und z-Richtung betrachtet wird. Ferner kann, wie oben erwähnt, der maximale Durchmesser (der bei Messungen von Polypen wichtig ist) bestimmt werden, indem der weitere Abstand zwischen zwei extremen Voxeln innerhalb des extrahierten Volumens berechnet wird. Momente der Intensität (Mittelwert, Standardabweichung usw.) können berechnet werden, indem die Intensitätswerte der Pixel betrachtet werden, aus denen das Volumen besteht. Krümmungen und andere Oberflächenmerkmale können unmittelbar aus den Voxeln abgeleitet werden, welche die Oberfläche charakterisieren, und werden mit Hilfe bekannter Formeln für die Krümmung berechnet, wobei Momente davon ebenfalls berechnet werden können.
  • Bei einer anderen Ausführungsform der Erfindung können die Messungen des Läsionsvolumens konsistent und unabhängig von der zu Beginn gewählten Position des Zentroids der Läsion, die durch die Benutzereingabe oder die Erkennung einer potentiellen Läsion mittels Durchführung eines Iterationsverfahrens angegeben wurde, durchgeführt werden. Zum Beispiel beinhaltet ein beispielhaftes Iterationsverfahren die Bestimmung eines neuen Volumenmittelpunktes und die Wiederholung des Extraktionsprozesses (z. B. der Schritte 30, 40 und 50 von 1) bis zur Konvergenz des Wertes des Volumens.
  • Die beispielhaften Systeme und Verfahren zur Läsionssegmentierung gemäß der Erfindung sind gut geeignet, um eine Segmentierung übermäßig großer Lasionsvolumina zu verhindern, indem sie Verfahren zum Entfernen entfernter/falscher Oberflächen zur Verfügung stellen, welche in Wirklichkeit nicht Bestandteil der Läsionsoberfläche sind (wie weiter oben unter Bezugnahme auf Schritt 33 von 3 erörtert wurde). Zum Beispiel sind bezüglich der 3D-Segmentierung von Polypen die 11A und 11B beispielhafte grafische Darstellungen, welche eine Situation veranschaulichen, in welcher bei einer 3D-Segmentierung eines Polypen eine übermäßig große Segmentierung erfolgen kann. Insbesondere ist 11A eine beispielhafte 3D-Ansicht eines Dickdarms, der einen Bereich (A) aufweist, in welchem sich Schlingen des Dickdarms in Kontakt miteinander befinden. Wie in 11B dargestellt, kann ein interessierendes Volumen (V) zwei Dickdarmlumina enthalten, welche durch Gewebe oder durch eine Grenze (B) zwischen zwei aneinander angrenzenden Dickdarmwänden, von denen eine einen interessierenden Polypen enthält, getrennt sind. Wie in 11B dargestellt, kann, wenn eine Kugelkoordinatentransformation angewendet wird, indem Strahlen von einer Mittelpunktsposition des Polypen ausgesendet werden, eine falsche Oberfläche ("falsche Halsoberfläche") unter dem Polypen zu einer anderen Darmschlinge gehören, welche ungenau als der wahre Polypenhals interpretiert werden kann. Eine der Veranschaulichung dienende Darstellung der Ergebnisse der Transformation zeigt 11b, in der die Daten der Transformation die "falsche Halsoberfläche" enthalten. Diese falsche Oberfläche sollte aus der Betrachtung ausgeschlossen werden, wenn die Oberfläche des Polypen konstruiert wird, denn wenn die falsche Oberfläche nicht beseitigt wird, kann die "zusätzliche" Oberflächen-Teilfläche den falschen Polypenhals. bilden, und infolgedessen kann die interpolierte Oberfläche des Polypen wesentlich größer sein als der tatsächliche Polyp. Dementsprechend kann, um eine übermäßig große Segmentierung zu verhindern, ein Verfahren gemäß der Erfindung implementiert werden, um entfernte Oberflächen, welche in Wirklichkeit nicht Bestandteil der Oberfläche der gewählten Läsion sind, zu ignorieren.
  • 6 ist ein Flussdiagramm, das ein Verfahren zum Entfernen einer falschen Oberflächen-Teilfläche gemäß einer beispielhaften Ausführungsform der Erfindung zeigt. In dem Verfahren von 6 ist ein Verfahren zum „Region Growing" (Bereichsvergrößerung) implementiert, um verbundene entfernte Oberflächen-Teilflächen zu verfolgen. Ein Anfangsschritt besteht darin, einen oder mehrere "Keimpunkte" (Seed Points) für das Verfahren des Region Growing zu bestimmen (Schritt 70). Bei einer beispielhaften Ausführungsform sind die Saatpunkte für das Region Growing die Punkte mit Werten des Radius, welche größer sind als ein adaptiver Schwellwert. Der adaptive Schwellwert ist gleich dem Medianwert des Radius plus Standardabweichung des Radius in dem interessierenden Subvolumen.
  • Wenn der (die) Keimpunkt(e) bestimmt worden ist (sind), wird ein Verfahren zum Region Growing unter Verwendung der Keimpunkte durchgeführt, um verbundene entfernte Oberflächen-Teilflächen zu verfolgen (Schritt 71). Für jede verbundene Menge von Oberflächen-Teilflächen erfolgt eine Bestimmung, ob die Größe der Oberfläche der verbundenen Menge von Teilflächen kleiner als ein vorgegebener Schwellwert ist (Schritt 72). Zum Beispiel ist bei einer beispielhaften Ausführungsform der Schwellwert auf 1/3 der Oberflächengröße der Oberfläche des Polypen in Kugelkoordinaten eingestellt. In anderen Fällen und bei der Durchführung einer Segmentierung mit anderen Strukturen kann dieses Verhältnis geändert werden. Wenn ermittelt wird, dass die Größe der Oberfläche einer verbundenen Menge von Teilflächen kleiner als der Schwellwert ist (positive Bestimmung in Schritt 72), wird die verbundene Menge von Teilflächen ignoriert und nicht als Bestandteil der Läsionsoberfläche betrachtet (Schritt 74). Falls dagegen die Größe der Oberfläche einer verbundenen Menge von Teilflächen nicht kleiner als der Schwellwert ist (negative Bestimmung in Schritt 72), wird die verbundene Menge von Teilflächen als Bestandteil der Läsionsoberfläche einbezogen (Schritt 73).
  • Es ist leicht einzusehen, dass, wie oben erwähnt, die hier beschriebenen beispielhaften Systeme und Verfahren bei verschiedenen Anwendungen implementiert werden können, wie etwa bei einer 3D-Segmentierung von Polypen. In einem solchen Falle können die beispielhaften Verfahren gemäß der Erfindung, die hier beschrieben wurden, so implementiert werden, dass durch sie Polypen genau aus der umgebenden Dickdarmwand extrahiert werden. Außerdem könnten die beispielhaften Systeme und Verfahren so implementiert werden, dass sie dem Benutzer (Radiologen) automatische Messungen der Größe von Polypen liefern, wie etwa die Berechnung zusätzlicher Merkmale wie Varianz der Intensität, Beschaffenheit usw., was dann hilft, zwischen Polypen und Stuhl zu unterscheiden. Außerdem können beispielhafte Verfahren gemäß der Erfindung angewendet werden, um genaue Merkmale der Form des Polypen zu erhalten, welche helfen, Polypen von anderen Quellen falscher positiver Befunde, wie etwa vorstehende Falten und Artefakte, zu unterscheiden.

Claims (8)

  1. Verfahren zur automatischen 3D-(dreidimensionalen) Läsionssegmentierung, welches die folgenden Schritte umfasst: a) Bestimmen einer 3D-Oberfläche einer Läsion in einem ursprünglichen 3D-Volumenraum, wobei der Schritt des Bestimmens einer 3D-Oberfläche umfasst: i) Extrahieren eines 3D-Subvolumens aus dem ursprünglichen 3D-Volumenraum, welches die Läsion umgibt; ii) Interpolieren der Bilddaten in dem 3D-Subvolumen, um das 3D-Subvolumen isotrop zu machen; und iii) Bestimmen eines 3D-Randes der Läsion in dem isotropen 3D-Subvolumen mit Hilfe eines 3D Canny Edge Detector Verfahrens; b) Transformieren der 3D-Oberfläche der Läsion aus dem ursprünglichen ersten 3D-Volumenraum zu einem Kugelkoordinatenraum, wobei der Schritt des Transformierens der 3D-Oberfläche der Läsion zu dem Kugelkoordinatenraum umfasst: i) Bestimmen einer Position eines Zentroids in dem ursprünglichen 3D-Volumenraum; und ii) Bestimmen von Koordinaten für jedes Pixel der 3D-Oberfläche auf der Basis der Position des Zentroids; und iii) Erzeugen einer 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum unter Verwendung der Koordinaten des Kugelkoordinatenraums und Normierung der 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum; c) Verarbeiten der 3D-Oberfläche in dem Kugelkoordinatenraum, um eine Läsionsoberfläche im Kugelkoordinatenraum zu bestimmen, welche die Läsion von der umgebenden normalen Struktur trennt, wobei der Schritt des Verarbeitens der 3D-Oberfläche in dem Kugelkoordinatenraum die folgenden Schritte umfasst: i) Erweitern der 2D-Darstellung der 3D-Oberfläche in dem Kugelkoordinatenraum; und ii) Interpolieren der erweiterten 2D-Darstellung, um eine trennende Oberfläche zu bestimmen, welche die Läsion von einer anatomischen Struktur trennt, an welcher die Läsion anhaftet.; d) Invers-Transformieren der Läsionsoberfläche aus dem Kugelkoordinatenraum zum ursprünglichen ersten 3D-Volumenraum, wobei der Schritt des Invers-Transformierens der Läsionsoberfläche im Kugelkoordinatenraum zum ursprünglichen ersten 3D-Volumenraum das Abbilden von Randpunkten im ursprünglichen 3D-Volumenraum in den Kugelkoordinatenraum umfasst; und e) Extrahieren eines der Läsion entsprechenden Volumens aus dem ursprünglichen 3D-Volumenraum unter Verwendung der inverstransformierten Läsionsoberfläche, wobei der Schritt des Extrahierens des der Läsion entsprechenden Volumens aus dem ursprünglichen 3D-Volumenraum unter Verwendung der transformierten Läsionsoberfläche den Schritt des Einbeziehens aller Pixel im ursprünglichen 3D-Volumenraum, welche innerhalb oder unter der Läsionsoberfläche im Kugelkoordinatenraum liegen, als Bestandteil des Läsionsvolumens umfasst.
  2. Verfahren nach Anspruch 1, wobei die Position des Zentroids der Läsion mittels eines automatisierten Verfahrens bestimmt wird.
  3. Verfahren nach Anspruch 1, wobei die Position des Zentroids der Läsion von einem Benutzer gewählt wird.
  4. Verfahren nach Anspruch 1, welches ferner eine Medianfilterung der normierten transformierten Oberflächendarstellung umfasst.
  5. Verfahren nach Anspruch 1, wobei der Schritt des Verarbeitens der 3D-Oberfläche in dem Kugelkoordinatenraum, um eine Läsionsoberfläche im Kugelkoordinatenraum zu bestimmen, welche die Läsion von der umgebenden normalen Struktur trennt, den Schritt des Bestimmens eines Polypenhalses umfasst.
  6. Verfahren nach Anspruch 1, welches ferner den Schritt des Messens einer oder mehrerer Parameter umfasst, die mit dem extrahierten Volumen zusammenhängen.
  7. Verfahren nach Anspruch 1, welches ferner das Wiederholen der Verfahrensschritte auf eine iterative Art und Weise umfasst, um eine Konvergenz eines Wertes des Volumens zu erreichen.
  8. Verfahren nach Anspruch 1, welches ferner die folgenden Schritte umfasst: Bestimmen, ob die Darstellung der Läsionsoberfläche im Kugelkoordinatenraum eine falsche Oberfläche umfasst, welche in Wirklichkeit kein Teil der Läsion ist; und Entfernen einer falschen Oberfläche, welche als in der Darstellung der Läsionsoberfläche enthalten bestimmt wurde.
DE112004000381T 2003-03-11 2004-03-11 Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen Expired - Fee Related DE112004000381B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US45357303P 2003-03-11 2003-03-11
US60/453,573 2003-03-11
US10/796,863 US7333644B2 (en) 2003-03-11 2004-03-09 Systems and methods for providing automatic 3D lesion segmentation and measurements
US10/796,863 2004-03-09
PCT/US2004/007302 WO2004081874A2 (en) 2003-03-11 2004-03-11 Systems and methods for providing automatic 3d lesion segmentation and measurements

Publications (2)

Publication Number Publication Date
DE112004000381T5 DE112004000381T5 (de) 2006-05-24
DE112004000381B4 true DE112004000381B4 (de) 2008-02-28

Family

ID=32994508

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112004000381T Expired - Fee Related DE112004000381B4 (de) 2003-03-11 2004-03-11 Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen

Country Status (4)

Country Link
US (1) US7333644B2 (de)
JP (1) JP4347880B2 (de)
DE (1) DE112004000381B4 (de)
WO (1) WO2004081874A2 (de)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094492A (en) * 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
US7202867B1 (en) 2003-01-31 2007-04-10 Microsoft Corporation Generation of glow effect
US7274365B1 (en) * 2003-01-31 2007-09-25 Microsoft Corporation Graphical processing of object perimeter information
US7349563B2 (en) * 2003-06-25 2008-03-25 Siemens Medical Solutions Usa, Inc. System and method for polyp visualization
GB2414357A (en) * 2004-05-18 2005-11-23 Medicsight Plc Nodule boundary detection
US7492968B2 (en) * 2004-09-07 2009-02-17 Siemens Medical Solutions Usa, Inc. System and method for segmenting a structure of interest using an interpolation of a separating surface in an area of attachment to a structure having similar properties
US7736313B2 (en) * 2004-11-22 2010-06-15 Carestream Health, Inc. Detecting and classifying lesions in ultrasound images
US7558417B2 (en) * 2004-11-29 2009-07-07 General Electric Company Method and apparatus for analyzing three-dimensional images containing voxels
JP2006230910A (ja) * 2005-02-28 2006-09-07 Konica Minolta Medical & Graphic Inc 画像処理装置及び画像処理方法
US8041087B2 (en) * 2005-04-05 2011-10-18 Bradley University Radiographic imaging display apparatus and method
JP4681358B2 (ja) * 2005-06-17 2011-05-11 アロカ株式会社 超音波診断装置及びボリュームデータ処理方法
EP1895901A2 (de) * 2005-06-22 2008-03-12 The Research Foundation of State University of New York System und verfahren zur computergestützten polypenerkennung
JP4710508B2 (ja) * 2005-09-21 2011-06-29 富士ゼロックス株式会社 画像処理プログラム、画像処理装置
US20070092864A1 (en) * 2005-09-30 2007-04-26 The University Of Iowa Research Foundation Treatment planning methods, devices and systems
JP5323486B2 (ja) * 2005-10-21 2013-10-23 コーニンクレッカ フィリップス エヌ ヴェ レンダリング方法及び装置
US8929621B2 (en) * 2005-12-20 2015-01-06 Elekta, Ltd. Methods and systems for segmentation and surface matching
JP5554927B2 (ja) 2006-02-15 2014-07-23 ホロジック, インコーポレイテッド トモシンセシスシステムを使用した乳房バイオプシおよびニードル位置特定
JP4891636B2 (ja) * 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 画像解析装置
US7903857B2 (en) * 2006-04-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Robust click-point linking with geometric configuration context: interactive localized registration approach
US20080031506A1 (en) * 2006-08-07 2008-02-07 Anuradha Agatheeswaran Texture analysis for mammography computer aided diagnosis
US9451928B2 (en) * 2006-09-13 2016-09-27 Elekta Ltd. Incorporating internal anatomy in clinical radiotherapy setups
US7756310B2 (en) * 2006-09-14 2010-07-13 General Electric Company System and method for segmentation
US8090208B2 (en) * 2006-10-04 2012-01-03 Siemens Computer Aided Diagnosis Ltd. Robust segmentation of a mass candidate in digital mammography images
US8401620B2 (en) 2006-10-16 2013-03-19 Perfint Healthcare Private Limited Needle positioning apparatus and method
US7940970B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging, Ltd Method and system for automatic quality control used in computerized analysis of CT angiography
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
US7873194B2 (en) 2006-10-25 2011-01-18 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures and pathologies in support of a triple rule-out procedure
US7860283B2 (en) 2006-10-25 2010-12-28 Rcadia Medical Imaging Ltd. Method and system for the presentation of blood vessel structures and identified pathologies
US7983459B2 (en) 2006-10-25 2011-07-19 Rcadia Medical Imaging Ltd. Creating a blood vessel tree from imaging data
US7844087B2 (en) * 2006-12-19 2010-11-30 Carestream Health, Inc. Method for segmentation of lesions
US8194920B2 (en) * 2007-02-16 2012-06-05 Ford Global Technologies, Llc Method and system for detecting objects using far infrared images
WO2009012576A1 (en) * 2007-07-20 2009-01-29 Resonant Medical Inc. Methods and systems for guiding the acquisition of ultrasound images
US8249317B2 (en) * 2007-07-20 2012-08-21 Eleckta Ltd. Methods and systems for compensating for changes in anatomy of radiotherapy patients
US8135198B2 (en) * 2007-08-08 2012-03-13 Resonant Medical, Inc. Systems and methods for constructing images
US8098909B2 (en) 2007-08-31 2012-01-17 Computerized Medical Systems, Inc. Method and apparatus for efficient three-dimensional contouring of medical images
CN101802871B (zh) * 2007-09-17 2012-09-05 皇家飞利浦电子股份有限公司 用于测量图像中对象的测径器
US8184888B2 (en) * 2007-09-19 2012-05-22 Siemens Medical Solutions Usa, Inc. Method and system for polyp segmentation for 3D computed tomography colonography
US8126244B2 (en) * 2007-09-21 2012-02-28 Siemens Medical Solutions Usa, Inc. User interface for polyp annotation, segmentation, and measurement in 3D computed tomography colonography
EP2068281A1 (de) * 2007-11-28 2009-06-10 Dublin City University Verfahren zur Erkennung von flachen Dickdarmpolypen
US8265356B2 (en) * 2008-01-30 2012-09-11 Computerized Medical Systems, Inc. Method and apparatus for efficient automated re-contouring of four-dimensional medical imagery using surface displacement fields
JP5209338B2 (ja) * 2008-02-20 2013-06-12 株式会社東芝 医用画像撮影装置、医用画像処理装置および医用画像処理プログラム
FR2929417B1 (fr) * 2008-03-27 2010-05-21 Univ Paris 13 Procede de determination d'une representation tridimensionnelle d'un objet a partir de points, programme d'ordinateur et systeme d'imagerie correspondant
US8189738B2 (en) * 2008-06-02 2012-05-29 Elekta Ltd. Methods and systems for guiding clinical radiotherapy setups
US10542962B2 (en) * 2009-07-10 2020-01-28 Elekta, LTD Adaptive radiotherapy treatment using ultrasound
WO2011043838A1 (en) 2009-10-08 2011-04-14 Hologic, Inc . Needle breast biopsy system and method of use
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound
US20110172526A1 (en) 2010-01-12 2011-07-14 Martin Lachaine Feature Tracking Using Ultrasound
US20120190970A1 (en) 2010-11-10 2012-07-26 Gnanasekar Velusamy Apparatus and method for stabilizing a needle
US20120133600A1 (en) 2010-11-26 2012-05-31 Hologic, Inc. User interface for medical image review workstation
CN103501699B (zh) * 2011-02-24 2016-01-13 卡丹医学成像股份有限公司 用于隔离成像数据中的潜在异常的方法和装置和其对医学图像的应用
JP6057922B2 (ja) 2011-03-08 2017-01-11 ホロジック, インコーポレイテッドHologic, Inc. スクリーニング、診断及び生検のための二重エネルギー及び/又は造影強化乳房撮像のためのシステム及び方法
WO2012139205A1 (en) 2011-04-13 2012-10-18 Hamid Reza Tizhoosh Method and system for binary and quasi-binary atlas-based auto-contouring of volume sets in medical images
US8867806B2 (en) 2011-08-01 2014-10-21 Impac Medical Systems, Inc. Method and apparatus for correction of errors in surfaces
JP2014534042A (ja) 2011-11-27 2014-12-18 ホロジック, インコーポレイテッドHologic, Inc. マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法
US9805507B2 (en) 2012-02-13 2017-10-31 Hologic, Inc System and method for navigating a tomosynthesis stack using synthesized image data
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
JP6388347B2 (ja) 2013-03-15 2018-09-12 ホロジック, インコーポレイテッドHologic, Inc. 腹臥位におけるトモシンセシス誘導生検
US20140289299A1 (en) * 2013-03-22 2014-09-25 Paris Mountain Consulting, LLC System and Method for Statistical Process Control
US10025479B2 (en) * 2013-09-25 2018-07-17 Terarecon, Inc. Advanced medical image processing wizard
CN104574273A (zh) * 2013-10-14 2015-04-29 鸿富锦精密工业(深圳)有限公司 点云拼接系统及方法
JP2016533803A (ja) 2013-10-24 2016-11-04 アンドリュー ピー. スミス, X線誘導胸部生検をナビゲートするためのシステムおよび方法
US9361684B2 (en) * 2014-02-18 2016-06-07 EchoPixel, Inc. Feature validation using orientation difference vector
AU2015222981B2 (en) 2014-02-28 2019-01-31 Hologic, Inc. System and method for generating and displaying tomosynthesis image slabs
KR101599129B1 (ko) * 2014-05-20 2016-03-02 박현준 내시경 상 보이는 병변의 크기 측정 방법 및 컴퓨터 판독 가능한 기록매체
GB2529671B (en) * 2014-08-28 2017-03-08 Canon Kk Transformation of 3-D object for object segmentation in 3-D medical image
CN106997594B (zh) * 2016-01-26 2020-12-01 上海联影医疗科技股份有限公司 一种眼部组织的定位方法及装置
EP3220101B1 (de) * 2016-03-16 2020-01-29 Ricoh Company, Ltd. Texturbeurteilungsvorrichtung, texturbeurteilungsverfahren und computerlesbares aufzeichnungsmedium
JP6957152B2 (ja) * 2016-12-28 2021-11-02 キヤノン株式会社 情報処理装置、抽出方法およびプログラム
WO2018183549A1 (en) 2017-03-30 2018-10-04 Hologic, Inc. System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement
WO2018183550A1 (en) 2017-03-30 2018-10-04 Hologic, Inc. System and method for targeted object enhancement to generate synthetic breast tissue images
CN110621231B (zh) 2017-03-30 2024-02-23 豪洛捷公司 用于分层次多级特征图像合成和表示的系统以及方法
WO2018236565A1 (en) 2017-06-20 2018-12-27 Hologic, Inc. METHOD AND SYSTEM FOR MEDICAL IMAGING WITH DYNAMIC SELF-LEARNING
JP7115891B2 (ja) * 2018-04-06 2022-08-09 富士フイルム株式会社 画像診断支援装置、方法およびプログラム
US10872449B2 (en) * 2018-05-02 2020-12-22 Covidien Lp System and method for constructing virtual radial ultrasound images from CT data and performing a surgical navigation procedure using virtual ultrasound images
WO2020033947A1 (en) 2018-08-10 2020-02-13 Covidien Lp Systems for ablation visualization
US11883206B2 (en) 2019-07-29 2024-01-30 Hologic, Inc. Personalized breast imaging system
US11694792B2 (en) 2019-09-27 2023-07-04 Hologic, Inc. AI system for predicting reading time and reading complexity for reviewing 2D/3D breast images
US11481038B2 (en) 2020-03-27 2022-10-25 Hologic, Inc. Gesture recognition in controlling medical hardware or software

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19711670A1 (de) * 1996-03-23 1997-11-06 Samsung Electronics Co Ltd Verfahren und Vorrichtung zum Codieren des Umrisses eines Gegenstandes unter Verwendung des Flächenschwerpunktes
WO2002084268A1 (fr) * 2001-04-12 2002-10-24 Tsinghua University Procede pour segmenter et reconnaitre une image dans l'imagerie radiologique industrielle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
US5603318A (en) * 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5825908A (en) * 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
EP1402478A4 (de) 2000-10-02 2006-11-02 Univ New York State Res Found Verbesserte virtuelle navigation und untersuchung
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
JP2005506140A (ja) * 2001-10-16 2005-03-03 ザ・ユニバーシティー・オブ・シカゴ コンピュータ支援の3次元病変検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19711670A1 (de) * 1996-03-23 1997-11-06 Samsung Electronics Co Ltd Verfahren und Vorrichtung zum Codieren des Umrisses eines Gegenstandes unter Verwendung des Flächenschwerpunktes
WO2002084268A1 (fr) * 2001-04-12 2002-10-24 Tsinghua University Procede pour segmenter et reconnaitre une image dans l'imagerie radiologique industrielle
DE10291878T5 (de) * 2001-04-12 2004-07-01 Tsinghua University Bildsegmentierungserkennungsverfahren in der industriellen Strahlungsbilderzeugnis

Also Published As

Publication number Publication date
JP2006519634A (ja) 2006-08-31
US7333644B2 (en) 2008-02-19
JP4347880B2 (ja) 2009-10-21
WO2004081874A2 (en) 2004-09-23
DE112004000381T5 (de) 2006-05-24
US20040228529A1 (en) 2004-11-18
WO2004081874A3 (en) 2005-04-21

Similar Documents

Publication Publication Date Title
DE112004000381B4 (de) Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen
DE102008002912B4 (de) Vorrichtung und Verfahren zur Identifizierung von Okklusionen
DE60319288T2 (de) Verfahren und vorrichtung zum identifizieren von pathologien in gehirnbildern
DE102004043694B4 (de) Verfahren zur Segmentierung anatomischer Strukturen aus 3D-Bilddaten unter Nutzung topologischer Information
DE102005036875B4 (de) System und Verfahren zur 3-D Visualisierung eines Lungenpaars und der Lungenperfusion oder -dichte
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102006043910B4 (de) Ergebnisfilter und Verfahren zur Selektion der Ergebnisdaten einer Applikation zur automatischen Mustererkennung
DE102004043695B4 (de) Verfahren zur einfachen geometrischen Visualisierung tubulärer anatomischer Strukturen
DE102011076233B4 (de) Verfahren und Computersystem zur Erkennung einer statistisch relevanten Normvariante der Gefaßstruktur eines Patienten mit Hilfe tomographischer Bilddatensatze
Niessen et al. Multiscale segmentation of three-dimensional MR brain images
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102004030084B4 (de) Computerimplementiertes Verfahren zur Segmentation von Lungenknoten
DE102006041309A1 (de) System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE102006028812A1 (de) System und Verfahren zum pfad-basierten Tree-Matching
WO2002071333A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE102006034358A1 (de) System und Verfahren zur Segmentierung der Koronararterie von Herz-CT-Volumen
DE10296836T5 (de) System zur Modellierung statischer und dynamischer dreidimensioner anatomischer Strukturen durch 3D-Modelle
DE10048029A1 (de) Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE10249320A1 (de) Gefäss-Detektion durch Strahlausbreitung auf der Grundlage der mittleren Abweichung
DE112004001464B4 (de) Verfahren zum Analysieren von lokalen Mustern in Krümmungsverteilungen
DE102006039921A1 (de) System und Verfahren zum automatischen Atemwegevaluieren für Multi-Schnitt Computertomographie (MSCT) Bilddaten unter Verwendung eines Atemweglumendurchmessers, einer Atemwegwanddicke und eines Bronchien-Arterien-Verhältnisses
DE10255526B4 (de) Erkennung von Gefässassoziierten Pulmonalknoten durch Volumsprojektionsanalyse
Ng et al. Medical image segmentation using watershed segmentation with texture-based region merging
DE112004001691T5 (de) Verfahren und System zur automatischen Ausrichtung von lokalen Visualisierungstechniken für vaskuläre Strukturen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law

Ref document number: 112004000381

Country of ref document: DE

Date of ref document: 20060524

Kind code of ref document: P

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., US

R082 Change of representative
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee