DE102007046250A1 - Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild - Google Patents

Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild Download PDF

Info

Publication number
DE102007046250A1
DE102007046250A1 DE102007046250A DE102007046250A DE102007046250A1 DE 102007046250 A1 DE102007046250 A1 DE 102007046250A1 DE 102007046250 A DE102007046250 A DE 102007046250A DE 102007046250 A DE102007046250 A DE 102007046250A DE 102007046250 A1 DE102007046250 A1 DE 102007046250A1
Authority
DE
Germany
Prior art keywords
image
area
structures
response
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007046250A
Other languages
English (en)
Inventor
Wesley David Turner
Jingbin Alston Wang
Saad Ahmet Pewaukee Sirohey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102007046250A1 publication Critical patent/DE102007046250A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Es wird ein Verfahren und eine Vorrichtung zur Visualisierung von Bereichen in einem Bild geschaffen. Das Verfahren weist die Berechnung einer Bereichsantwort (72) um einen Bereich in dem Bild herum, die Herleitung einer Bereichsbewertung (74) auf der Basis einer Bereichsantwort für den Bereich und die Kennzeichnung des Bereiches (76) in dem Bild durch Vergleichen der Bereichsbewertung mit mehreren wahrscheinlichkeitstheoretischen Modellen auf.

Description

  • HINTERGRUND
  • Die Erfindung betrifft allgemein Verfahren und Vorrichtungen zur Identifizierung von Bereichen in Bildern und insbesondere Verfahren und Vorrichtungen zur Markierung von anatomischen Strukturen in medizinischen Bildern.
  • In vielen Anwendungen der Bildgebung, insbesondere medizinischen Bildgebungsanwendungen, werden die Bilder oftmals analysiert, um verschiedene anatomische Strukturen, wie beispielsweise Organe, Läsionen, usw. zu identifizieren. Beispielsweise kann ein Röntgenbild des Brustkorbs oder ein Computertomographie-(CT)-Bild verwendet werden, um die Feststellung oder Diagnose von Lungenkrebs zu erleichtern. Insbesondere liefern CT-Bilder vorteilhafterweise eine genauere und detailliertere Beschreibung der Anatomie und konsequenterweise werden diese zunehmend für die Diagnose und die Beobachtung von Läsionen oder Läsionen verwendet, die zu potentiellem Krebs führen.
  • Beispielsweise sucht der Radiologe bei der Diagnose von Lungen- oder Dickdarm-Krebs nach der Anwesenheit von Knötchen und Polypen in der Lunge oder dem Dickdarm unter Verwendung fortgeschrittener Lungenanalyse (advanced lung analysis: ALA) und berechneter tomographischer Kolonographie-(computed tomographic colonography: CTC)-Techniken. Radiologen stellen Knötchen in der Lunge durch Betrachten von axialen Schichten des Brustkorbs fest. Die CT-Vorrichtungen stellen im Allge meinen verschiedene Bilder für einen einzelnen CT-Scan bereit. Folglich wird ein beträchtlicher Betrag der Information dem Radiologen zur Verwendung bei der Interpretation der Bilder, die die Krankheit anzeigen können, und dem Erkennen der verdächtigen Bereiche präsentiert. Der beträchtliche Betrag der Daten, die in Zusammenhang mit einem einzelnen CT-Scan stehen, stellt einen zeitaufwendigen Prozess für den Radiologen dar. Darüber hinaus kann der beträchtliche Betrag der Daten unvorteilhafterweise zu einem Nichterkennen von Krebs führen, da es schwierig ist, eine verdächtige Fläche in einer ausgedehnten Menge von Daten zu identifizieren. Zusätzlich führt die reine Größe der CT-Volumen zu einer deutlichen und beträchtlichen Variabilität der radiologischen Interpretation und klinisch bedeutende Knötchen werden übersehen.
  • Die Techniken, die abwechselnd als computerunterstütztes Erkennen oder computergeführte Detektion oder computerunterstützte Diagnose beschrieben werden und oftmals mit dem Abkürzung „CAD" bezeichnet werden, haben sich als ein veränderlicher Ansatz zur Unterstützung des Radiologen beim Erkennen der Lungenknötchen in Brustkorb-Radiogrammen und Thorax-CT-Scans sowie zur Detektion und Diagnose anderer Anatomien und Krankheitszustände herausgebildet.
  • Verschiedene CAD-Techniken wurden entwickelt, um die anatomischen Strukturen hervorzuheben, die in verschiedenen Bereichen in dem Bild vorliegen. In einer spezifischen Technik werden die Bereiche identifiziert und entsprechend der lokalen Gestalt ihrer umgebenden Strukturen markiert oder gekennzeichnet. In einer spezifischeren Technik, die verwendet wird, um Lungenkrebs zu identifizieren, wird eine Eigenanalyse der Hess-Matrix als Werkzeug verwendet, um die Voxel als zu einem Gefäß oder einem Knötchen gehörig zu klassifizieren.
  • Derartige Techniken berücksichtigen aber nur eine sehr kleine Nachbarschaft jedes Voxels, die benötigt wird, um Bildderivate zu berechnen, und folglich sind diese nicht unempfindlich und/oder genau bei der Identifizierung von Strukturen.
  • Es kann deshalb wünschenswert sein, eine unempfindliche und stabile Technik und Vorrichtung zum Bearbeiten der Bilddaten zu entwickeln, die vorteilhafterweise im Wesentlichen eine bessere Angangsidentifizierung auf der Basis der Gestalt in einem Bild ermöglicht, die konsequenterweise zur Analyse des zu untersuchenden Objekts verwendet werden kann.
  • KURZE BESCHREIBUNG
  • Kurz gesagt ist gemäß einer Ausführungsform der Erfindung ein Verfahren zur Zuordnung von Kennzeichnungen zu Bereichen in einem Bild geschaffen. Das Verfahren enthält ein wahrscheinlichkeitstheoretisches Modell für mehrere geometrische Strukturen, Berechnung einer Bereichsantwort um einen Bereich in dem Bild herum, Berechnen einer Bereichsbewertung für jede geometrische Struktur unter Verwendung der mehreren wahrscheinlichkeitstheoretischen Modelle und Kennzeichnen des Bereiches in dem Bild auf der Basis der Bereichsbewertung.
  • In einer weiteren Ausführungsform wird eine medizinische Bildgebungsvorrichtung zum Kennzeichnen von anatomischen Strukturen in einem Bild geschaffen. Die Vorrichtung weist einen Bildprozessor auf, der konfiguriert ist, eine Bereichsantwort um einen interessierenden Voxel in dem Bild herum zu berechnen, eine Voxelbewertung für jede der anatomischen Strukturen auf der Basis von mehreren wahrscheinlichkeitstheoretischen Modellen zu berechnen, Kennzeichnen der Voxel in dem Bild auf der Basis der Bereichsbewertung, und eine Dar stellungseinheit, die konfiguriert ist, um das Bild einschließlich der gekennzeichneten anatomischen Bereiche zu konfigurieren.
  • In einer weiteren Ausführungsform wird eine Computertomographie-(CT)-Vorrichtung zum Kennzeichnen von anatomischen Strukturen in einem CT-Bild geschaffen. Die Vorrichtung weist einen Bildprozessor auf, der konfiguriert ist, eine Bereichsantwort um einen interessierenden Voxel in dem CT-Bild zu berechnen, einen Voxelbewertung für jede der anatomischen Strukturen auf der Basis von mehreren wahrscheinlichkeitstheoretischen Modellen zu berechnen, Kennzeichnen des Voxels in dem Bild auf der Basis der Bereichsbewertung. Die Vorrichtung weist weiter eine Darstellungseinheit auf, die konfiguriert ist, um das CT-Bild einschließlich der gekennzeichneten anatomischen Strukturen darzustellen.
  • In einer weiteren Ausführungsform speichert ein computerlesbares Medium Computeranweisungen zum Anweisen einer Rechnereinheit, um Bereiche in dem Bild zu kennzeichnen. Die Computeranweisungen enthalten die Ableitung eines Wahrscheinlichkeitsmodells für mehrere geometrische Strukturen, die Berechnung einer Bereichsantwort um einen Bereich in dem Bild herum, Berechnen einer Bereichsbewertung für jede geometrische Struktur unter Verwendung mehrere wahrscheinlichkeitstheoretischer Modelle und Kennzeichnen des Bereichs in dem Bild auf der Basis der Bereichsbewertung.
  • ZEICHNUNG
  • Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verstanden, wenn die nachfolgende detaillierte Beschreibung in Bezug auf die beglei tende Zeichnung gelesen wird, in der gleiche Bezugszeichen die gleichen Gegenstände in der Zeichnung betreffen, in der:
  • 1 eine Diagrammansicht einer beispielhaften Bildgebungsvorrichtung ist, in der Form einer CT-Bildgebungsvorrichtung zur Verwendung bei der Erzeugung von bearbeiteten Bildern und für die Analyse der Bilder und ihrer darunter liegenden Bilddaten entsprechend der Aspekte der vorliegenden Technik;
  • 2 eine Diagrammansicht einer physikalischen Implementierung der CT-Vorrichtung von 1 ist;
  • 3 ein Ablaufdiagramm ist, das beispielhafte Logik-Schritte zum Ausführen der Bearbeitung der Bilddaten auf der Basis der CAD-Analyse der akquirierten Bilddaten entsprechend den Aspekten der vorliegenden Technik darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • 1 ist ein Blockdiagramm, das eine Bildgebungsvorrichtung 10 zum Akquirieren und Bearbeiten von Bilddaten zeigt, wie beispielsweise medizinischen Bilddaten, entsprechend der vorliegenden Technik. Wie für einen Fachmann leicht erkennbar ist, können die Bilddaten ebenfalls seismische Bilddaten oder topologische Bilddaten enthalten. In der dargestellten Ausführungsform ist die Vorrichtung eine Computertomographie-(CT)-Vorrichtung, die eingerichtet ist, Röntgenprojektionsdaten zu akquirieren, um die Projektionsdaten in ein Bild zu projizieren, und um die Bilddaten zur Darstellung und Analyse entsprechend der vorliegenden Technik zu bearbeiten. In der Ausführungsform, die in 1 dargestellt ist, enthält die Bildgebungsvorrichtung eine Quelle für die Rönt genstrahlung, die als Röntgenstrahlungsquelle 12 bezeichnet wird. In einer beispielhaften Ausführungsform ist die Röntgenstrahlungsquelle 12 eine Röntgenröhre. In einer anderen Ausführungsform kann die Röntgenstrahlungsquelle 12 eine oder mehrere Festkörper-Röntgenstrahler oder statt dessen jeden anderen Emitter enthalten, der in der Lage ist Röntgenstrahlen zu erzeugen, die ein Spektrum und eine Energie haben, die verwendbar für die Bildgebung eines gewünschten Objektes ist.
  • Die Rötngenstrahlenquelle 12 kann nahe einem Kollimator 14 positioniert werden, der konfiguriert sein kann, einen Röntgenstrahl 16, der von der Röntgenstrahlungsquelle 12 emittiert wird, zu formen. Der Röntgenstrahl 16 durchquert ein Bildgebungsvolumen, das das bildgebend darzustellende Objekt enthält, wie beispielsweise einen menschlichen Patienten 18. Der Röntgenstrahl 16 kann im allgemeinen die Form eines Fächerstrahls, bezeichnet als fächerstrahlförmig, oder eines Kegelstrahls, bezeichnet als kegelstrahlförmig, haben, abhängig von der Konfiguration des vorstehend diskutierten Detektorarrays sowie der gewünschten Verfahren der Datenakquisition. Ein Bereich oder Anteil 20 der Strahlung gelangt durch das Objekt oder um das Objekt herum und trifft ein Detektorarray, das allgemein mit der Bezugsziffer 22 bezeichnet ist. Die Detektorelemente des Arrays erzeugen elektrische Signale, die die Intensität des auftreffenden Röntgenstrahls repräsentiert. Diese Signale werden akquiriert und bearbeitet, um ein Bild der Eigenschaften und Merkmale innerhalb des Objekts zu rekonstruieren.
  • Die Strahlungsquelle 12 wird von einer Vorrichtungssteuerung 24 gesteuert, die sowohl die Leistung als auch die Steuerungssignale für die CT-Untersuchungssequenzen bereitstellt. Darüber hinaus ist der Detektor 22 mit der Vorrich tungssteuerung 24 gekoppelt, die die Akquisition der Signale, die in dem Detektor 22 erzeugt werden, anweist. Die Vorrichtungssteuerung 24 kann ebenfalls verschiedene Signalbearbeitungs- und Filterfunktionen ausführen, wie beispielsweise zur anfänglichen Einstellung der dynamischen Bereiche, das Auslassen von digitalen Bilddaten und so weiter. Im Allgemeinen weist die Vorrichtungssteuerung 24 Befehle der Bildgebungsvorrichtung an, um Untersuchungsprotokolle auszuführen und um die akquirierten Daten zu bearbeiten. In dem vorliegenden Kontext enthält die Vorrichtungssteuerung 24 ebenfalls Signalverarbeitungsschaltkreise, typischerweise auf der Basis einer generellen Verwendung oder eines anwendungsspezifischen digitalen Computers, einer zugeordneten Speicherschaltung zum Speichern von Programmen und Rechenabläufen, die durch den Computer ausgeführt werden, sowie Konfigurationsparameter und Bilddaten, Schnittstellenschaltungen und so weiter.
  • In der in 1 dargstellten Ausführungsform ist die Vorrichtungssteuerung 24 über eine Motorsteuerung 32 mit einer drehenden Subeinrichtung 26 und einer linearen Positions-Subeinrichtung 28 gekoppelt. In einer Ausführungsform ermöglicht die drehende Subeinrichtung 26, dass die Röntgenquelle 12, der Kollimator 14 und der Detektor 22 in einer oder mehreren Drehungen um den Patienten 18 gedreht werden können. In einer anderen Ausführungsform kann die drehende Sub-Einrichtung 26 nur entweder die Quelle 12 oder den Detektor 22 drehen oder kann unterschiedliche verschiedene Röntgenstrahler und/oder Detektorelemente, die in einem Ring um das Bildgebungsvolumen angeordnet sind, drehen. In Ausführungsformen, in denen die Quelle 12 und/oder der Detektor 22 gedreht werden, kann die drehende Subeinrichtung 26 eine Gantry enthalten. Demzufolge, kann die Vorrichtungssteuerung 24 verwendet werden, um die Gantry zu betreiben. Die lineare Positionie rungseinrichtung 28 ermöglicht es, dass der Patient 18 oder genauer ein Patiententisch linear verschoben wird. Folglich kann der Patiententisch linear bewegt werden innerhalb der Gantry, um Bilder von bestimmten Gebieten des Patienten 18 zu erzeugen.
  • Zusätzlich, wie dies dem Fachmann klar ist, kann die Röntgenquelle 12 durch eine Röntgenquellensteuerung 30 gesteuert werden, die innerhalb der Vorrichtungssteuerung 24 angeordnet ist. Insbesondere ist die Röntgenquellensteuerung 30 eingerichtet, um Leistungs- und Timingsignale für die Röntgenquelle 12 bereitzustellen.
  • Ferner ist ebenfalls dargestellt, dass die Vorrichtungssteuerung 24 eine Datenakquisitionseinrichtung 34 aufweist. In dieser beispielhaften Ausführungsform ist der Detektor 22 mit der Vorrichtungssteuerung 24 gekoppelt und insbesondere mit der Datenakquisitionseinrichtung 34. Die Datenakquisitionseinrichtung 34 empfängt Daten, die durch die Ausleseelektronik des Detektors 22 erhalten wurden. Die Datenakquisitionseinrichtung 34 empfängt typischerweise gesampelte analoge Signale von dem Detektor 22 und konvertiert die Daten für die nachfolgende Bearbeitung durch einen Computer 36 in digitale Signale.
  • Der Computer 36 ist typischerweise mit der Vorrichtungssteuerung 24 gekoppelt oder beinhaltet diese. Die Daten, die durch die Datenakquisitionseinrichtung 34 aufgenommen werden, können in den Computer 36 zur nachfolgenden Bearbeitung und Rekonstruktion übertragen werden. Der Computer 36 kann einen Speicher 38 enthalten oder mit einem Speicher 38 kommunizieren, der Daten, die durch den Computer 36 bearbeitet wurden oder Daten die durch den Computer 36 bearbeitet werden sol len, speichern kann. Es sollte so verstanden werden, dass jeder Typ von Speicher, der konfiguriert ist eine große Datenmenge zu speichern, durch eine derartige beispielhafte Vorrichtung 10 verwendet werden kann. Darüber hinaus kann der Speicher 38 in der Akquisitionseinrichtung lokalisiert sein oder kann entfernte Komponenten enthalten, wie beispielsweise netzwerkzugängliche Speichermedien zum Speichern von Daten, Prozessparametern und/oder Routinen zum Implementieren der nachfolgend beschriebenen Techniken.
  • Der Computer 36 kann ebenfalls adaptiert werden, um die Merkmale zu steuern, wie beispielsweise Scanning-Betrieb und Datenakquisition, die durch die Vorrichtungssteuerung 24 ermöglicht werden können. Darüber hinaus kann der Computer 36 eingerichtet sein, um Befehle und Scanning-Parameter von einem Bediener über eine Bediener-Workstation 40 zu erhalten, die typischerweise mit einer Tastatur und anderen Eingabeeinrichtungen (nicht gezeigt) ausgestattet ist. Ein Bediener kann dadurch die gesamte Vorrichtung 10 mittels der Eingabeeinrichtungen steuern. Folglich kann der Bediener das rekonstruierte Bild und andere Daten beobachten, die relevante für die Vorrichtung sind, die Bildgebung initiieren und so weiter.
  • Eine Darstellungseinrichtung oder Display 42, die mit der Workstation 40 gekoppelt ist, kann verwendet werden, um das rekonstruierte Bild zu beobachten. Zusätzlich kann das gescannte Bild ebenfalls mittels eines Druckers 44 gedruckt werden, der mit der Bedienerworkstation 40 gekoppelt werden kann. Das Display 42 und der Drucker 44 können ebenfalls mit dem Computer 36 verbunden sein, entweder direkt oder über die Bedienerworkstation 40. Die Bedienerworkstation 40 kann ebenfalls mit einer Bildarchivierungs- und Kommunikationseinrich tung (picture archiving and communication system: PACS) 46 gekoppelt sein. Es sollte bemerkt werden, dass die PACS 46 mit einer entfernten Einrichtung 48, einer Radiologieabteilungsinformationseinrichtung (radiology department information system: RIS), einer Krankenhausinformationseinrichtung (hospital information system: HIS) oder einem internen oder externen Netzwerk so gekoppelt sein kann, dass Andere, an verschiedenen Orten Zugang zu den Bilddaten erhalten können. Zusätzlich kann eine computerunterstütze Diagnose-(computer aided diagnosis: CAD)-Einheit 50 betriebsmäßig mit dem Computer 36 gekoppelt sein. Es sollte bemerkt werden, dass die CAD-Einheit 50 ebenfalls mit einem Display 42 gekoppelt sein kann, wobei die Bilddaten auf dem Display 42 dargestellt werden können. In der Praxis kann die CAD-Einheit 50 Software enthalten, die konfiguriert ist, um den CAD-Algorithmus auf die Bilddaten anzuwenden. Ferner kann die CAD-Einheit 50 ebenfalls mit dem Display 42 gekopplt sein, wobei die Bilddaten auf dem Display dargestellt werden können. In der Praxis kann die CAD-Einheit 50 Teil der Daten-Akquisitionseinrichtung 34 sein oder kann eine komplett separate Komponente sein, die typischerweise entfernt von der Datenakquisitionseinrichtung 34 ist und konfiguriert ist, um die Bilddaten, die auf einem Speicher, wie beispielsweise dem PACS 46, gespeichert sind, zu analysieren.
  • Es sollte ferner bemerkt werden, dass der Computer 36 und die Bediener-Workstation 40 mit einer anderen Ausgabeeinrichtung gekoppelt werden kann, die einen Standard- oder für Spezialanwendungen geeignete Computer-Bildschirm und zugehörige Bearbeitungsschaltungen enthält. Ein oder mehrere Bediener-Workstation 40 können ferner in einer Einrichtung zur Ausgabe von Vorrichtungsparametern, Anfrageuntersuchungen, Betrachtungsbildern und so weiter verbunden sein. Im Allge meinen können Displays, Drucker, Workstations und ähnliche Einrichtungen und Geräte, die zu der Vorrichtung gehören, in der Nähe der Akquisitionskomponenten lokalisiert sein oder können entfernt von diesen Komponenten angeordnet sein, wie beispielsweise woanders in einer Institution oder einem Krankenhaus oder an einem verschiedenen Ort, der mit der Datenakquisitionseinrichtung mittels einem oder mehreren Konfigurationsnetzwerken, wie beispielsweise dem Internet, einem virtuellen privaten Internet oder ähnlichem angeordnet sein.
  • Wie vorstehend bemerkt wurde, kann eine beispielhafte Bildgebungs-Vorrichtung, die in der vorliegenden Ausführungsform verwendet wird, eine CT-Scanning-Vorrichtung 52 sein, wie diese mit größerer Genauigkeit in 2 dargestellt ist. Die CT-Scanning-Vorrichtung 52 kann eine Vielfachschicht-Detektor-CT(multi slice detector CT: MDCT)-Vorrichtung sein, die ein großes Array mit axialer Abdeckung, eine hohe Gantrydrehgeschwindigkeit und eine hohe räumliche Auflösung bietet. Alternativ kann die CT-Scanning-Vorrichtung 52 eine volumetrische CT-(volumetric CT:VCT)-Vorrichtung sein, die eine Kegelstrahlgeometrie und einen Flächendetektor verwendet, um die Bildgebung eines Volumens zu erlauben, wie beispielsweise eines gesamten inneren Organs eines Objektes bei hohen oder niedrigen Gantry-Drehgeschwindigkeiten. Die CT-Scanning-Vorrichtung 52 ist mit einem Rahmen 54 und einer Gantry 56 dargestellt, die eine Apertur oder Öffnung 58 aufweist, durch die ein Patient 18 bewegt werden kann. Ein Patiententisch 60 kann in der Apertur 58 des Rahmens 54 und der Gantry 56 positioniert werden, um die Bewegung des Patienten 18 ermöglichen, typischerweise mittels linearer Verlagerung des Tisches 60 durch eine lineare Positionierungs-Subeinrichtung 28 (siehe 1). Die Gantry 56 ist mit der Strahlungsquelle 12 dargestellt, beispielsweise einer Röntgenröh re, die die Strahlung von einem Brennpunkt 62 emittiert. Für die Bildgebung des Herzens wird der Röntgenstrahl auf einen Querschnitt des Patienten 18 gerichtet, der das Herz einschließt und beinhaltet.
  • Im typischen Betrieb projiziert die Röntgenquelle 12 einen Röntgenstrahl von dem Brennpunkt 62 und in Richtung des Detektors 22 (siehe 1). Der Kollimator 14 (siehe 1), wie beispielsweise Blei oder Wolfram-Blenden, definiert typischerweise die Größe und Gestalt des Röntgenstrahls, der aus der Röntgenquelle 12 tritt. Der Detektor 22 wird allgemein durch mehrere Detektorelemente gebildet, die die Röntgenstrahlen detektieren, die durch und um ein interessierendes Objekt treten, die die Intensität des Röntgenstrahls an der Position des Elementes zu einer Zeit bei der der Strahl den Detektor 22 trifft, detektieren oder erfassen. Jedes Detektorelement erzeugt ein elektrisches Signal, das die Intensität des Röntgenstrahls an der Position des Elements zu der Zeit zu der der Strahl den Detektor 22 trifft, repräsentiert. Die Gantry 56 wird so um das interessierende Objekt gedreht, dass mehrere radiographische Ansichten durch den Computer 36 aufgenommen werden können.
  • Folglich wenn die Röntgenquelle 12 und der Detektor 22 sich drehen, nimmt der Detektor Daten auf, die bezogen auf die Abschwächung des Röntgenstrahls sind. Die Daten, die von dem Detektor 22 aufgenommen werden, werden dann einer Vor-Bearbeitung und Kalibrierung der Daten unterzogen, um die Daten aufzubereiten, das Linienintegral der Abschwächungskoeffizienten des gescannten Objekts zu repräsentieren. Die bearbeiteten Daten, die gewöhnlich Projektionen genannt werden, können dann gefiltert und zurück projiziert werden, um ein Bild der gescannten Fläche zu bilden. Das gebildete Bild kann in bestimmten Moden weniger oder mehr als 360 Grad der projizierten Daten enthalten. Sobald dies rekonstruiert ist, zeigt das Bild, das von der Vorrichtung von 1 erzeugt wurde, interne Merkmale und Eigenschaften 66 des Patienten 18.
  • Das rekonstruierte Bild kann ferner analysiert werden unter Verwendung eines CAD-Algorithmus, um einem Radiologen zu ermöglichen, das Bild zu untersuchen, um bestimmte anatomische Strukturen in dem Bild zu identifizieren. Beispielsweise kann der CAD-Algorithmus verwendet werden, um Lungen-Knötchen in den CT-Bildern der Lunge und Polypen in Bildern des Dickdarms zu kennzeichnen, um Läsionen in den Bildern der Leber zu identifizieren, um Erweiterungen in neutralen oder Bildern des Herzens zu identifizieren, um Lungenembolien in den Bildern der Lunge zu detektieren, um Gefäßbaumextraktionen und Verbindungen/Verzweigungen zu detektieren. Der CAD-Algorithmus ist so eingerichtet, um verschiedene interessierende Bereiche in dem Bild zu identifizieren und um die Bereiche zu bearbeiten, um eine zugehörige Bereichsbewertung zu berechnen. Die Bereichsbewertung wird dann verwendet, um die anatomischen Strukturen für die weitere Diagnose zu kennzeichnen. Die Art und Weise, in der der Algorithmus auf die Bilder angewendet wird, wird in weiteren Details in 3 beschrieben.
  • 3 stellt ein Ablaufdiagramm von beispielhaften Schritten bei der Ausführung eines Prozessablaufs auf der Basis einer CAD-Analyse dar. Die in 3 aufsummierte Technik beginnt bei Schritt 68, in dem die Bilddaten akquiriert werden können. In einer CT-Vorrichtung beispielsweise ist die Bilddatenakquisition von Schritt 68 typischerweise durch einen Bediener initiiert, der eine Schnittstelle zu der Vorrichtung mittels einer Bedienerworkstation 40 (siehe 1) aufweist. Die Ausleseelektronik detektiert Signale, die mittels des Auftreffens der Strahlung auf dem Sanner-Detektor erzeugt werden, und die Vorrichtung bearbeitet diese Signale, um verwendbare Bilddaten zu erzeugen. Wie jedoch vom Fachmann erkannt wird, können die Bilddaten ebenso von der Bildakquisitionseinrichtung zugeordnet werden, wie beispielsweise, aber nicht darauf beschränkt, bei Magnetresonanz-Bildgebungs-(MRI)-Vorrichtungen, Positionsemissionstomographie-(PET)-Vorrichtungen, einer Ein-Photonemissionstomographie-(SPECT)-Vorrichtung oder bei digitale Radiographie-Vorrichtungen. Zusätzlich während die Bildakquisitionseinrichtungen, die vorstehend genannt wurden, verwendet werden können, um direkt die Bildgebungsdaten eines Patienten 18 zu akquirieren (siehe 1), können Bilddaten statt dessen Daten aus einem Archiv oder einer Datenspeichereinrichtung enthalten.
  • Nachdem dem Akquirieren des Bildes wird ein Bereich in dem akquirierten Bild identifiziert. In einer Ausführungsform enthält der Bereich einen interessierenden Pixel oder interessierenden Voxel. Der Bereich kann verschiedene Voxel oder Pixel enthalten. In einer Ausführungsform weist jeder Voxel in dem Bild einen Schwellenwert auf, um den Bereich zu identifizieren. Der Bereich stellt gewöhnlich verschiedene anatomische Strukturen, wie beispielsweise Lungenknötchen, Gefäße, usw., dar.
  • In Schritt 72 wird eine Bereichsantwort berechnet. In einer Ausführungsform werden die Bereichsantworten eines nichtlinearen Filters für den interessierenden Voxel berechnet. Die Bereichsantwort ist als eine Antwort definiert, die für den Bereich und/oder eine spezifizierte Nachbarschaft des Voxels um den Bereich berechnet sind. In einer Ausführungsform kann die Größe der identifizierten benachbarten Voxel auf der Basis der interessierenden Strukturen, die identifiziert werden sollen, gesetzt werden. Eine bestimmte Ausführungsform verwendet die Prinzipien der Kurven von Isoflächen, Flächen gleicher Höhe, in jedem Voxel als Bereichsantwort.
  • In Schritt 74 wird eine Bereichsbewertung für die identifizierten Bereiche unter Verwendung mehrerer wahrscheinlichkeitstheoretischer Modelle berechnet. Die Bereichsbewertung stellt einen Wert dar, der eine Wahrscheinlichkeit des Bereiches anzeigt, die zu einer spezifischen anatomischen Struktur, wie beispielsweise einem Gefäß oder Knötchen, gehört. In einer Ausführungsform weist die Bereichsbewertung die Wahrscheinlichkeit des Beobachtens der gegebenen Kurvendaten für den Bereich auf Grund der spezifischen anatomischen Struktur auf. In einer anderen Ausführungsform weist die Bereichsbewertung eine Funktion der Intensitätsdaten der Region auf.
  • In Schritt 76 wird der Bereich durch Verwendung der Bereichsbewertung gekennzeichnet. In einer weiteren Ausführungsform kann der gekennzeichnete Bereich für einen Radiologen mit unterschiedlichen Farben für unterschiedliche anatomische Strukturen dargestellt werden.
  • Die wahrscheinlichkeitstheoretischen Modelle werden erhalten durch Annähern oder Modellieren einer anatomischen Struktur durch eine geometrische Gestalt oder einer Kombination von geometrischen Gestalten. Die anatomischen Strukturen werden dann unter Verwendung der Modellparameter repräsentiert. Die Verteilung der Antwort wird als eine Funktion der Modellparameter erhalten oder hergeleitet. Jedes Modell hat seine Parameter und diese Parameter haben einen Wertebereich, die diese annehmen können.
  • In einer weiteren Ausführungsform wird eine Wahrscheinlichkeitsverteilung der Wahrscheinlichkeit eines bestimmten Parameters unter der Annahme eines bestimmten Wertes beschrieben. Zur Herleitung einer derartigen Verteilung werden geometrische und physikalische Grenzen zusammen mit der Einbeziehung des existierenden medizinischen Wissens beschrieben. In einer spezifischeren Ausführungsform wird die Wahrscheinlichkeitsverteilung der Antworten für spezifische Gestalt-Modelle berechnet, die abwesend sind und/oder für verrauschte Bilder.
  • Die Technik, die in 3 beschrieben ist, kann auf verschiedene medizinische Bilder angewendet werden. Eine spezifische Anwendung der vorliegenden Technik ist die Identifizierung von Knötchen und Gefäßen in CT-Bildern der Lunge, die für das Erkennen und Identifizieren von Lungenkrebs verwendet wird. Ein Beispiel der Berechnung der Bereichsbewertung und der nachfolgenden Kennzeichnung des Bildes wird im Detail nachfolgend beschrieben.
  • In einer Ausführungsform wird ein Bayes-Bezugssystem für die Berechnung der Bereichsbewertung verwendet. Es wird angenommen, dass M = {Mi, i = 1, ..., N} ein Satz von parametrischen Modellen mit Parameter mi in der Domäne Mi sei, das bedeutet mi ∊ Mi. Einer aus Mi, der jede mögliche Kennzeichnung repräsentiert, wird zu den Daten „D" angefügt, die zu einem Voxel „x" zugehörig ist. In einer Bayes-Formulierung kann die Bereichsbewertung für jedes Modell Mi ∊ berechnet werden durch die Verwendung des Bayes-Gesetzes:
    Figure 00170001
  • Die Kennzeichnung für den Voxel „x" kann dann durch eine Funktion zugeordnet werden, die die Bereichsbewertung für verschiedene Modelle vergleicht. In einer Ausführungsform ist die Kennzeichnung, die diejenige ist, die zu dem Modell mit der maximalen Wahrscheinlichkeit oder des maximalen Zutreffens gehört, beispielsweise:
    Figure 00170002
  • Unter der Annahme, dass D ein Satz von individuellen Daten D ist, beispielsweise D = {Dj, j = 1, ...., M} können drei alternative Pfade verfolgt werden. Beim ersten Pfad wird angenommen, dass jeder Messwert D unabhängig von jedem anderen bestimmten Messwert in dem Satz D ist, was eine Wahl eines Modells Mi gibt, gefolgt von der Marginalisierung über mi ∊ Mi, beispielsweise:
    Figure 00170003
  • Beim zweiten Pfad wird angenommen, dass jeder Messwert D3 unabhängig von jedem anderen eindeutigen Messwert in dem Satz D, der eine Wahl des Modells Mi ist, und dessen Parameter mi wieder durch die Marginalisierung über mi ∊ Mi sind, beispielsweise:
    Figure 00180001
  • Beim dritten Pfad wird keine Abhängigkeit angenommen, aber über mi ∊ Mi marginalisiert, beispielsweise:
    Figure 00180002
  • Um die Bereichsbewertung 'p(Dj|mi, Mi, x)' in Gleichung (1) zu berechnen wird ein paramtrisches Modell Mi und der Messwert Dj ∊ D für den Satz D, der dem Voxel „x" zugeordnet ist, definiert. In einer Ausführungsform, wird ein Ausreißermodell M1, ein Knötchen-Modell M2, ein Gefäß-Modell M3, ein Pleural- oder Wand-Knötchen-Modell M4, ein Pleural- oder Wandgrad-Modell M5 und ein Verbindungs-Modell M6 in Betracht gezogen. Die letzten fünf Modelle, die zusammen als anatomische Modelle bezeichnet werden von den Strukturen repräsentiert, die in den Lungenflügeln gefunden werden. Das erste Modell ist ein Sammelmodell oder auch übergeordnetes Modell für alle Modelle, die nicht zu irgendeinem der anatomischen Modelle gehören. Das erste Modell wird verwendet für eine Variabilität in den anatomischen Modellen.
  • Wie dies in 3 beschrieben ist, weist in einer Ausführungsform die Bereichsantwort Kurvendaten des Voxels auf. Die Art und Weise, in der die Kurvendaten berechnet werden, wird nachfolgend beschrieben. Ein Volumenbild „I" ist als eine zweifach differentielle Abbildung von einem kompakt Sub-Domäne R3 nach R definiert. Für jeden gegebenen I0, I (X) = 0 definiert eine Isofläche an Punkten „x" und ∇ I(x) ≠ 0. Die prinzipielle Kurven „K" der Isoflächen werden durch die nachfolgende Gleichung gegeben:
    Figure 00190001
  • Worin die orthogonalen Spalten von einer 3×2-Matrix Z den Nullraum von VI aufspannen.
  • Die Matrix C =
    Figure 00190002
    repräsentiert die Kurvendaten „x" des Volumenbildes an dem Voxel „x". Die so erhaltenen Kurvendaten werden mit Kurvendaten des Knötchenmodells M2 verglichen, um die Wahrscheinlichkeit des zu kennzeichnenden Voxels als ein Knötchen zu bestimmen. Die Art und Weise, in der das Knötchenmodell erzeugt wird, wird nachfolgend beschrieben.
  • Typischerweise ist das Knötchen-Modell M2, das ausgewählt wurde, um ein Knötchen zu repräsentieren, ein voller Ellipsoid mit ähnlichen konzentrischen ellipsoiden Isoflächen, wie die der äußersten Isofläche ein Ellipsoid mit der Halbachse, die durch a = b ≤ c gegeben ist, wobei a, b, c die Längen der drei Halbachsen, sind, beispielsweise: M2: ρ × θ × Φ → R3
    Figure 00200001
    worin ρ = [0, 1], θ = [0, 2Π], Φ = [–Π/2, Π/2] und jede Wahl von ρ
    Figure 00200002
    Π definiert eine unterschiedliche Isofläche.
  • Es soll „x" ein Punkt in dem Bereich R2 ⊂ R3 von M2 sein, der willkürlich entsprechend einer gleichförmigen Verteilung auf R2 ausgewählt ist, beispielsweise hängt die Wahrscheinlichkeit, dass „x" innerhalb eines Unterbereichs von M2 sein wird, ab von der Volumenmessung des Subbereichs. Es wird berücksichtigt, dass die willkürlichen Variablen Π2, Φ2 gegeben sind durch: Π2 : R2 → R, x ⟼ ρ(x) ∊ Π Φ2: R2 → R2, x ⟼ ϕ(x) ∊ Φ
  • Die verbundene kumulative Wahrscheinlichkeitsverteilungsfunktionen Π2 und Φ2, PΠ2, Φ2 (ρ, ϕ) wird berechnet aus dem Ausdruck für das fraktionelle Volumen des Festkörpers, der aus dem Ellipsoid M2 erhalten wird, wenn nur den Sub-Satz (0, ρ) x θ x (–Π/2, ϕ) seiner Domäne in Betracht gezogen wird und ist gegeben durch: PΠ2, Φ2 (ρ, ϕ) = ρ3 (sinϕ + 1))/2
  • Deshalb ist die verbundene Wahrscheinlichkeitsdichte PΠ2, Φ2 (ρ, ϕ) von Π2 und Φ2: PΠ2, Φ2 (ρ, ϕ) = 3 ρ2 (cosϕ)/2·I(ρ)I ϕ(Φ)
  • Man nehme nachfolgen an, dass der willkürliche Vektor K: R2 → R, x ⟼ k(x) = (k1, k2). ist. Unter Verwendung von Standard-Ergebnissen bei den Transformationen von willkürlichen Variablen und unter der Annahme, dass eine Wahrscheinlichkeit α2 eines Ausreißers sei, erzeugt die verbundene Wahrscheinlichkeitsdichte ρK2 (K|a, c) von K1 2 und K2 2:
    Figure 00210001
  • Die Modelle für das Gefäß M3, einen Pleural- oder Wand-Knötchen M4, einen Pleural- oder Wand-Kante M5 und eine Verbindung M6 können unter Verwendung derselben Technik wie vorstehend beschrieben erzeugt werden. Der Bereichsbewertung, die durch Gleichung (4) erzeugt wird, kann verglichen werden mit der Wahrscheinlichkeitsdichte des Knötchen-Modells, wie dies in Gleichung (5) beschrieben ist, um die Wahrscheinlichkeit des Bereiches zu bestimmen, der ein Knötchen ist.
  • Wie aus der vorstehend beschriebenen Technik ersichtlich ist, kann der Computer 36 die computergestützte Diagnosecomputer aided diagnosis: CAD)-Einheit 50 verwenden, um in teressierende Bereiche in dem Bild zu identifizieren. Der Computerprozessor ist konfiguriert, um die Daten, die zu den interessierenden Bereichen gehören zu bearbeiten, um eine Bereichsbewertung zu erzeugen. Die Bereichsbewertung wird dann mit verschiedenen Modellen verglichen, die erzeugt werden können unter Verwendung der Techniken, die vorstehend beschrieben sind, um die anatomischen Strukturen in dem Bild zu identifizieren und zu kennzeichnen.
  • Die vorstehend beschriebene Erfindung hat verschiedene Vorteile einschließlich der Unempfindlichkeit und Genauigkeit der Bestimmungen der Identifizierung und Kennzeichnung des Bereichs, da die Berechnung eine Nachbarschaft der Voxel um den Bereich herum in Betracht zieht und wahrscheinlichkeitstheoretische Modelle aus verschiedenen geometrischen Gestalten oder Formen berechnet werden.
  • Während bestimmte Merkmale der Erfindung vorstehend beschrieben und dargstellt wurden, werden dem Fachmann viele Modifikationen und Änderungen einfallen. Deshalb sollte verstanden werden, dass die angehängten Ansprüche alle derartige Modifikationen und Änderungen abdecken, wie diese innerhalb des Schutzumfangs und Geistes der Erfindung liegen.
  • Es wird ein Verfahren und eine Vorrichtung zur Visualisierung von Bereichen in einem Bild geschaffen. Das Verfahren weist die Berechnung einer Bereichsantwort 72 um einen Bereich in dem Bild herum, die Herleitung einer Bereichsbewertung 74 auf der Basis einer Bereichsantwort für den Bereich und die Kennzeichnung des Bereiches 76 in dem Bild durch Vergleichen der Bereichsbewertung mit mehreren wahrscheinlichkeitstheoretischen Modellen auf.
  • 10
    Bildgebungsvorrichtung
    12
    Röntgenquelle
    14
    Kollimator
    16
    Strahlung, Röntgenstrahl
    18
    menschlicher Patient
    20
    Teil der Strahlung
    22
    Detektorarray
    24
    Vorrichtugnskontroller
    26
    Dreh-Subeinrichtung
    28
    lineare Positionierungs-Subeinrichtung
    30
    Röntgenröhren-Steuerung
    32
    Motorsteuerung
    34
    Datenakquisitionseinrichtung
    36
    Computer, Rechnereinheit
    38
    Speicher
    40
    Bediener-Workstation
    42
    Display oder Darstellungseinrichtung
    44
    Drucker
    46
    PACS
    48
    entfernter Benutzer
    50
    CAD-Einheit
    52
    CT-Scanning-Vorrichtung
    54
    Rahmen
    56
    Gantry
    58
    Apertur oder Öffnung
    60
    Patiententisch
    62
    Brennpunkt
    66
    innere Merkmale oder Eigenschaften des Patienten
    68
    Schritt der Akquirierung von Bilddaten
    72
    Schritt der Berechnung einer Bereichsantwort
    74
    Schritt der Reservierung der Bereichsbewertung
    76
    Schritt der Kennzeichnung des Bereichs

Claims (10)

  1. Verfahren zur Zuordnung von Kennzeichen zu Bereichen in einem Bild, wobei das Verfahren aufweist: Ableiten eines Wahrscheinlichkeitsmodells für mehrere geometrische Strukturen; Berechnen einer Bereichsantwort (72) um einen Bereich in dem Bild herum; Berechnen einer Bereichsbewertung (74) für jede geometrische Struktur unter Verwendung der mehreren wahrscheinlichkeitstheoretischen Modelle; und Kennzeichnen einer Bereichsbewertung (76) in dem Bild auf der Basis der Bereichsbewertung.
  2. Verfahren nach Anspruch 1, worin die geometrischen Strukturen anatomische Strukturen aufweisen und die Kennzeichnung die Kennzeichnung der anatomischen Strukturen aufweist.
  3. Verfahren nach Anspruch 1, worin die anatomische Struktur eine aus den nachfolgenden ist: eines Knötchens, eines Gefäßes, eines Polypen, eines Tumors, einer Läsion, einer Einknickung, eines Aneurysmas und einer Lungenembolie.
  4. Verfahren nach Anspruch 1, worin die Ableitung der wahrscheinlichkeitstheoretischen Modelle aufweist: Modellieren der anatomischen Strukturen unter Verwendung mehrerer geometrischer Modelle; und Darstellen der anatomischen Strukturen unter Verwendung der Modellparameter.
  5. Verfahren nach Anspruch 1, worin die Berechnung der Bereichsantwort die Berechnung der Bereichsantwort als eine Funktion des geometrischen Modells und der Modellparameter ist.
  6. Verfahren nach Anspruch 1, das ferner die Herleitung einer Verteilung der Bereichsantwort als eine Funktion des Modellparameters aufweist.
  7. Verfahren nach Anspruch 1, worin die Bereichsantwort eine Antwort in einer Nachbarschaft um einen interessierenden Pixel oder interessierenden Voxel aufweist.
  8. Verfahren nach Anspruch 1, ferner aufweisend die Darstellung des gekennzeichneten Bereichs und das Zuordnen einer jeweiligen Farbe für jede Kennzeichnung zur Visualisierung der zugehörigen interessierenden Bereiche.
  9. Medizinische Bildgebungsvorrichtung (10) zur Kennzeichnung anatomischer Strukturen in einem Bild, wobei die Vorrichtung aufweist: einen Bildprozessor (36), der konfiguriert ist, um: eine Bereichsantwort um einen interessierenden Voxel in dem Bild zu berechnen, worin die Bereichsantwort eine geometrische Antwort für den Bildvoxel aufweist, Berechnen einer Voxelbewertung für jede der anatomischen Strukturen auf der Basis mehrerer wahrscheinlichkeitstheoretischer Modelle; Kennzeichnen des interessierenden Voxels in dem Bild auf der Basis der Voxelbewertung; und eine Darstellungseinrichtung (42), die eingerichtet ist, um das Bild einschließlich der gekennzeichneten anatomischen Bereiche darzustellen.
  10. Bildgebungsvorrichtung (10) nach Anspruch 9, worin die Bildgebungsvorrichtung mindestens eine aus den nachfolgend aufgeführten Vorrichtungen aufweist: Computertomographie-(CT)-Vorrichtung, Positionenemissionstomographie-(PET)-Vorrichtung, Ein-Photonen-Emissions-Computergestützte-Tomographie-(SPECT)-Vorrichtung, Magnetresonanz-Bildgebungsvorrichtung, Mikroskopie- oder eine digitale Radiographie-Vorrichtung.
DE102007046250A 2006-09-28 2007-09-26 Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild Withdrawn DE102007046250A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US84777706P 2006-09-28 2006-09-28
US60/847,777 2006-09-28
US11/558,715 2006-11-10
US11/558,715 US8923577B2 (en) 2006-09-28 2006-11-10 Method and system for identifying regions in an image

Publications (1)

Publication Number Publication Date
DE102007046250A1 true DE102007046250A1 (de) 2008-04-03

Family

ID=39134710

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007046250A Withdrawn DE102007046250A1 (de) 2006-09-28 2007-09-26 Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild

Country Status (3)

Country Link
US (1) US8923577B2 (de)
JP (1) JP5438267B2 (de)
DE (1) DE102007046250A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0320973D0 (en) * 2003-09-08 2003-10-08 Isis Innovation Improvements in or relating to similarity measures
US8244012B2 (en) * 2007-02-05 2012-08-14 Siemens Medical Solutions Usa, Inc. Computer aided detection of pulmonary embolism with local characteristic features in CT angiography
US8872822B2 (en) * 2007-10-15 2014-10-28 Koninklijke Philips N.V. Visualization of temporal data
US8965071B2 (en) * 2008-05-30 2015-02-24 Emory University Assessing tumor response to therapy
GB2463906A (en) * 2008-09-29 2010-03-31 Medicsight Plc Identification of medical image objects using local dispersion and Hessian matrix parameters
US8494215B2 (en) * 2009-03-05 2013-07-23 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
US9129360B2 (en) 2009-06-10 2015-09-08 Koninklijke Philips N.V. Visualization apparatus for visualizing an image data set
US20110311116A1 (en) * 2010-06-17 2011-12-22 Creighton University System and methods for anatomical structure labeling
JP5745947B2 (ja) * 2011-06-20 2015-07-08 株式会社日立メディコ 医用画像処理装置、医用画像処理方法
US9536044B2 (en) * 2011-12-06 2017-01-03 Microsoft Technology Licensing, Llc Metadata extraction pipeline
KR102049336B1 (ko) * 2012-11-30 2019-11-27 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
US9576107B2 (en) * 2013-07-09 2017-02-21 Biosense Webster (Israel) Ltd. Model based reconstruction of the heart from sparse samples
US11060433B2 (en) * 2013-09-18 2021-07-13 Advanced Technology Emission Solutions Inc. Retention of wires in an induction heated gaseous emissions treatment unit
US9058692B1 (en) 2014-04-16 2015-06-16 Heartflow, Inc. Systems and methods for image-based object modeling using multiple image acquisitions or reconstructions
US10169874B2 (en) * 2017-05-30 2019-01-01 International Business Machines Corporation Surface-based object identification
CN112292691B (zh) * 2018-06-18 2024-06-04 谷歌有限责任公司 用于使用深度学习提高癌症检测的方法与系统
CA3047972A1 (en) 2018-06-25 2019-12-25 The Royal Institution For The Advancement Of Learning (Mcgill University) Method and system of performing medical treatment outcome assessment or medical condition diagnostic
EP3807845B1 (de) 2019-08-04 2022-04-27 Brainlab AG Atlasbasierte ortsbestimmung eines interessierenden anatomischen bereichs

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255187A (en) * 1990-04-03 1993-10-19 Sorensen Mark C Computer aided medical diagnostic method and apparatus
US6266435B1 (en) * 1993-09-29 2001-07-24 Shih-Ping Wang Computer-aided diagnosis method and system
US6434262B2 (en) * 1993-09-29 2002-08-13 Shih-Ping Wang Computer-aided diagnosis system and method
US5571083A (en) * 1994-02-18 1996-11-05 Lemelson; Jerome H. Method and system for cell transplantation
JPH07323024A (ja) 1994-06-01 1995-12-12 Konica Corp 画像診断支援装置
EP0692772A1 (de) 1994-07-12 1996-01-17 Laboratoires D'electronique Philips S.A.S. Verfahren und Vorrichtung zur Detektion von Merkmalen einer Objektskontur
EP0766205B1 (de) * 1995-09-29 2003-12-03 Koninklijke Philips Electronics N.V. Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
US5917929A (en) * 1996-07-23 1999-06-29 R2 Technology, Inc. User interface for computer aided diagnosis system
JPH1156828A (ja) * 1997-08-27 1999-03-02 Fuji Photo Film Co Ltd 異常陰影候補検出方法および装置
AU1606400A (en) * 1998-11-13 2000-06-05 Arch Development Corporation System for detection of malignancy in pulmonary nodules
US6320976B1 (en) * 1999-04-01 2001-11-20 Siemens Corporate Research, Inc. Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images
US6983063B1 (en) * 2000-06-29 2006-01-03 Siemens Corporate Research, Inc. Computer-aided diagnosis method for aiding diagnosis of three dimensional digital image data
US6944330B2 (en) * 2000-09-07 2005-09-13 Siemens Corporate Research, Inc. Interactive computer-aided diagnosis method and system for assisting diagnosis of lung nodules in digital volumetric medical images
JP2005527880A (ja) * 2001-10-24 2005-09-15 ニック マルチメディア インク ユーザ定義可能な画像参照ポイント
US7024027B1 (en) * 2001-11-13 2006-04-04 Koninklijke Philips Electronics N.V. Method and apparatus for three-dimensional filtering of angiographic volume data
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
DE10212869A1 (de) * 2002-03-22 2003-09-18 Siemens Ag Ansteuerschaltung für einen Sperrschicht-Feldeffekttransistor
US6817982B2 (en) * 2002-04-19 2004-11-16 Sonosite, Inc. Method, apparatus, and product for accurately determining the intima-media thickness of a blood vessel
EP1565865A2 (de) 2002-11-20 2005-08-24 Koninklijke Philips Electronics N.V. Computer-gestützte detektion von lungenknoten
JP2004222776A (ja) 2003-01-20 2004-08-12 Fuji Photo Film Co Ltd 異常陰影候補検出装置
US6937776B2 (en) * 2003-01-31 2005-08-30 University Of Chicago Method, system, and computer program product for computer-aided detection of nodules with three dimensional shape enhancement filters
JP2004283188A (ja) 2003-03-19 2004-10-14 Konica Minolta Holdings Inc 画像診断支援装置、画像診断支援方法、プログラム及び記憶媒体
US7346203B2 (en) * 2003-11-19 2008-03-18 General Electric Company Methods and apparatus for processing image data to aid in detecting disease
JP2005246032A (ja) 2004-02-04 2005-09-15 Fuji Photo Film Co Ltd 異常陰影検出方法および装置並びにプログラム
TWI258261B (en) * 2004-05-18 2006-07-11 Richtek Techohnology Corp JFET driving circuit applied to DC/DC converter and method thereof
US8059900B2 (en) * 2004-10-08 2011-11-15 General Electric Company Method and apparatus to facilitate visualization and detection of anatomical shapes using post-processing of 3D shape filtering
DE102006025374B4 (de) 2006-05-31 2008-03-13 Technische Universität Chemnitz Sperrschicht-Feldeffekttransistor-Anordnung und Verfahren zum Ansteuern eines Sperrschicht-Feldeffekttransistors

Also Published As

Publication number Publication date
JP5438267B2 (ja) 2014-03-12
US8923577B2 (en) 2014-12-30
US20080080770A1 (en) 2008-04-03
JP2008080121A (ja) 2008-04-10

Similar Documents

Publication Publication Date Title
DE102007046250A1 (de) Verfahren und Vorrichtung zur Identifizierung von Bereichen in einem Bild
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
US6574304B1 (en) Computer aided acquisition of medical images
EP1398722A2 (de) Rechnergestützte Verarbeitung von medizinischen Bildern
DE102008003940B4 (de) Automatische Erfassungs- und Markierungsvorrichtung für Koronarkalk in Arterien
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE112004000352B4 (de) System und Verfahren zum Durchführen einer virtuellen Endoskopie
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102006041309A1 (de) System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern
DE102004055768A1 (de) Verfahren und Systeme für die computerunterstützte zielgerechte Bildgebung
DE102008016297A1 (de) Sequenzielle Bildakquisition mit Verfahren und System zur Aktualisierung
DE102004056783A1 (de) Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie
DE102007057096A1 (de) Verfahren und Vorrichtung zur automatischen Registrierung von Läsionen zwischen Untersuchungen
DE102011053044A1 (de) System und Verfahren zur Analyse und sichtbaren Darstellung lokaler klinischer Merkmale
DE102009043868A1 (de) Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE112012002671T5 (de) Anzeigen einer Vielzahl von registrierten Bildern
JP2007275595A (ja) 断層撮影画像データの再現可能なビュー作成方法
DE102012100067A1 (de) Verfahren und System zur verbesserten medizinischen Bildanalyse
DE112007002807T5 (de) Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem
DE102005048524A1 (de) Verfahren und System zur Erkennung anatomischer Formen in einem CAD-System
DE102015210912A1 (de) Rekonstruktion eines Ergebnisbildes unter Berücksichtigung von Kontur-Signifikanz-Daten
DE102007028906A1 (de) Bildakquisitions-, Bildarchivierungs- und Bildvisualisierungssystem und Verfahren zur Unterstützung eines unter nuklearmedizinischer oder radiologischer Bildgebung durchgeführten Stagings oder Restagings zur Registrierung und Beurteilung der Entwicklung räumlich und/oder strukturell veränderlicher pathologischer Strukturen

Legal Events

Date Code Title Description
8181 Inventor (new situation)

Inventor name: SIROHEY, SAAD AHMET, PEWAUKEE, WIS., US

Inventor name: DOS SANTOS MENDOCA, PAULO RICARDO, CLIFTON PAR, US

Inventor name: TURNER, WESLEY DAVID, REXFORD, N.Y., US

Inventor name: BHOTIKA, RAHUL, GUILDERLAND, N.Y., US

Inventor name: WANG, JINGBIN, ALSTON, MASS., US

8181 Inventor (new situation)

Inventor name: SIROHEY, SAAD AHMET, PEWAUKEE, WIS., US

Inventor name: MENDOCA, PAULO RICARDO, CLIFTON PARK, N.Y., US

Inventor name: TURNER, WESLEY DAVID, REXFORD, N.Y., US

Inventor name: WANG, JINGBIN, ALSTON, MASS., US

Inventor name: BHOTIKA, RAHUL, ALBANY, N.Y., US

R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140807

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee