DE10120584A1 - Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten - Google Patents
Extraktion relevanter Bilddaten aus einem Volumen medizinischer BilddatenInfo
- Publication number
- DE10120584A1 DE10120584A1 DE10120584A DE10120584A DE10120584A1 DE 10120584 A1 DE10120584 A1 DE 10120584A1 DE 10120584 A DE10120584 A DE 10120584A DE 10120584 A DE10120584 A DE 10120584A DE 10120584 A1 DE10120584 A1 DE 10120584A1
- Authority
- DE
- Germany
- Prior art keywords
- volume
- processing device
- image
- opacity
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/08—Bandwidth reduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Generation (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Bei einem Ausführungsbeispiel der Erfindung handelt es sich um ein Verfahren zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten (62), wobei das Verfahren die Schritte des schnellen Erzeugens von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit eine einstellbaren visuellen Parameter aufweisen; des Einstellens des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung; des Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und des Anwendens der ausgewählten Einstellung auf das Bild voller Genaugikeit aufweist. DOLLAR A Dieses Ausführungsbeispiel stellt eine interaktive Volumenrenderfähigkeit (52) mit relativ preiswerter Hardware und einem schnellen Ansprechverhalten zur Verringerung der zur Analyse von Bildern benötigten Zeit bereit.
Description
Die vorliegende Erfindung bezieht sich allgemein auf eine
medizinische Abbildung und insbesondere auf Verfahren und
eine Vorrichtung zur schnellen Extraktion relevanter
Bilddaten aus einem dreidimensionalen volumetrischen
Datensatz.
Ein anspruchsvolles Problem in dem Bereich der
Volumenvisualisierung besteht in der Fähigkeit, in einem
Volumen von Bilddaten, z. B. medizinischen Bilddaten,
enthaltene relevante Informationen unter Verwendung eines
für einen Endbenutzer einfachen und intuitiven Verfahrens
in einer aktuellen Art und Weise zu extrahieren.
Ein Volumenrendern (VR) stellt eine bevorzugte Wahl zur
Visualisierung eines Volumens von medizinischen Bilddaten
dar. Der VR-Prozeß wird durch einen Satz von Kurven
gesteuert, d. h. Opazitäts- und Farb-/Intensitätskurven.
Diese Kurven bestimmen, welchen Beitrag und welche
Farbintensität ein bestimmtes Volumenelement (ein
Datenpunkt in dem Volumen) bei der sich ergebenden 3D-
Projektion oder dem sich ergebenden Rendering aufweisen
wird. Die Herausforderung besteht darin, eine geeignete
Kurve zur Hervorhebung von für eine Untersuchung wichtigen
Informationen (wie beispielsweise durch eine Bereitstellung
von z. B. kontrastverbesserten Gefäßen) unter Unterdrückung
von für die Untersuchung irrelevanten Informationen (z. B.
eines Abtasteinrichtungstischs und von Knochenstrukturen
bei einer Untersuchung von Gefäßen) zu bestimmen. Eine
Volumenbeschneidung oder Schnittebenen können ebenfalls zur
Entfernung von Teilen eines Volumens verwendet werden, die
nicht von Interesse sind und die andernfalls relevantes
Gewebe oder relevante Anatomie verschleiern oder verdecken
würden. Beispielsweise kann eine Volumenbeschneidung zum
Wegschneiden eines Bilds von einer Rippe verwendet werden,
um eine klare pfeilrechte Ansicht von einer Aorta zu
erhalten.
Ein Problem bei bekannten Systemen zum Rendern von Volumen
von Bilddaten besteht darin, daß sie entweder zu langsam
sind, um bei medizinischen oder chirurgischen Umgebungen
eine unmittelbare Rückmeldung bereitzustellen, oder
leistungsfähige und teuere Bildverarbeitungshardware
benötigen. Ferner versuchen einige bekannte
softwarebasierte Volumenrendereinrichtungen, ein
schnelleres interaktives Rendern zu erreichen, indem sie
große Teile eines Bildvolumens überspringen. In einem
gewissen Sinn wird der Renderprozeß bei einer bestimmten
Volumenrenderopazitätskurve auf spezielle
Volumenelementwerte abgestimmt. Teile eines Volumens, die
transparent wären (d. h., die Bereichsvolumenelementwerte,
denen eine Opazität von Null zugewiesen wurde), werden
nicht abgetastet. Dieses Schema ermöglicht es einem
Benutzer nicht, eine Opazitätskurve einzustellen, während
dem Benutzer interaktiv Ergebnisse der Einstellung gezeigt
werden.
Es ist somit wünschenswert, ein interaktives Volumenrendern
bereitzustellen, das auf relativ preiswerter Hardware
arbeiten kann. Zumindest für einige medizinische oder
chirurgische Anwendungen ist es ferner wünschenswert,
interaktive Steuereinrichtungen bereitzustellen, die ein
schnelles Ansprechverhalten aufweisen, damit die zur
Analyse von Bildern benötigte Zeit verringert wird. Es ist
außerdem wünschenswert, daß das Ansprechverhalten so
schnell ist, daß eine Bedienungsperson von
Abbildungsausstattung wichtige Informationen in dem Volumen
interaktiv hervorheben kann, während eine unverzügliche
visuelle Rückmeldung im wesentlichen erhalten wird, um
seine oder ihre Auswahl zu führen. Vorzugsweise sollte eine
derartige interaktive "Justierung" oder Einstellung auf
anfängliche, protokollierte Einstellungen zur Extraktion
relevanter Daten nicht mehr als etwa eine Minute pro
Untersuchung benötigen. Es ist wünschenswert, erheblich
weniger Zeit für Einstellungen und "Justierungen"
dreidimensionaler Parameter zu verwenden, so daß ein
endgültiges, völlig genaues Rendern viel eher begonnen
werden kann, als es unter Verwendung derzeitiger Systeme
getan wird. Zur weiteren Steigerung der klinischen
Produktivität ist es ferner wünschenswert, eine wesentliche
Kompliziertheit bei Benutzerschnittstellen zu beseitigen
und einen intuitiven Ansatz für Systeme zur schnellen
Extraktion relevanter Daten aus einem Volumen
bereitzustellen.
Bei einem Ausführungsbeispiel der Erfindung handelt es sich
daher um ein Verfahren zur schnellen Extraktion und
Visualisierung relevanter Daten aus einem Volumen von
Bilddaten, wobei das Verfahren die Schritte des schnellen
Erzeugens von aus einem Bildvolumen abgeleiteten Bildern
verringerter Genauigkeit, wobei die Bilder verringerter
Genauigkeit einen einstellbaren visuellen Parameter
aufweisen; des Einstellens des visuellen Parameters der
Bilder verringerter Genauigkeit während der schnellen
Erzeugung zur Auswahl einer gewünschten Einstellung; des
Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds
voller Genauigkeit; und des Anwendens der ausgewählten
Einstellung auf das Bild voller Genauigkeit aufweist.
Dieses Ausführungsbeispiel stellt eine interaktive
Volumenrenderfähigkeit mit relativ preiswerter Hardware und
einem schnellen Ansprechverhalten zur Verringerung der zur
Analyse von Bildern benötigten Zeit bereit.
Fig. 1 zeigt eine veranschaulichende Ansicht eines CT-
Abbildungssystems.
Fig. 2 zeigt ein schematisches Blockschaltbild des in Fig.
1 gezeigten Systems.
Fig. 3 zeigt ein Blockschaltbild einer Bedienungsperson-
Bedieneinheit gemäß einer Ausgestaltung der vorliegenden
Erfindung.
Fig. 4 veranschaulicht eine Drehung eines Volumenmodells.
Fig. 5 zeigt ein Blockschaltbild eines
Visualisierungssubsystems gemäß einer Ausgestaltung der
vorliegenden Erfindung.
Fig. 6 veranschaulicht eine Wiedergabe einer inkrementellen
Aktualisierung eines erfaßten Volumens von Daten.
Fig. 7 veranschaulicht Wiedergabebetrachtungsoptionen.
Fig. 8 veranschaulicht ein Rendern von dynamischen Daten.
Fig. 9 veranschaulicht eine inkrementelle Aktualisierung
von Daten.
Fig. 10 veranschaulicht ein Gleitfenster des dynamischen
Datenrenderns.
Fig. 11 veranschaulicht eine hierarchische Datenstruktur.
Fig. 12 veranschaulicht ein gemischtes Datenrendern.
Fig. 13 veranschaulicht zwei Datenverarbeitungspfade
einschließlich eines interaktiven Pfads verringerter
Genauigkeit zum Rendern von Daten.
Fig. 14 veranschaulicht eine Gruppe von
Schiebersteuereinrichtungen, die bei einem
Ausführungsbeispiel der Erfindung zur Steuerung eines
einstellbaren Bildparameters während eines schnellen
Renderns zur Auswahl einer gewünschten Einstellung
verwendet wird und die ihre Ergebnisse in einem 3D-
Darstellungsfeld anzeigt.
Fig. 15 und 16 veranschaulichen eine horizontale
Verschiebung einer VR-Kurve.
Fig. 17 und 18 veranschaulichen eine Änderung der Neigung
einer Anstiegsrampe einer VR-Kurve.
Fig. 19 veranschaulicht ein durch Orte von
Beschneidungsebenen in einem gesamten Bildvolumen
definiertes Volumen von Interesse.
Unter Bezugnahme auf Fig. 1 und 2 ist stellvertretend für
eine CT-Abtasteinrichtung der "dritten Generation" ein
nachstehend als CT-Abbildungssystem bezeichnetes
Computertomographieabbildungssystem 10 einschließlich eines
Portals 12 gezeigt. Das Portal 12 weist eine Röntgenquelle
14 auf, die einen Strahl von Röntgenstrahlen 16 zu einer
regelmäßigen Anordnung von Detektoren 18 auf der
gegenüberliegenden Seite des Portals 12 projiziert. Die
regelmäßige Anordnung von Detektoren 18 ist durch
Detektorelemente 20 gebildet, die zusammen die durch einen
medizinischen Patienten 22 gehenden projizierten
Röntgenstrahlen erfassen. Jedes Detektorelement 20 erzeugt
ein elektrisches Signal, das die Intensität eines
auftreffenden Röntgenstrahls darstellt und somit die
Abschwächung des Strahls, wenn er durch den Patienten 22
geht. Während einer Abtastung zur Erfassung von
Röntgenprojektionsdaten drehen sich das Portal 12 und die
daran angebrachten Komponenten um einen Drehmittelpunkt 24.
Die Drehung des Portals 12 und der Betrieb der
Röntgenquelle 14 werden durch eine Steuervorrichtung 26 des
CT-Systems 10 gesteuert. Die Steuervorrichtung 26 umfaßt
eine Röntgensteuereinrichtung 28, die Leistungs- und
Zeitablaufsteuersignale für die Röntgenquelle 14
bereitstellt, und eine Portalmotorsteuereinrichtung 30, die
die Drehgeschwindigkeit und -position des Portals 12
steuert. Ein Datenerfassungssystem (DAS) 32 bei der
Steuervorrichtung 26 tastet Analogdaten von
Detektorelementen 20 ab und wandelt die Daten in
Digitalsignale für eine nachfolgende Verarbeitung. Eine
Bildrekonstruktionseinrichtung 34 empfängt abgetastete und
digitalisierte Röntgendaten von dem DAS 32 und führt eine
Hochgeschwindigkeitsbildrekonstruktion aus. Das
rekonstruierte Bild wird einem Computer 36 als Eingabe
zugeführt, der das Bild in einer Massenspeichervorrichtung
38 speichert.
Der Computer 36 empfängt auch Befehle und Abtastparameter
von einer Bedienungsperson über eine Bedieneinheit 40, die
eine Tastatur aufweist. Eine zugeordnete
Kathodenstrahlröhrenanzeige 42 ermöglicht es der
Bedienungsperson, das rekonstruierte Bild und andere Daten
von dem Computer 36 zu beobachten. Die von der
Bedienungsperson zugeführten Befehle und Parameter werden
von dem Computer 36 zur Bereitstellung von Steuersignalen
und Informationen für das DAS 32, die
Röntgensteuereinrichtung 28 und die
Portalmotorsteuereinrichtung 30 verwendet. Darüber hinaus
betätigt der Computer 36 eine Tischmotorsteuereinrichtung
44, die einen motorisierten Tisch 46 zur Positionierung des
Patienten 22 in dem Portal 12 steuert. Insbesondere bewegt
der Tisch 46 Teile des Patienten 22 durch die Portalöffnung
48.
Fig. 3 zeigt ein Blockschaltbild einer Bedienungsperson-
Bedieneinheit 40. Gemäß einem Ausführungsbeispiel ist der
Computer 36 (Fig. 1) in die Bedieneinheit 40 integriert,
und die Bedieneinheit 40 umfaßt ein
Untersuchungsvorschriftssubsystem 50, das die Art und Weise
bestimmt, auf die das Abbildungssystem Daten erfaßt, ein
Visualisierungssubsystem 52, das für das Darstellungslayout
und die Anzeige der erfaßten Bilder und verarbeiteten Daten
zuständig ist, ein Archivierungssubsystem 54 zur
permanenten Speicherung und zukünftigen Wiedergewinnung von
Abbildungsdaten, ein Filmsubsystem 56, das Daten auf Film
überträgt, und ein Vernetzungssubsystem 58, das Daten über
ein Netz zu oder von anderen Abbildungssystemen überträgt.
Optionale entfernte Betrachtungsstationen können zur
Ermöglichung des Fernbetrachtens von Bildern mit der
Bedieneinheit 40 gekoppelt sein.
Das Untersuchungsvorschriftssubsystem 50 ist dafür
zuständig, zu bestimmen, wie die
Patientenuntersuchungsdaten erfaßt werden. Es sind
zahlreiche Parameter einschließlich einer Sequenz von
Schnittorten, einer Schnittdicke, eines Gesichtsfelds,
eines Abtastverfahrens und eines Rekonstruktionsalgorithmus
zur Bestimmung einer Erfassung erforderlich.
Volumenabbildungs- und Filmdarstellungsparameter können
ebenfalls in der Untersuchungsabtastvorschrift enthalten
sein. Diese Parameter können explizit durch den Technologen
eingegeben werden oder, was eher üblich ist, die Parameter
werden durch eine Auswahl eines speziellen Abtastprotokolls
definiert, wie es in dem Bereich der Technik allgemein
bekannt ist. Das Subsystem 50 erzeugt eine
Abtastvorschrift, und die Vorschrift wird zu dem DAS 32
(Fig. 2) übertragen.
Das DAS 32 sammelt die Erfassungsdaten gemäß der Vorschrift
und stellt die erfaßten Daten für die
Bildrekonstruktionseinrichtung 34 bereit, um eine Reihe von
Bildern aus den erfaßten Daten zu erzeugen, die zur
Erzeugung eines volumetrischen Modells verwendet werden
können. Ein volumetrisches Modell umfaßt typischerweise
eine dreidimensionale (oder höher) geradlinige regelmäßige
Anordnung von Werten, häufig mit einem einzelnen Skalarwert
pro Abtastwert. Fig. 4 veranschaulicht ein geradliniges 3D-
Modell, das aus einem Stapel von zweidimensionalen Bildern
besteht. Während der Erfassung werden einzelne Schnitte
erfaßt und entlang einer Dimension des Modells gestapelt.
Nachdem alle Schnitte erfaßt und rekonstruiert sind, wird
ein Nx × Ny × Nz Datenabtastwerte enthaltendes
volumetrisches Modell erzeugt.
Wieder auf Fig. 3 Bezug nehmend steuert das
Visualisierungssubsystem 52 die Darstellung von allen
relevanten Abbildungsdaten für die Bedienungsperson. Die
Daten umfassen z. B. 2D-Bilder, 3D-Projektionen,
Patientendaten, einen Vermerk und Messungen. Das Subsystem
52 realisiert mehrere Visualisierungsmerkmale wie
beispielsweise eine Routinenanzeige, einen Querverweis,
eine Autoansichtsanzeige, eine Volumenautoansichtsanzeige
und andere Formen der Anzeige unter Verwendung eines oder
mehrerer Fenster oder Darstellungsfelder 60, wobei jedes
Fenster 60 seinen eigenen Satz von
Visualisierungsparametern umfassen kann. Wie es nachstehend
ausführlicher beschrieben ist, umfaßt das
Visualisierungssubsystem 52 mehrere Komponenten zur
Filterung, zur Klassifikation, zum Rendern, zum Vermerken
und zum Vornehmen von Messungen.
Das Archivierungssubsystem 54 speichert (unter Verwendung
verschiedener Trägerformate) alle erfaßten und berechneten
Abbildungsdaten zur zukünftigen Wiedergewinnung permanent.
Diese Daten umfassen Protokolle, 2D-Bilder, Messungen und
3D-Renderings wie Bildschirmmomentaufnahmen. 3D-Protokolle,
Filmclips und Filmschleifen können ebenfalls durch das
Subsystem 54 gespeichert werden.
Das Filmsubsystem 56 erzeugt eine Hartkopie der
Abbildungsdaten, indem es die Daten auf Film verarbeitet.
Dies kann 2D-Bilder, Text- und Grafikvermerke sowie 3D-
Renderings von erfaßten Bilddaten umfassen. Format- und
Darstellungsparameter für die 3D-Abbildung (z. B. Position,
Orientierung und Transparenzzuweisungen) können in der
Untersuchungsabtastvorschrift enthalten sein.
Das Vernetzungssubsystem 58 ähnelt in seiner Funktionalität
dem Archivierungssubsystem 54 außer, daß das
Vernetzungssubsystem 58 Abbildungsdaten über eine vernetzte
Verbindung zu oder von einem weiteren Abbildungssystem
überträgt. Das Vernetzungssubsystem 58 kann auch HIS/RIS-
Informationen akzeptieren und kann Zustandsinformationen
für andere Subsysteme bereitstellen. Beispiele für
Abbildungsdaten umfassen 3D-Parameter, 3D-Projektionen,
Filmschleifen sowie Filmclips und können über das
Vernetzungssubsystem 58 zu einer vernetzten Workstation
übertragen werden.
Das Vernetzungssubsystem 58 kann auch eine Netzverbindung
zu einer Zusatzverarbeitungsanlage aufbauen, die zur
Ausführung einer Ansichts-, Bild- und 3D-Verarbeitung in
der Lage ist. Die Zusatzverarbeitungsanlage kann z. B.
ausschließlich zugeordnete Anlagen umfassen, die schnell
die empfangenen Daten verarbeiten und Bilddaten sowie
Informationen zurückgeben. Beispielsweise können
Rekonstruktionscodes auf die Ansichtsdaten angewendet
werden, und es wird ein rekonstruierter Datensatz
zurückgegeben.
Eine optionales entferntes Betrachtungsstationssubsystem
kann ebenfalls mit der Bedieneinheit 40 gekoppelt sein. Ein
derartiges Subsystem fügt die Fähigkeit zur Fernbetrachtung
von Echtzeitanzeigeaktualisierungen von 3D-Bildern bei der
Erzeugung der Bilder während der Erfassung hinzu.
Fig. 5 zeigt ein Blockschaltbild des
Visualisierungssubsystems 52. Eine Filterungskomponente 80
des Subsystems 52 wendet Bildverarbeitungsfilter auf die
von dem DAS bereitgestellten Daten an. Eine derartige
Filterung kann sowohl zweidimensionale als auch
dreidimensionale Verarbeitungsschritte umfassen und ist zur
Bildverbesserung, zur Bildwiederherstellung oder
Verringerung von Bildartefakten, zur Bildkomprimierung und
-dekomprimierung und zur für eine weiterentwickelte
Visualisierung erforderlichen Vorverarbeitung verwendbar,
wie es in dem Bereich der Technik allgemein bekannt ist. Im
wesentlichen kann eine derartige Filterung während der
Bilderfassung inkrementell auftreten. Eine derartige
Filterung kann ebenfalls nach der Erfassung eines
vollständig erfaßten Datensatzes ausgeführt werden. Wenn
sie nicht erforderlich ist, kann die Filterungskomponente
80 z. B. zur Steigerung der Verarbeitungsgeschwindigkeit
umgangen werden.
Eine Segmentierungskomponente 82 klassifiziert die
gefilterten Daten in getrennte Kategorien. Die Komponente
82 kann inkrementell arbeiten, während die Daten erfaßt
werden, oder sie kann arbeiten, nachdem alle Daten erfaßt
sind. Die Segmentierung kann sowohl zweidimensionale als
auch dreidimensionale Verarbeitungsschritte zur
Bereitstellung von Informationen darüber, wie die
relevanten Informationen aus den erfaßten Abbildungsdaten
zu extrahieren sind, umfassen. Diese Informationen können
mehrere Formen einschließlich Nachschlagetabellen über
Bildeigenschaften und getrennte Volumina, die binäre
Belegungs- oder Materialprozentsatzinformationen enthalten,
aufweisen.
Eine Messungskomponente 84 arbeitet entweder in einer
Echtzeitbetriebsart oder in einer Nacherfassungsbetriebsart
an 2D-Bildern und 3D-Volumina. Die Messungskomponente 84
kann Berechnungen bei den erfaßten Bilddaten, den
gefilterten Daten und/oder den segmentierten Daten
ausführen. Die Messungen umfassen Abstand,
Oberflächenbereich, Volumen, Bereiche von Interesse
(Bildelement- oder Volumenelementmittelwerte und
-standardabweichungen) und Verkalkungsauswertung, sind
jedoch nicht darauf beschränkt. Wie bei anderen
Visualisierungskomponenten können diese Berechnungen
während der Erfassung inkrementell oder als ein Nachprozeß
auftreten.
Eine Renderkomponente 86 erhält eine Ausgabe direkt von der
Bildrekonstruktionseinrichtung 34 (Fig. 2), von der
Filterungskomponente 80 oder von dem
Segmentierungssubsystem 82 und berechnet ein neues Bild,
das anzuzeigen ist. Die Renderkomponente 86 kann mehrere
gerenderte Bilder der erfaßten Daten entweder in einer
Echtzeitbetriebsart oder in einer Nacherfassungsbetriebsart
erzeugen. Beide Betriebsarten unterstützen ein Betrachten
von Daten entweder als einen 2D-Querschnitt oder als eine
höherdimensionale Projektion des erfaßten Modells.
Eine Vermerkkomponente 88 vermerkt dem gerenderten Bild
überlagerte Patienten- und Abtastinformationen. Für
Merkmale wie beispielsweise einen Querverweis kann auch ein
grafischer Vermerk zusätzlich zu Text bereitgestellt
werden. Das Vermerken kann ebenso auf 3D-Renderings
angewendet werden.
Die das Subsystem 52 steuernden Parameter können vor der
Erfassung von dem Benutzer eingegeben werden oder in dem
Abtastprotokoll enthalten sein. Die Parameter können ferner
während der Erfassung lokal einstellbar sein.
Das Visualisierungssubsystem 52 unterstützt die
Echtzeitanzeige von Querschnittsdaten. Auf dieses
Visualisierungsmerkmal wird im allgemeinen als
"Autoansicht" Bezug genommen. "Volumenautoansicht" oder
"VAV", wie es dabei verwendet wird, bezieht sich auf eine
inkrementell aktualisierte 3D-Ansicht der Daten bei der
Erfassung der Daten. Die Volumenautoansicht ist mit dem
Abbildungs-"Strom" von der Bildrekonstruktionseinrichtung
verbunden und wird bei der Bedieneinheit 40 ausgeführt.
Während der Datenerfassung stellt die Volumenautoansicht
eine inkrementell aktualisierte Echtzeit-3D-Ansicht der
Daten bereit, während die Daten über die Zeit erfaßt
werden. Auf dieses Renderverfahren wird dabei als
dynamisches Datenrendern (DDR) Bezug genommen. Nachdem die
Daten vollständig erfaßt sind, wird daraufhin ein
Renderverfahren für statische Daten verwendet. Auf dieses
Anzeigeverfahren wird dabei als statisches Datenrendern
(SDR) Bezug genommen. Darüber hinaus wird die Fähigkeit zum
Rendern sowohl statischer Daten als auch dynamischer Daten
in einer integrierten Ansicht bereitgestellt. Auf diese
Renderart wird als gemischtes Datenrendern (MDR) Bezug
genommen. DDR, SDR und MDR sind nachstehend ausführlicher
beschrieben.
Vor der Datenerfassung wird von dem Technologen eine
Untersuchung vorgeschrieben. Die Volumenautoansicht ist mit
dem Untersuchungsvorschriftssubsystem integriert, wodurch
neue Parameter bereitgestellt werden, die bestimmen, wie
das dynamische Volumen oder die dynamischen Volumina
während der Erfassung visualisiert werden sollen. Genauer
werden Parameter wie beispielsweise die Position und die
Orientierung des 3D-Modells und der Ansicht, Farb- und
Transparenzzuweisungen, Filterungs- und
Segmentierungseinstellungen, das Visualisierungsverfahren
und der Visualisierungsalgorithmus in dem Protokoll
bestimmt. Die Visualisierungsparameter sind ebenfalls in
spezifischen VIS-Abtastprotokollen enthalten. Das Filmen
kann ebensogut wie die Erzeugung und Archivierung von
Filmclips auch vor der Erfassung vorgeschrieben werden.
Bei einer Erfassung neuer Bilder filtert das
Visualisierungssubsystem 52 die Bilder (falls
erforderlich), während sie zu dem 3D-Modell hinzugefügt
werden. Eine zweidimensionale und eine dreidimensionale
Segmentierung zur Extraktion spezifischer Informationen aus
den Bildern sind mit der Einschränkung, daß die gesamte
Verarbeitung und das gesamte Rendern selbst bei sehr
schnellen, eingreifenden ("Durchleucht-" bzw. "Fluoro-")
Abtastbetriebsarten mit den Bilderzeugungsraten des
Erfassungssubsystems "Schritt halten" muß, ebenfalls
möglich. Ferner kann die Volumenautoansicht zum Erhalten
von Echtzeitmessungen (z. B. Volumen von Interesse und
Verkalkungsauswertung) bei dem dynamischen Volumen
verwendet werden.
Die Volumenautoansicht kann in einer "Wackelbetriebsart"
("rock mode") ausgeführt werden. Genauer kann ein kleiner
Drehungswinkel auf das 3D-Modell angewendet werden,
typischerweise um die vertikale Achse und normal zu dem
Betrachtungsvektor. Der Drehungswinkel variiert zyklisch,
während das 3D-Modell von Bild zu Bild gerendert wird. Eine
derartige automatische Drehung ist nicht nur bei der
Bereitstellung einer weiteren Bildtiefe bei dem
Visualisierungsprozeß nützlich, sondern ist für
eingreifende Prozeduren besonders wertvoll, bei denen der
Technologe/Radiologe/Eingreifende die Hände nicht zur
Interaktion mit dem 3D-Modell während der Erfassung frei
haben kann. Die Wackelbetriebsartparameter können in der
Vorschrift enthalten sein und können auch durch den
Benutzer eingestellt werden.
Die Volumenautoansicht umfaßt ebenfalls eine Vermischung
von Geometriedaten mit Volumendaten. Beispielsweise kann
ein geometrisches Modell einer Nadel in das Volumen
eingebettet werden, und die Volumenautoansicht kann zur
Verfolgung der Position der bei einer Biopsieprozedur
verwendeten tatsächlichen Nadel verwendet werden.
Eingebettete Geometrie kann ferner als dreidimensionale
Vermerke in dem Volumen verwendet werden.
Es können auch mehrere Abbildungsfenster oder
Darstellungsfenster 60 (Fig. 3) für unabhängige
Visualisierungsparameter verwendet werden. Beispielsweise
kann während einer Erfassung die Knochenstruktur aus einer
pfeilrechten Ansicht in einem Fenster angezeigt werden,
während das Gefäßsystem aus einer kranzartigen Ansicht in
einem zweiten Fenster angezeigt werden kann. Es werden
mehrere Darstellungsfenster jeweils mit einem unabhängigen
Satz von Visualisierungsparametern bereitgestellt.
Ein wesentlicher klinischer Vorteil der Volumenautoansicht
kann in der Behandlung von Traumafällen bestehen. In
derartigen Notfallsituationen ist eine Minimierung der
gesamten Untersuchungszeit entscheidend. Bedingt durch die
zeitlichen Einschränkungen kann der Radiologe auf die
herkömmlichen 3D-Nacherfassungsanalysen verzichten und sich
einzig und allein auf die von den Querschnittsdaten
vermittelten Informationen verlassen. Mit der
Volumenautoansicht werden während der Erfassung ohne einen
zeitlichen Nachteil zusätzliche 3D-Informationen für den
Radiologen dargestellt, was bei der Ausbildung der
richtigen Diagnose wesentlich sein kann.
Nach der Erfassung kann eine Überprüfungsanzeigebetriebsart
verwendet werden, um mit dem Volumen von Daten zu
interagieren und es weiter zu visualisieren, z. B. zur
Extraktion zusätzlicher Informationen aus dem Volumen.
Unter Verwendung eines Wiedergabemerkmals können Renderings
des visualisierten Volumens zu einem nachstehend als VCR
bezeichneten Videorecorder ausgegeben werden. Es kann auch
eine Wiederholungsschleife verwendet werden, wie sie in
Fig. 6 gezeigt ist, die das Volumen ebenso wiedergibt, wie
es erfaßt wurde. Es können ferner Multimediafilmclips
erzeugt und für eine spätere Wiedergabe archiviert werden.
Auf Fig. 7 Bezug nehmend kann das Volumen zur
Visualisierung einer Scheibe oder eines Untervolumens (z. B.
Scheibenfilm/-überlagerung) der Daten zu einer Zeit
periodisch wiederholt werden. Darüber hinaus können 3D-
Renderings in der Bilddatenbank installiert, archiviert,
gefilmt oder vernetzt werden.
Das Rendersubsystem 86 arbeitet an zumindest einem
volumetrischen Modell. Ein virtuelles Kameramodell ist
definiert, um die Parameter zur Projektion eines
volumetrischen Modells auf eine Bildebene zu bestimmen, die
in Px × Py Bildelemente zerlegt ist. Das Kameramodell
verwendet eine Projektionsmatrix M, die die nachstehend als
Mapping bezeichnete Abbildung von den
Kameraansichtskoordinaten auf die
Modelldatenabtastwertkoordinaten definiert. Diese Matrix
ist für das Seitenverhältnis der Abtastwerte in dem Volumen
und alle Transformationen (z. B. Skalierung, Verschiebung
und Drehung) bei dem volumetrischen Objekt und der Kamera
verantwortlich. Die Matrix M unterstützt übliche
Projektionsverfahren einschließlich paralleler und
perspektivischer Ansichtstransformationen.
Die Projektion des volumetrischen Modells auf die Bildebene
wird z. B. unter Verwendung eines nachstehend als Ray-
Casting bezeichneten Strahlwurfs oder einer nachstehend als
Textur-Mapping bezeichneten Texturabbildung erreicht.
Selbstverständlich können andere Bildordnungsverfahren
verwendet werden. Das als Ray-Casting (RC) bekannte
Bildordnungsverfahren wirft einen Strahl von jedem
Bildelement in der Bildebene in das Volumen. Das Volumen
wird daraufhin entlang des Strahls abgetastet, und es
werden zur Erzeugung eines endgültigen Bildelements für das
Bild Datenwerte kombiniert. Abtastwerte können optional auf
verschiedene Größen wie beispielsweise Farbe oder Opazität
abgebildet bzw. gemappt werden, um übliche
Volumenrenderverfahren zu unterstützen. Übliche auf
Abtastwerte entlang dem Strahl angewendete Operationen sind
maximale Intensität (MIP), Durchschnitt, Kombination
(compositing) und Kombination mit Schattierung.
Alternativ kann ein Hardware-Textur-Mapping-Verfahren
(Hardware-TM-Verfahren) verwendet werden. Bei dem Hardware-
TM handelt es sich um ein Objektordnungsverfahren, bei dem
Datenabtastwerte unter Verwendung von Hardware zum textur
gemappten geometrischen Rendern in der richtigen
Reihenfolge durchgegangen und gemischt werden. Die
Abtastwerte (oder ihre RGBA-gemappten Werte) werden auf
Polygone gemappt, und die Polygone werden auf die Bildebene
projiziert. Abhängig von der TM-Hardware können die
projizierten Ebenen entweder an Achsen ausgerichtet (2D-TM-
Hardware) oder schräg und parallel zu der
Kameraansichtsebene (3D-TM-Hardware) sein. Ähnlich wie bei
dem RC können die Datenabtastwerte in andere Eigenschaften
wie beispielsweise Farbe und Opazität gewandelt werden, um
übliche Volumenvisualisierungsrenderverfahren zu
unterstützen. Alle bei dem RC verfügbaren Operationen an
Abtastwerten sind unter Verwendung eines TM-Verfahrens
möglich. Sowohl RC-Verfahren als auch TM-Verfahren, die
allgemein bekannt sind, können zur Unterstützung der
nachstehend beschriebenen drei Renderbetriebsarten
verwendet werden.
Wenn das zu rendernde Volumenmodell sich über die Zeit
ändert, muß der Renderprozeß diese Änderungen bei dem
nächsten gerenderten Bild berücksichtigen. Fig. 8
veranschaulicht ein Volumenmodell, bei dem ein Schnitt
durch neue Daten ersetzt worden ist. Bei dieser Art von
Änderung kann das Rendern auf zwei Weisen ausgeführt
werden. Eine einfache Strategie roher Gewalt zum Rendern
besteht darin, zur Erzeugung eines aktuellen Bilds alle
soweit erfaßten Daten vollständig zu rendern. Es können
jedoch wesentliche Ersparnisse erhalten werden, falls die
Kamera und das volumetrische Modell stationär bleiben. In
diesem Fall ist es möglich, zur Berücksichtigung einer
Änderung bei den Volumendaten ein vorheriges Rendering
inkrementell zu aktualisieren.
Unter Verwendung des TM wird z. B. ein neues Rendering
erreicht, indem der Beitrag jedes neuen Schnitts zu dem
vorher berechneten Bild hinzugefügt wird. Fig. 9
veranschaulicht den Volumenzuwachs in der Größe zu dem
Betrachter hin, während neue Schnitte zu einem Ende des
Volumens hinzugefügt werden. Wenn ein neuer Schnitt
verfügbar ist und unter Verwendung des DDR-Verfahrens
werden alle textur-gemappten Polygone zwischen dem letzten
Schnitt und dem neuen Schnitt verwendet. Die die Farben und
Opazitäten des neuen Schnitts enthaltenden textur-gemappten
Polygone werden durch die inverse Projektionsmatrix M-1
transformiert, abtastgewandelt und mit dem derzeitigen Bild
in dem Bildzwischenspeicher gemischt. Der neu hinzugefügte
Schnitt kann mit Bezug auf den Betrachter entweder zu der
Vorderseite oder zu der Rückseite des Volumens hinzugefügt
werden. Eine Hinzufügung des Schnitts vor den bereits
gerenderten Schnitten ist wünschenswert, da sie es dem
Benutzer ermöglicht, die neuesten erfaßten Informationen zu
betrachten, und bei der Kombination keinen zusätzlichen
Speicher in dem Bildzwischenspeicher zur Speicherung
partieller Opazitätsergebnisse erfordert. Eine Hinzufügung
von Schnitten hinter den vorher gerenderten Schnitten
erfordert die Verwendung einer Kombination von vorne nach
hinten und erfordert daher zusätzlichen Speicher pro
Bildelement.
Falls eine Schattierung ausgeführt wird, müssen die
berechneten Normalen des vorher gerenderten Schnitts
modifiziert werden. Der Beitrag des vorherigen Schnitts ist
jedoch bereits in das derzeitige Bild gemischt. Das Rendern
kann um einen Schnitt oder mehr Schnitte verzögert werden,
so daß alle Informationen für den Schnitt verfügbar sind,
wenn sein Beitrag zu dem gerenderten Bild ausgebildet wird.
Die rechnerische Komplexität des Renderns eines
Volumenmodells mit dem Ansatz roher Gewalt ist O(N), wobei
es sich bei N um die Anzahl von Ebenen in dem Volumen
handelt. Ein inkrementeller Ansatz für das Rendern
verringert die rechnerische Komplexität des Renderns auf
O(1), da für jeden zu dem Volumenmodell hinzugefügten
Schnitt lediglich 1 zusätzlicher Schnitt gerendert werden
muß.
Bei dem inkrementellen Rendern besteht die einzige zwischen
Rendervorgängen unterstützte Änderung in der Hinzufügung
von Daten an der Volumenmodellgrenze. Ferner muß die
Orientierung des Volumenmodells mit Bezug auf die
Kamerabildebene derart sein, daß der Absolutwert des
Winkels zwischen einer Schnittnormalen und der
Bildebenennormalen sich innerhalb von 90 Grad befindet.
D. h., die Kamera muß das Volumen vorwiegend durch die
axialen Schnitte betrachten.
Ein RC-Ansatz für das inkrementelle Rendern funktioniert
größtenteils auf die gleiche Weise wie der TM-Ansatz,
jedoch mit weniger Einschränkungen. Bevor Renderings des
Volumens ausgebildet werden und für jedes Bildelement in
dem gerenderten Bild werden Strahldefinitionen für jedes
Bildelement in dem Volumen gespeichert. Wenn ein neuer
Schnitt zu dem Volumenmodell hinzugefügt wird, werden die
Strahlen bestimmt, die unmittelbar beeinflußt werden, und
es wird für jeden der Beitrag des neuen Schnitts berechnet.
Mit diesem Ansatz ist keine Einschränkung für den
Betrachtungswinkel des Volumenmodells vorhanden. Ähnlich
wie bei dem TM handelt es sich bei der rechnerischen
Komplexität für die Hinzufügung eines neuen Schnitts zu dem
Volumen um eine Konstante.
Es ist häufig wünschenswert, die letzten N während der
Abtastung erfaßten Schnitte zu zeigen. Auf diese Anzeigeart
wird als Gleitfensterverfahren Bezug genommen. Fig. 10
veranschaulicht, daß während des Fortgangs der Abtastung
Schnitte zu dem Modell hinzugefügt und aus dem Modell
entfernt werden.
Ein Verfahren zum Rendern eines Gleitfenstermodells
rekonstruiert und rendert bei der Abtastung jedes neuen
Schnitts ein völlig neues Volumen. Ähnlich wie bei dem
inkrementellen Rendern kann ein Gleitfensterrenderverfahren
einen Vorteil aus vorherigen Renderergebnissen ziehen,
falls die Kameraansicht mit Bezug auf das Volumenmodell
fest ist.
Zum effizienten Rendern eines Volumenmodells, nachdem eine
Änderung an einem Schnitt ausgebildet wurde, kann eine
hierarchische Datenstruktur verwendet werden. Die
hierarchische Datenstruktur ist in der Form eines binären
Baums vorhanden, wobei es sich bei den Blattknoten um die
ursprünglichen Schnitte handelt und bei den inneren Knoten
um die bei einem Rendern von Paaren von Schnitten erzeugten
Bilder handelt. Fig. 11 veranschaulicht einen aus 8
ursprünglichen Schnitten erzeugten Baum. Ein Knoten F
enthält das bei einer Projektion von lediglich Schnitt 5
und 6 auf die Kameraansichtsebene erzeugte Bild
(typischerweise die Farbe (R, G, B) und Opazität (A) für
jedes Bildelement). Ein Knoten C enthält das bei einer
Projektion von Knoten F und G erzeugte Bild und stellt
daher auch die Projektion von Schnitten 5 bis 8 dar. Knoten
A-G speichern ein Bild der partiellen Ergebnisse des
Renderns des gesamten Volumenmodells. Diese projizierten
Bilder weisen die gleiche Größe wie die
Kameraansichtsebenengröße auf, die Px × Py Bildelemente
beträgt.
Wenn eine Änderung an einem Schnitt ausgebildet wird,
kombiniert ein derartiges Rendern alle Knoten neu, die
durch die Änderung beeinflußt werden können. Wie es in Fig.
11 gezeigt ist, hat sich der Schnitt 6 geändert, und daher
müssen die Bilder bei den Knoten F, C und A neu berechnet
werden. Dieses Verfahren verringert die rechnerische
Komplexität des Renderns einer einzelnen Schnittänderung
bei einem Volumen wirksam von O(N) auf O(log(N)), wobei es
sich bei N um die Anzahl von Schnitten in dem Volumenmodell
handelt.
Alternativ kann jedes Blatt des Baums eine Ebene von
Abtastwerten darstellen, die sich nicht notwendigerweise
auf einem ursprünglichen Schnitt befinden. Eine Form von
Interpolation wie beispielsweise eine trilineare
Interpolation kann zur Berechnung der Abtastwerte verwendet
werden. Falls ein einzelner ursprünglicher Schnitt eines
Volumenmodells modifiziert wird, wird er eine Wirkung auf
jede Abtastung aufweisen, die in dem Bereich von 1 Schnitt
um ihn stattfindet. In diesem Fall ändern sich mehrere
Blätter des Baums und es besteht eine Möglichkeit, daß zur
Berechnung eines neuen Bilds mehr Knoten verarbeitet werden
müssen.
Fig. 11 veranschaulicht einen Fall, in dem sich der
geänderte Schnitt innerhalb des vorher gerenderten Modells
befindet. Falls der Schnitt zu dem Modell hinzugefügt oder
aus dem Modell entfernt wird, muß sich die hierarchische
Datenstruktur zur Berücksichtigung der Hinzufügung ändern.
Falls ein Schnitt 9 zu dem Volumenmodell hinzugefügt wird,
wird ein neuer Knoten H auf der gleichen Ebene wie G in den
Baum eingefügt. Unterstützende Knoten werden ebenfalls
ausgebildet, und der sich ergebende Baum befindet sich
vorübergehend nicht im Gleichgewicht.
Das Gleitfensterrenderverfahren kann auch mit dem RC
realisiert werden. Jeder Strahlwurf bildet eine
hierarchische Datenstruktur aus, die partielle Ergebnisse
für Paare von Abtastwerten entlang dem Strahl speichert.
Falls entlang dem Strahl eine Änderung auftritt, kann das
partielle Ergebnis zur Ausbildung eines neuen Renderings
effizient neu kombiniert werden.
Das vorstehend beschriebene hierarchische Rendern ist auf
ein breites Spektrum von Abtastverfahren anwendbar. Das
Verfahren unterstützt ein effizientes Rendern jeder
Änderung in einem volumetrischen Modell. Wenn z. B. mit
einem Ultraschalltastkopf freihändig abgetastet wird, kann
jede durch das Modell schneidende Ebene erfaßt und
aktualisiert werden. Dieses hierarchische Renderverfahren
unterstützt das effiziente Rendern dieser willkürlichen
Aktualisierungen.
Während Daten erfaßt werden, werden alle zur
Nachverarbeitungsvisualisierung erforderlichen
Informationen inkrementell berechnet. Wenn das Abtastsystem
ein volles Volumen erfaßt hat, kann das Modell daraufhin
unter Verwendung von
Standardvolumenvisualisierungsverfahren wie beispielsweise
TM oder RC visualisiert werden. Die Bedienungsperson kann
die abgetasteten Daten bei einer dreidimensionalen Anzeige
unmittelbar überprüfen.
Ein Volumenmodell enthält häufig mehr als lediglich eine
Sammlung von Schnitten. Gradienteninformationen bei jedem
Ort werden typischerweise zusätzlich zu
Segmentierungsvolumina berechnet. Es ist vorteilhaft, diese
Informationen vorzuberechnen, da ihre Berechnung während
des Renderns sehr zeitraubend und rechnerisch aufwendig
ist. Der Aufbau dieser zusätzlichen Datenstrukturen kann
während der Abtastung inkrementell ausgeführt werden, falls
ausreichende Datenverarbeitungsbetriebsmittel verfügbar
sind.
Das gemischte Datenrendern (MDR) kombiniert sowohl ein
statisches, vorher erfaßtes Volumenmodell als auch
dynamische Daten miteinander. Fig. 12 veranschaulicht ein
Volumenmodell, bei dem alle Schnitte bis auf einen Schnitt
statisch sind. Der dynamische Schnitt ändert sich
kontinuierlich, während die Abtasteinrichtung neue
Informationen auf der Ebene erfaßt. Ein Rendern dieser Art
von gemischten Daten kann entweder mit einem Ansatz roher
Gewalt, d. h. einem Rendern des gesamten Volumens jedesmal,
oder mit Rendervarianten fester Ansicht erreicht werden.
Für die in Fig. 12 veranschaulichte Situation kann ein Bild
P aller vor dem dynamischen Schnitt projizierten Schnitte
sowie ein Bild Q aller nach dem dynamischen Schnitt
projizierten Schnitte gespeichert werden. Wenn ein neuer
dynamischer Schnitt R erfaßt wird, vereinfacht sich das
Rendern zu einer Kombination des Bilds P, daraufhin der
Projektion des dynamischen Schnitts und schließlich des
Bilds Q.
Das MDR ist möglicherweise bei einer CT-
Durchleuchtungseinstellung nützlich, z. B. wenn eine vorher
erfaßte Abtastung das Vorhandensein wichtiger Anatomie vor
und hinter dem Erfassungsbereich angeben kann. Diese
Fähigkeit kann z. B. visuelle Informationen über den 3D-Ort
und die Struktur nahegelegener Rippen für einen
eingreifenden Radiologen darstellen, während eine
Nadelbiopsie ausgeführt wird.
Das vorstehend beschriebene Volumenabbildungssystem baut
stufenweise dreidimensionale Modelle auf, analysiert und
aktualisiert sie, während Querschnittsdaten (nicht darauf
beschränkt, jedoch einschließlich axialer
Querschnittsdaten) erfaßt werden. Das System baut
dreidimensionale Renderings auf und zeigt sie an und führt
während des Abbildungssystemdatensammlungsprozesses
quantitative Berechnungen in Echtzeit aus, zeigt
interaktive dreidimensionale Renderings in einem
herkömmlichen Nachdatensammlungsprozeß an sowie schreibt
vor, archiviert und filmt und überträgt während der
Datensammlung und Nacherfassung Renderprozeduren,
Parameter, Renderings, Messungen und verarbeitete Daten.
Die vorstehend beschriebenen Renderverfahren sind auf jede
Art von Abtastbetriebsart einschließlich
Einzelschnittabtastbetriebsarten und volumetrischen
Abtastbetriebsarten anwendbar. Für die volumetrische
Abtastung umfaßt der erfaßte Abbildungsdatenstrom einfach
eine Sammlung von 3D-Bildern.
Zur Bereitstellung einer unmittelbareren Rückmeldung in
medizinischen oder chirurgischen Umgebungen stellt ein
Ausführungsbeispiel des Visualisierungssubsystems 52 ein
interaktives Volumenrendern mit schnellem Ansprechverhalten
unter Verwendung relativ preiswerter Hardware bereit.
Dieses Ausführungsbeispiel stellt eine Ansprechzeit bereit,
die schnell genug ist, um es der Bedienungsperson zu
ermöglichen, interaktive Einstellungen zur Hervorhebung
wichtiger Informationen in dem Volumen auszuführen, während
eine im wesentlichen unverzügliche visuelle Rückmeldung zur
Führung seiner oder ihrer Auswahl erhalten wird.
Bei einem Ausführungsbeispiel der Erfindung wird ein 3D-
Rendern bereitgestellt, das eine sehr interaktive
Renderleistungsfähigkeit auf einer anspruchslosen
Grafikworkstation (z. B. einer medizinischen
Abbildungsabtasteinrichtungsbedieneinheit oder
Analyse-/Überprüfungsworkstation) erreicht. Dieses
Ausführungsbeispiel verwendet eine intuitive
Volumenvisualisierungsanwendung, die einen durch ein
Untersuchungsprotokoll definierten Satz von VR-
Voreinstellungen in Verbindung mit einer nichtkomplexen VR-
Kurve und Volumenbeschneidungssteuereinrichtungen, die eine
Echtzeitrückmeldung bereitstellen, verwendet.
Interaktive Renderraten werden erreicht, indem ein
Verfahren oder mehr Verfahren von unterschiedlichen
Verfahren verwendet werden. Bei dem ersten Verfahren
handelt es sich um eine Volumendezimierung, die eine
gesteigerte Effizienz durch ein Rendern einer kleineren
Version eines Bilddatenvolumens während der Interaktion
erreicht. Beispielsweise wird 1/4 × 1/4 × 1/2 eines vollen
Volumens statt des vollen Volumens gerendert. Das zweite
Verfahren besteht darin, die Größe der verwendeten
Rendermatrix zu verringern. Beispielsweise wird eine
Rendermatrix von 256 × 256 Datenpunkten während des
interaktiven Renderns in einem sichtbaren Darstellungsfeld
auf ein Rendering von 512 × 512 vergrößert bzw. gezoomt
(z. B. unter Verwendung einer bilinearen Interpolation).
Wenn schließlich dreidimensionale Texturen gerendert
werden, wird die Grobheit der Abtastung und/oder die
Polygonschrittgröße erhöht. Beispielsweise wird eine
Abtastung von 1/2 verwendet, wodurch ein Abstand zwischen
Abtastebenen verdoppelt wird.
Bei diesem Ausführungsbeispiel umfaßt die
Visualisierungssubstation 52 eine Grafikworkstation. Ein
Beispiel für eine Grafikworkstation mit ausreichender
Leistung zur bequemen Erreichung der für die Erfindung
gewünschten sehr interaktiven Renderleistungsfähigkeit
stellt eine SGI® Octane® Workstation (von Silicon Graphics,
Inc., Mountain View, Kalifornien, USA erhältlich) mit einer
MIPS® R12000® CPU (MIPS Technologies, Inc., Mountain View,
Kalifornien, USA) mit 275 MHz, 1024 MB RAM, 32 KB
Anweisungshilfsspeicher, 32 KB Datenhilfsspeicher, 2 MB
Sekundärhilfsspeicher und SGI® Grafikhardware "SI mit
Texturoption" dar. Für einen typischen medizinischen
Bilddatensatz mit 200 Schnitten von 512 × 512 Bilddaten
weist dieses Ausführungsbeispiel eine typische interaktive
Renderzeit von 0,15 bis 0,2 Sekunden auf. Andere
Ausführungsbeispiele verwenden Workstations mit einer
größeren oder kleineren Leistungsfähigkeit. Für wesentlich
weniger leistungsfähige Workstations kann es jedoch
schwierig sein, einen gewünschten Grad von sehr
interaktiver Renderleistungsfähigkeit zu erreichen.
Mit Bezug auf Fig. 13 wird ein Volumen von Bilddaten 62,
das sowohl ein Volumen voller Größe von Volumenelementen 90
als auch ein Volumen voller Größe von Normalen 92 (für eine
VR-Schattierung) umfaßt, in einem Renderpfad voller
Genauigkeit 94 zur Erzeugung eines aus dem Volumen 62
abgeleiteten Bilds voller Genauigkeit verwendet. Eine (in
Fig. 13 nicht gezeigte) Renderkomponente 86 tastet das
Volumenelementvolumen 90 und das Normalenvolumen 92 unter
Verwendung eines dreidimensionalen Textur-Mappings zum
Mappen des Volumens 90 auf bestimmte Polygone vollständig
ab. Diese Mapping-Ergebnisse werden in einen eine Matrix
von Zwischen-3D-Ergebnissen enthaltenden 512 × 512
Zwischenspeicher 96 voller Größe kombiniert. Eine Software
98 basiert auf üblichen TM-Verfahren, aber die Verfahren
sind zur Unterstützung sowohl eines interaktiven Renderns
als auch eines Renderns voller Genauigkeit modifiziert,
indem sie Volumen unterschiedlicher Größe (voll und
dezimiert), 3D-Rendermatrizen unterschiedlicher Größe (z. B.
512 × 512 und 256 × 256) und eine variable
Polygonschrittgröße (z. B. 100% oder, wie bei einem
Ausführungsbeispiel verwendet, 50%) handhaben.
Ein Zwischenspeicher 96 wird von der Renderkomponente 86
zum dazwischenliegenden oder endgültigen Rendern in in
einem Zusatzspeicher 100 gespeicherte Bildelemente
verwendet. Die Zwischenrenderings werden mit einem
mehrfachen Zeichnen/Kopieren von Bildelementen oder
zweidimensionalen TM-Aufrufen pro vollständigem
dreidimensionalem Rendering auf einem 3D-Darstellungsfeld
102 gezeigt, bei dem es sich um einen mit einer Anzeige
gekoppelten 512 × 512 Zwischenspeicher handelt. Eine
Vermerkkomponente 88 wird verwendet, wenn es gewünscht ist,
Vermerke auf Renderings bereitzustellen. Dazwischenliegende
und/oder endgültige Renderings werden unter Verwendung von
Bildschirmsicherungen oder Film mit Vermerken (falls
bereitgestellt) gesichert 104.
Ein zweiter, interaktiver Pfad 106 ist für ein schnelles
Rendern verringerter Genauigkeit eines Bildvolumens
ebenfalls bereitgestellt. Der Pfad 106 erzeugt Bilder
schneller und mit geringerer Genauigkeit als der Renderpfad
94. Ein ein dezimiertes Volumen von Volumenelementen 108
und ein dezimiertes Volumen von Normalen 110 (für eine VR-
Schattierung) umfassendes dezimiertes Volumen von Bilddaten
64 wird von dem Visualisierungssubsystem 52 aus dem
Abbildungsvolumen 62 abgeleitet, indem das
Volumenelementvolumen 90 und das Normalenvolumen 92 des
Bildvolumens 62 dezimiert werden. Aus den Volumina 108 und
110 erzeugte dreidimensionale Texturen werden unter
Verwendung von Polygonen mit einem Abstand von 100%
Volumenelementgröße in eine in dem Zwischenspeicher 96
enthaltene Rendermatrix 112 von 1/4 Größe (256 × 256)
gemappt. (Bei anderen Ausführungsbeispielen wird eine
Rendermatrix 112 anderer Größe verwendet, die jedoch
kleiner als die Rendermatrix des Renderpfads voller
Genauigkeit 94 ist, und folglich wird lediglich ein Teil
112 verwendet, der kleiner als die Gesamtheit des
Zwischenspeichers 96 ist). Das in der Rendermatrix 112
gespeicherte Zwischenrendering stellt ein 3D-
Volumenrendering des dezimierten Bildvolumens 64 dar. Die
Rendermatrix wird in einen Kurzzeitzwischenspeicher 114
gleicher Größe zurückgelesen und wird unter Verwendung z. B.
einer Bildelementwiederholung oder einer bilinearen
Interpolation mit zweidimensionalem TM-Rendern (falls eine
bilineare Interpolation verwendet wird) zur Anzeige in dem
3D-Darstellungsfeld 102 auf 512 × 512 vergrößert. Die
Vermerkkomponente 88 wird verwendet, wenn es gewünscht ist,
Vermerke auf diesen Renderings bereitzustellen. Bei einem
Ausführungsbeispiel wird das dezimierte Bildvolumen zur
schnellen Erzeugung eines Bilds verringerter Genauigkeit
mit beabstandeten Polygonen mit einem ersten Abstand
abgetastet, und das Bildvolumen voller Größe (d. h., das
nicht dezimierte Bildvolumen) wird mit beabstandeten
Polygonen mit einem zweiten Abstand abgetastet. Der erste
Abstand stellt eine breitere Beabstandung als der zweite
Abstand dar.
Mit Bezug auf Fig. 14 sind eine einfache VR-
Kurvensteuereinrichtung 116 und
Beschneidungssteuereinrichtungen 118, 120 und 122 mit einer
Echtzeitrückmeldung bereitgestellt, die zu einer einfachen,
intuitiven Benutzerschnittstelle führen. Bei den
Steuereinrichtungen 116, 118, 120 und 122 handelt es sich
bei einem Ausführungsbeispiel um virtuelle
Steuereinrichtungen, die auf einem (nicht gezeigten)
Bildschirm des Visualisierungssubsystems 52 bereitgestellt
sind und mit einer Maus oder Tastatur bedient werden.
Histogramme, Schwellen und Schnittlinien werden vermieden,
wodurch die Komplexität von Querverweisbildern beseitigt
wird. Folglich werden erforderliche Einstellungen der
anfänglichen Visualisierungsparametervoreinstellungen
erheblich schneller ausgeführt, um relevante Informationen
aus einem Volumen zu extrahieren. Einstellungen zumindest
eines durch die Verwendung des interaktiven Renderpfads
verringerter Genauigkeit 106 bestimmten Visuellen
Parameters wählen eine auf ein Rendern voller Genauigkeit
anzuwendende Einstellung aus. Bei einem Ausführungsbeispiel
rendert der Renderpfad voller Genauigkeit ein Bild voller
Genauigkeit des Bildvolumens 90, und die ausgewählte
Einstellung wird auf das Bild voller Genauigkeit angewendet
und in dem 3D-Darstellungsfeld 102 angezeigt. Somit werden
eine gesteigerte Produktivität und ein verbesserter
Arbeitsablauf in der klinischen Umgebung bereitgestellt.
Eine einzelne "Einknopf"-Steuereinrichtung 116 für VR-
Kurveneinstellungen wird bei einem Ausführungsbeispiel der
Erfindung verwendet. Einstellungen der Steuereinrichtung
führen z. B. zu horizontalen oder vertikalen Verschiebungen
von Kurvenpunkten, wie es in Fig. 15 und 16 gezeigt ist,
oder zu einer Änderung der Neigung zwischen benachbarten
Bildelementen, wie es in Fig. 17 und 18 gezeigt ist. Die
von der Steuereinrichtung 116 ausgeführte spezifische
Operation und Einstellung werden bei jedem
Ausführungsbeispiel durch eine VR-Voreinstellung definiert,
jedoch müssen keine der Einzelheiten für den Benutzer
offengelegt werden. Es kann eine Analogie zu
Radioabstimmeinrichtungen alten Typs ausgebildet werden,
wobei die VR-Voreinstellung einer
Radioabstimmeinrichtungsvoreinstellungstaste entspricht,
während die Einknopf-VR-Kurvensteuereinrichtung analog zu
der Radiofeinabstimmeinrichtung ist.
Bei einem in Fig. 15 und 16 veranschaulichten
beispielhaften Ausführungsbeispiel werden Einstellungen der
VR-Kurvensteuereinrichtung 116 in eine horizontale
Verschiebung von inneren Kurvenpunkten um ein festes
Inkrement gemappt. Bei diesem Ausführungsbeispiel werden
Volumenelementen in einem gewissen Bereich (oder gemäß
einer willkürlichen, bestimmten Funktion) auf eine Art und
Weise Opazitäten zugewiesen, die diese Volumenelemente
hervorhebt und andere Volumenelemente weniger hervorhebt
oder verbirgt. Der Ort dieses Bereichs wird abhängig von
den bei der VR-Kurvensteuereinrichtung 116 ausgebildeten
Einstellungen variiert. Eine derartige Einstellung kann
z. B. zur Hervorhebung von Gefäßen verwendet werden, während
die Hervorhebung von Knochen und anderen Geweben verringert
wird.
Bei einem in Fig. 17 und 18 gezeigten weiteren
beispielhaften Ausführungsbeispiel werden Einstellungen bei
der VR-Kurvensteuereinrichtung 116 in eine Änderung der
Neigung einer gültigen Anstiegsrampe gemappt, wodurch eine
3D-Fensterniveauausgleichsfähigkeit (3D window-leveling
capability) bereitgestellt wird. Bei noch einem
Ausführungsbeispiel weist die VR-Kurvensteuereinrichtung
116 mehr als eine Funktion auf, wobei die Funktion
interaktiv auswählbar ist. Darüber hinaus muß die VR-
Kurvensteuereinrichtung nicht mit dem GUI-Schieber
realisiert sein. Bei einem Ausführungsbeispiel wird sie
durch Ziehen mit der Maus in dem 3D-Darstellungsfeld
gesteuert.
Somit wird bei einem Ausführungsbeispiel und mit Bezug auf
Fig. 15 und 16 das dezimierte Bildvolumen interaktiv
rekonstruiert, während eine Beziehung zwischen Opazität und
Volumenelementwert von einem voreingestellten Niveau aus
eingestellt wird. (Bei einem CT-Abbildungssystem sind die
Volumenelementwerte äquivalent zu Houndsfeld-Einheiten).
Genauer weist bei diesem Ausführungsbeispiel die Beziehung
zwischen Opazität und Volumenelementwert für einen
ausgewählten Bereich von Volumenelementwerten höhere
Opazitätswerte zu. Die Einstellung der Beziehung zwischen
Opazität und Volumenelementwert bedeutet somit eine
Änderung eines Bereichs von Volumenelementwerten, zu denen
die höheren Werte der Opazität zugewiesen werden, im
Ansprechen auf eine benutzerbetätigte Steuereinrichtung
116. Somit handelt es sich bei diesem Ausführungsbeispiel
bei der Opazität um einen einstellbaren visuellen
Parameter. (Es wird als äquivalent angesehen, einen Bereich
von Volumenelementwerten zu ändern, bei dem niedrigere
Opazitätswerte bereitgestellt werden, da diese Änderung
ebenfalls auftreten muß. Siehe Fig. 15 und 16). Bei einem
weiteren Ausführungsbeispiel und mit Bezug auf Fig. 17 und
18 stellt die Beziehung zwischen Opazität und
Volumenelementwerten in einem ausgewählten Bereich von
Volumenelementwerten eine Grenzneigung bereit, und eine
Beziehung zwischen Opazität und Volumenelementwerten wird
eingestellt, indem im Ansprechen auf eine benutzerbetätigte
Steuereinrichtung 116 ein Bereich von Opazitäten geändert
wird, bei dem die Grenzneigung bereitgestellt wird.
Bei einem Ausführungsbeispiel und wieder mit Bezug auf Fig.
14 sind intuitive Schiebersteuereinrichtungen 118, 120 und
122 für jede der rechten/linken, vorderen/hinteren bzw.
oberen/unteren Volumenbeschneidungsebenen bereitgestellt.
Mit Bezug auf Fig. 19 sind diese Steuereinrichtungen zur
interaktiven Einstellung von Orten von Beschneidungsebenen
124 tätig, die ein Untervolumen oder Volumen von Interesse
(VOI) in einem Stapel von Bildern 126 definieren, die ein
gesamtes Bildvolumen 128 bilden. Somit wird ein Satz von
ein Volumen von Interesse (VOI) definierenden
Volumenbeschneidungsebenen 124 selektiv bereitgestellt, und
die Volumenbeschneidungsebenen werden gemäß einer
Einstellung von Schiebersteuereinrichtungen 118, 120 und
122 ausgewählt. Bei diesem Ausführungsbeispiel handelt es
sich bei dem benutzerdefinierten VOI um einen einstellbaren
visuellen Parameter.
Eine interaktive "Justierung" oder Einstellung zur
Extraktion relevanter Daten erfordert bei einem
Ausführungsbeispiel unter Verwendung der SGI-Workstation
eine Minute oder weniger pro Untersuchung.
Bei einem Ausführungsbeispiel, das einen Ray-Casting-Ansatz
mit lediglich Software verwendet, werden ähnliche Verfahren
zur Erreichung interaktiver Volumenrenderraten verwendet.
Bei diesem Ausführungsbeispiel wird das Volumen deutlich
unterabgetastet und in eine kleinere Rendermatrix
gerendert, die daraufhin vergrößert wird. Bei einem
weiteren Ausführungsbeispiel unter Verwendung des Ray-
Casting-Ansatzes mit lediglich Software wird während des
interaktiven Renderns ein Abtastschema "nächster Nachbar"
verwendet, um den rechnerischen Aufwand einer trilinearen
Interpolation zu vermeiden, der Rendervorgängen voller
Genauigkeit innewohnt. Bei einigen Ausführungsbeispielen
kann ferner zur Erreichung von Bildern des interaktiven
Renderns eine kleinere, dezimierte Version des Bildvolumens
verwendet werden. Bei einem Ausführungsbeispiel sind
entweder der interaktive Renderprozeß oder der Renderprozeß
voller Genauigkeit oder beide Renderprozesse
multithreading-fähig, d. h. können in mehrere gleichzeitige
Unterprozesse geteilt werden, um einen Vorteil aus
zusätzlicher Verarbeitungsleistung auf einem
Mehrprozessorcomputersystem zu ziehen.
Es ist somit offensichtlich, daß Ausführungsbeispiele der
Erfindung Lösungen für Probleme bekannter Systeme zum
Rendern von Volumen von Bilddaten bereitstellen.
Beschriebene Ausführungsbeispiele der Erfindung stellen
z. B. ein interaktives Volumenrendern unter Verwendung
relativ preiswerter Hardware bereit. Einige der
beschriebenen Ausführungsbeispiele stellen interaktive
Steuereinrichtungen mit einem schnellen Ansprechverhalten
zur Verringerung der zur Analyse von Bildern benötigten
Zeit bereit. Bei einigen Ausführungsbeispielen wird ein
ausreichend schnelles Ansprechverhalten bereitgestellt, so
daß eine interaktive Hervorhebung von wichtigen
Informationen erreicht werden kann, während eine im
wesentlichen unmittelbare visuelle Rückmeldung erhalten
wird. Darüber hinaus wird eine wesentliche Komplexität bei
Benutzerschnittstellen verringert, und es wird ein
intuitiver Ansatz zur schnellen Extraktion relevanter Daten
aus einem Volumen bereitgestellt. Ein konstantes Niveau von
interaktiver Renderleistungsfähigkeit kann ohne Rücksicht
auf die Volumenelementwerte bei einem Bildvolumen oder eine
derzeitige Einstellung der Renderopazitätskurve des
Bildvolumens erreicht werden. Somit können einfache
Benutzerschnittstellensteuereinrichtungen wie
beispielsweise Opazitäts- und
Beschneidungsebenensteuereinrichtungen mit einer glatten
und konstanten Rückmeldungsrate bereitgestellt werden.
Während die Erfindung hinsichtlich verschiedener
spezifischer Ausführungsbeispiele beschrieben ist, erkennen
Fachleute, daß verschiedene Modifikationen im Rahmen des
Inhalts und Schutzbereichs der beigefügten Patentansprüche
möglich sind.
Bei einem Ausführungsbeispiel der Erfindung handelt es sich
um ein Verfahren zur schnellen Extraktion und
Visualisierung relevanter Daten aus einem Volumen von
Bilddaten, wobei das Verfahren die Schritte des schnellen
Erzeugens von aus einem Bildvolumen abgeleiteten Bildern
verringerter Genauigkeit, wobei die Bilder verringerter
Genauigkeit einen einstellbaren visuellen Parameter
aufweisen; des Einstellens des visuellen Parameters der
Bilder verringerter Genauigkeit während der schnellen
Erzeugung zur Auswahl einer gewünschten Einstellung; des
Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds
voller Genauigkeit; und des Anwendens der ausgewählten
Einstellung auf das Bild voller Genauigkeit aufweist.
Dieses Ausführungsbeispiel stellt eine interaktive
Volumenrenderfähigkeit mit relativ preiswerter Hardware und
einem schnellen Ansprechverhalten zur Verringerung der zur
Analyse von Bildern benötigten Zeit bereit.
Claims (26)
1. Verfahren zur schnellen Extraktion und Visualisierung
relevanter Daten aus einem Volumen von Bilddaten (62) mit
den Schritten:
schnelles Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
schnelles Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
2. Verfahren nach Anspruch 1, wobei die schnelle Erzeugung
von aus einem Bildvolumen (62) abgeleiteten Bildern
verringerter Genauigkeit die Schritte des Dezimierens eines
Bildvolumens voller Größe zur Erzeugung eines dezimierten
Bildvolumens (64) und des Rekonstruierens des dezimierten
Bildvolumens umfaßt.
3. Verfahren nach Anspruch 2, wobei die Rekonstruktion des
dezimierten Bildvolumens (64) den Schritt des Mappens von
aus dem dezimierten Bildvolumen erzeugten dreidimensionalen
Texturen unter Verwendung von Polygonen zur Erzeugung eines
Zwischenrenderings umfaßt.
4. Verfahren nach Anspruch 3 mit dem Schritt des Zoomens
des Zwischenrenderings mit bilinearer Interpolation zur
Anzeige in einem dreidimensionalen Darstellungsfeld (102).
5. Verfahren nach Anspruch 3 mit dem Schritt des Zoomens
des Zwischenrenderings durch eine Bildelementwiederholung.
6. Verfahren nach Anspruch 2, wobei ein benutzerdefiniertes
Volumen von Interesse der einstellbare visuelle Parameter
ist und die Rekonstruktion des dezimierten Bildvolumens
(64) den Schritt des selektiven Bereitstellens eines Satzes
von Volumenbeschneidungsebenen (124) zur Definition des
Volumens von Interesse umfaßt.
7. Verfahren nach Anspruch 6, wobei die selektive
Bereitstellung eines Satzes von Volumenbeschneidungsebenen
(124) zur Definition des Volumens von Interesse den Schritt
des Bereitstellens von Schiebersteuereinrichtungen für
rechte/linke (118), vordere/hintere (120) und obere/untere
(122) Beschneidungsebenen und des Einstellens der
Volumenbeschneidungsebenen gemäß einer Einstellung der
Schiebersteuereinrichtungen umfaßt.
8. Verfahren nach Anspruch 2, wobei die schnelle Erzeugung
von Bildern verringerter Genauigkeit den Schritt des
Abtastens des dezimierten Volumens (64) mit beabstandeten
Polygonen mit einem ersten Abstand umfaßt; und die
Erzeugung eines Bilds voller Genauigkeit den Schritt des
Abtastens des Bildvolumens voller Größe mit beabstandeten
Polygonen mit einem zweiten Abstand umfaßt, wobei der erste
Abstand eine breitere Beabstandung darstellt als der zweite
Abstand.
9. Verfahren nach Anspruch 2, wobei die Opazität der
einstellbare visuelle Parameter ist und die Rekonstruktion
des dezimierten Bildvolumens (69) den Schritt des
Einstellens einer Beziehung zwischen Opazität und
Volumenelementwert von einem voreingestellten Niveau aus
umfaßt.
10. Verfahren nach Anspruch 9, wobei die Beziehung zwischen
Opazität und Volumenelementwert für einen ausgewählten
Bereich von Volumenelementwerten höhere Opazitäten zuweist
und die Einstellung einer Beziehung zwischen Opazität und
Volumenelementwert den Schritt des Änderns eines Bereichs
von Volumenelementwerten, zu denen die höheren Werte der
Opazität zugewiesen werden, im Ansprechen auf Einstellungen
einer benutzerbetätigten Steuereinrichtung umfaßt.
11. Verfahren nach Anspruch 9, wobei die Beziehung zwischen
Opazität und Volumenelementwert in einem ausgewählten
Bereich von Volumenelementwerten eine Grenzneigung
bereitstellt und die Einstellung einer Beziehung zwischen
Opazität und Volumenelementwert den Schritt des Änderns
eines Bereichs von Volumenelementwerten, in dem die
Grenzneigung bereitgestellt wird, im Ansprechen auf eine
benutzerbetätigte Steuereinrichtung (116) umfaßt.
12. Verfahren nach Anspruch 9, wobei die Einstellung der
Beziehung zwischen Opazität und Volumenelementwert von
einem voreingestellten Wert aus mit einer einzelnen
Steuereinrichtung (116) ausgeführt wird.
13. Verfahren nach Anspruch 1, wobei die schnelle Erzeugung
eines Bilds verringerter Genauigkeit den Schritt des
Kombinierens von Mapping-Ergebnissen in eine erste
Rendermatrix (112) umfaßt; und die Erzeugung eines Bilds
voller Genauigkeit den Schritt des Kombinierens von
Mapping-Ergebnissen in eine zweite Rendermatrix umfaßt,
wobei die erste Rendermatrix kleiner als die zweite
Rendermatrix ist.
14. Interaktive Bildverarbeitungseinrichtung (52) zur
schnellen Extraktion und Visualisierung relevanter Daten
aus einem Volumen von Bilddaten (62), wobei die interaktive
Bildverarbeitungseinrichtung konfiguriert ist zum:
schnellen Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
schnellen Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
15. Verarbeitungseinrichtung (52) nach Anspruch 14, wobei
die Konfiguration der Verarbeitungseinrichtung zur
schnellen Erzeugung von aus einem Bildvolumen (62)
abgeleiteten Bildern verringerter Genauigkeit umfaßt, daß
die Verarbeitungseinrichtung zum Dezimieren eines
Bildvolumens voller Größe zur Erzeugung eines dezimierten
Bildvolumens (64) und zum Rekonstruieren des dezimierten
Bildvolumens konfiguriert ist.
16. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei
die Konfiguration der Verarbeitungseinrichtung zur
Rekonstruktion des dezimierten Bildvolumens (64) umfaßt,
daß die Verarbeitungseinrichtung zum Mappen von aus dem
dezimierten Bildvolumen erzeugten dreidimensionalen
Texturen unter Verwendung von Polygonen zur Erzeugung eines
Zwischenrenderings konfiguriert ist.
17. Verarbeitungseinrichtung (52) nach Anspruch 16, die zum
Zoomen des Zwischenrenderings mit bilinearer Interpolation
zur Anzeige in einem dreidimensionalen Darstellungsfeld
(102) konfiguriert ist.
18. Verarbeitungseinrichtung (52) nach Anspruch 16, die zum
Zoomen des Zwischenrenderings durch eine
Bildelementwiederholung konfiguriert ist.
19. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei
ein benutzerdefiniertes Volumen von Interesse der
einstellbare visuelle Parameter ist und die Konfiguration
der Verarbeitungseinrichtung zur Rekonstruktion des
dezimierten Bildvolumens (64) umfaßt, daß die
Verarbeitungseinrichtung zum selektiven Bereitstellen eines
Satzes von Volumenbeschneidungsebenen (124) zur Definition
des Volumens von Interesse konfiguriert ist.
20. Verarbeitungseinrichtung (52) nach Anspruch 19, wobei
die Konfiguration der Verarbeitungseinrichtung zur
selektiven Bereitstellung eines Satzes von
Volumenbeschneidungsebenen (124) zur Definition des
Volumens von Interesse umfaßt, daß die
Verarbeitungseinrichtung zum Bereitstellen von
Schiebersteuereinrichtungen für rechte/linke (118),
vordere/hintere (120) und obere/untere (122)
Beschneidungsebenen und zum Einstellen der
Volumenbeschneidungsebenen gemäß einer Einstellung der
Schiebersteuereinrichtungen konfiguriert ist.
21. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei
die Konfiguration der Verarbeitungseinrichtung zur
schnellen Erzeugung von Bildern verringerter Genauigkeit
umfaßt, daß die Verarbeitungseinrichtung zum Abtasten des
dezimierten Volumens (64) mit beabstandeten Polygonen mit
einem ersten Abstand konfiguriert ist; und die
Konfiguration der Verarbeitungseinrichtung zur Erzeugung
eines Bilds voller Genauigkeit umfaßt, daß die
Verarbeitungseinrichtung zum Abtasten des Bildvolumens
voller Größe mit beabstandeten Polygonen mit einem zweiten
Abstand konfiguriert ist, wobei der erste Abstand eine
breitere Beabstandung darstellt als der zweite Abstand.
22. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei
die Opazität der einstellbare visuelle Parameter ist und
die Konfiguration der Verarbeitungseinrichtung zur
Rekonstruktion des dezimierten Bildvolumens (64) umfaßt,
daß die Verarbeitungseinrichtung zum Einstellen einer
Beziehung zwischen Opazität und Volumenelementwert von
einem voreingestellten Niveau aus konfiguriert ist.
23. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei
die Beziehung zwischen Opazität und Volumenelementwert für
einen ausgewählten Bereich von Volumenelementwerten höhere
Opazitäten zuweist und die Konfiguration der
Verarbeitungseinrichtung zur Einstellung einer Beziehung
zwischen Opazität und Volumenelementwert umfaßt, daß die
Verarbeitungseinrichtung zum Ändern eines Bereichs von
Volumenelementwerten, zu denen die höheren Werte der
Opazität zugewiesen werden, im Ansprechen auf Einstellungen
einer benutzerbetätigten Steuereinrichtung (116)
konfiguriert ist.
24. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei
die Beziehung zwischen Opazität und Volumenelementwert in
einem ausgewählten Bereich von Volumenelementwerten eine
Grenzneigung bereitstellt und die Konfiguration der
Verarbeitungseinrichtung zur Einstellung einer Beziehung
zwischen Opazität und Volumenelementwert umfaßt, daß die
Verarbeitungseinrichtung zum Ändern eines Bereichs von
Volumenelementwerten, in dem die Grenzneigung
bereitgestellt wird, im Ansprechen auf eine
benutzerbetätigte Steuereinrichtung (116) konfiguriert ist.
25. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei
die Verarbeitungseinrichtung zur Bereitstellung einer
einzelnen Steuereinrichtung (116) zur Einstellung der
Beziehung zwischen Opazität und Volumenelementwert von
einem voreingestellten Wert aus konfiguriert ist.
26. Verarbeitungseinrichtung (52) nach Anspruch 14, wobei
die Konfiguration der Verarbeitungseinrichtung zur
schnellen Erzeugung eines Bilds verringerter Genauigkeit
umfaßt, daß die Verarbeitungseinrichtung zum Kombinieren
von Mapping-Ergebnissen in eine erste Rendermatrix (112)
konfiguriert ist; und die Konfiguration der
Verarbeitungseinrichtung zur Erzeugung eines Bilds voller
Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum
Kombinieren von Mapping-Ergebnissen in eine zweite
Rendermatrix konfiguriert ist, wobei die erste Rendermatrix
kleiner als die zweite Rendermatrix ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/564,128 US6690371B1 (en) | 2000-05-03 | 2000-05-03 | Relevant image data extraction from a medical image data volume |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10120584A1 true DE10120584A1 (de) | 2001-11-08 |
Family
ID=24253260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10120584A Withdrawn DE10120584A1 (de) | 2000-05-03 | 2001-04-26 | Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten |
Country Status (4)
Country | Link |
---|---|
US (1) | US6690371B1 (de) |
JP (1) | JP4959875B2 (de) |
DE (1) | DE10120584A1 (de) |
IL (1) | IL142774A0 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2855616A1 (fr) * | 2003-05-30 | 2004-12-03 | Univ Paris Descartes | Procede et dispositif d'echographie ultrasonore |
WO2007069174A1 (en) * | 2005-12-15 | 2007-06-21 | Koninklijke Philips Electronics, N.V. | Faster rates for real-time 3d volume rendered images |
DE102011079380A1 (de) * | 2011-07-19 | 2013-01-24 | Siemens Aktiengesellschaft | Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001239926A1 (en) * | 2000-02-25 | 2001-09-03 | The Research Foundation Of State University Of New York | Apparatus and method for volume processing and rendering |
US7269580B2 (en) * | 2000-10-03 | 2007-09-11 | Celcorp, Inc. | Application integration system and method using intelligent agents for integrating information access over extended networks |
US6978230B1 (en) * | 2000-10-10 | 2005-12-20 | International Business Machines Corporation | Apparatus, system, and method for draping annotations on to a geometric surface |
JP2002123530A (ja) * | 2000-10-12 | 2002-04-26 | Hitachi Ltd | 多次元データの可視化方法及び装置 |
FR2824164B1 (fr) * | 2001-04-26 | 2003-08-15 | Ge Med Sys Global Tech Co Llc | Systeme d'imagerie medicale a affichage d'une representation tridimensionnelle |
US8649843B2 (en) * | 2001-11-24 | 2014-02-11 | Ben A. Arnold | Automated calcium scoring of the aorta |
US7758508B1 (en) * | 2002-11-15 | 2010-07-20 | Koninklijke Philips Electronics, N.V. | Ultrasound-imaging systems and methods for a user-guided three-dimensional volume-scan sequence |
WO2004049935A1 (en) * | 2002-11-29 | 2004-06-17 | Wang Shih-Ping | Thick-slice display of medical images |
US20040138560A1 (en) * | 2002-12-02 | 2004-07-15 | Gianluca Paladini | Real-time scan conversion and rendering of ultrasound data |
AU2003282325A1 (en) * | 2002-12-20 | 2004-07-14 | Koninklijke Philips Electronics N.V. | Protocol-based volume visualization |
US7239730B2 (en) * | 2003-01-29 | 2007-07-03 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for volume scoring calcification concentrations of a CT scan |
WO2005013841A1 (en) * | 2003-08-07 | 2005-02-17 | Xoran Technologies, Inc. | Intra-operative ct scanner |
US7301538B2 (en) * | 2003-08-18 | 2007-11-27 | Fovia, Inc. | Method and system for adaptive direct volume rendering |
DE10345073A1 (de) * | 2003-09-26 | 2005-05-04 | Siemens Ag | Betriebsverfahren für ein tomographiefähiges bildgebendes Untersuchungsgeräts und Röntgen-Computertomographiegerät |
JP2005202791A (ja) * | 2004-01-16 | 2005-07-28 | Med Solution Kk | 画像を生成する方法、装置およびプログラム |
US7154500B2 (en) * | 2004-04-20 | 2006-12-26 | The Chinese University Of Hong Kong | Block-based fragment filtration with feasible multi-GPU acceleration for real-time volume rendering on conventional personal computer |
JP2007534416A (ja) * | 2004-04-28 | 2007-11-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多次元のデータセットにオブジェクトをマッピングする方法、コンピュータプログラム、装置、画像分析システム及びイメージングシステム |
US7660382B2 (en) * | 2004-06-28 | 2010-02-09 | Koninklijke Philips Electronics N.V. | Examination apparatus for perfusion studies |
JP4208791B2 (ja) | 2004-08-11 | 2009-01-14 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
US7436402B2 (en) * | 2004-09-01 | 2008-10-14 | Medison Co., Ltd. | Rendering apparatus and method for a real-time 3D ultrasound diagnostic system |
JP4205683B2 (ja) * | 2005-03-23 | 2009-01-07 | ザイオソフト株式会社 | 画像処理方法および画像処理プログラム |
FR2886433B1 (fr) * | 2005-05-30 | 2007-09-07 | Commissariat Energie Atomique | Methode de segmentation d'une sequence d'images tridimensionnelles, notamment en pharmaco-imagerie. |
JP5239115B2 (ja) * | 2005-07-28 | 2013-07-17 | 横河電機株式会社 | 医用画像データ処理装置および医用画像データ処理方法 |
US7692648B2 (en) * | 2006-01-18 | 2010-04-06 | Siemens Medical Solutions Usa, Inc. | System and method for empty space skipping in sliding texture based volume rendering by trimming slab polygons |
KR100738107B1 (ko) * | 2006-02-15 | 2007-07-12 | 삼성전자주식회사 | 3차원 포인트 기반 모델링 장치 및 방법 |
EP1862120B1 (de) * | 2006-05-29 | 2016-11-09 | Toshiba Medical Systems Corporation | Computergestützte Vorrichtung zur Bildgebungsdiagnoseverarbeitung und computergestütztes Verfahren zur Bildgebungsdiagnoseverarbeitung |
US7802215B2 (en) * | 2006-06-06 | 2010-09-21 | Fujitsu Limited | System and method for providing an improved sliding window scheme for clock mesh analysis |
US20080008371A1 (en) * | 2006-06-13 | 2008-01-10 | Kevin Woods | Considerations when colon segmentation differs between CAD processing and visualization |
GB2439121B (en) * | 2006-06-15 | 2009-10-21 | Motorola Inc | Apparatus and method for content item annotation |
US7808514B2 (en) * | 2006-06-21 | 2010-10-05 | Siemens Medical Solutions Usa, Inc. | Multiplanar reformatting visualization with multiple scrolling speeds |
CN101563706B (zh) * | 2006-07-31 | 2012-10-10 | 皇家飞利浦电子股份有限公司 | 用于为图像数据集的显像创建预设置图的方法、设备 |
US7952592B2 (en) * | 2006-09-25 | 2011-05-31 | Siemens Medical Solutions Usa, Inc. | System and method for view-dependent cutout geometry for importance-driven volume rendering |
WO2008086193A2 (en) * | 2007-01-05 | 2008-07-17 | Landmark Graphics Corporation, A Halliburton Company | Systems and methods for visualizing multiple volumetric data sets in real time |
US7978191B2 (en) * | 2007-09-24 | 2011-07-12 | Dolphin Imaging Systems, Llc | System and method for locating anatomies of interest in a 3D volume |
US9717896B2 (en) * | 2007-12-18 | 2017-08-01 | Gearbox, Llc | Treatment indications informed by a priori implant information |
JP4376944B2 (ja) * | 2008-04-03 | 2009-12-02 | 富士フイルム株式会社 | 中間画像生成方法および装置ならびにプログラム |
CN102047294B (zh) * | 2008-06-06 | 2013-10-30 | 兰德马克绘图国际公司,哈里伯顿公司 | 对表示网格体的几何不规则网格数据的三维体成像的系统及方法 |
US8968210B2 (en) | 2008-10-01 | 2015-03-03 | Covidien LLP | Device for needle biopsy with integrated needle protection |
US9332973B2 (en) | 2008-10-01 | 2016-05-10 | Covidien Lp | Needle biopsy device with exchangeable needle and integrated needle protection |
US11298113B2 (en) | 2008-10-01 | 2022-04-12 | Covidien Lp | Device for needle biopsy with integrated needle protection |
US9186128B2 (en) | 2008-10-01 | 2015-11-17 | Covidien Lp | Needle biopsy device |
US9782565B2 (en) | 2008-10-01 | 2017-10-10 | Covidien Lp | Endoscopic ultrasound-guided biliary access system |
US20100130860A1 (en) * | 2008-11-21 | 2010-05-27 | Kabushiki Kaisha Toshiba | Medical image-processing device, medical image-processing method, medical image-processing system, and medical image-acquiring device |
RU2556590C2 (ru) * | 2009-03-19 | 2015-07-10 | Конинклейке Филипс Электроникс Н.В. | Функциональная визуализация |
US20110082667A1 (en) * | 2009-10-06 | 2011-04-07 | Siemens Corporation | System and method for view-dependent anatomic surface visualization |
WO2011062108A1 (ja) * | 2009-11-19 | 2011-05-26 | 株式会社 日立メディコ | 画像処理装置及び画像処理方法 |
WO2012018560A2 (en) * | 2010-07-26 | 2012-02-09 | Kjaya, Llc | Adaptive visualization for direct physician use |
CN103229041B (zh) * | 2010-12-03 | 2016-03-02 | 索尼公司 | 3d数据分析装置、3d数据分析方法和3d数据分析程序 |
US9142056B1 (en) * | 2011-05-18 | 2015-09-22 | Disney Enterprises, Inc. | Mixed-order compositing for images having three-dimensional painting effects |
JP5835975B2 (ja) * | 2011-07-19 | 2015-12-24 | 株式会社東芝 | 画像処理システム、装置、方法及び医用画像診断装置 |
DE102012205222B4 (de) * | 2012-03-30 | 2020-08-13 | Siemens Healthcare Gmbh | Verfahren zur Ermittlung eines artefaktreduzierten dreidimensionalen Bilddatensatzes und Röntgeneinrichtung |
US9147280B2 (en) * | 2012-08-03 | 2015-09-29 | Kabushiki Kaisha Toshiba | Preparation and display of derived series of medical images |
US10318100B2 (en) * | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
US9760690B1 (en) * | 2016-03-10 | 2017-09-12 | Siemens Healthcare Gmbh | Content-based medical image rendering based on machine learning |
US10542060B2 (en) * | 2016-09-19 | 2020-01-21 | Ebay Inc. | Interactive real-time visualization system for large-scale streaming data |
US10699410B2 (en) * | 2017-08-17 | 2020-06-30 | Siemes Healthcare GmbH | Automatic change detection in medical images |
US11157781B2 (en) * | 2017-09-21 | 2021-10-26 | Royal Bank Of Canada | Device and method for assessing quality of visualizations of multidimensional data |
JP7003635B2 (ja) * | 2017-12-22 | 2022-01-20 | 大日本印刷株式会社 | コンピュータプログラム、画像処理装置及び画像処理方法 |
JP7013849B2 (ja) * | 2017-12-22 | 2022-02-01 | 大日本印刷株式会社 | コンピュータプログラム、画像処理装置及び画像処理方法 |
JP7283603B2 (ja) * | 2017-12-22 | 2023-05-30 | 大日本印刷株式会社 | コンピュータプログラム、画像処理装置及び画像処理方法 |
JP2019114034A (ja) * | 2017-12-22 | 2019-07-11 | 大日本印刷株式会社 | コンピュータプログラム、画像処理装置、画像処理方法及びボクセルデータ |
EP3574476A1 (de) * | 2018-01-31 | 2019-12-04 | Mitos GmbH | Verfahren zur bildrekonstruktion eines objekts, insbesondere auf basis einer computertomografiebildrekonstruktion und vorrichtung, system und computerprogrammprodukt dafür |
CA3105067A1 (en) * | 2018-06-27 | 2020-01-02 | Colorado State University Research Foundation | Methods and apparatus for efficiently rendering, managing, recording, and replaying interactive, multiuser, virtual reality experiences |
US11191525B2 (en) * | 2018-08-10 | 2021-12-07 | General Electric Company | Method and system for visualizing overlapping images |
JPWO2022202203A1 (de) * | 2021-03-26 | 2022-09-29 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313567A (en) * | 1991-06-13 | 1994-05-17 | At&T Bell Laboratories | Arrangement for determining and displaying volumetric data in an imaging system |
AU3930793A (en) * | 1992-05-08 | 1993-12-13 | Apple Computer, Inc. | Textured sphere and spherical environment map rendering using texture map double indirection |
JPH07115517A (ja) * | 1993-10-14 | 1995-05-02 | Konica Corp | 放射線画像撮影システム |
US5842473A (en) | 1993-11-29 | 1998-12-01 | Life Imaging Systems | Three-dimensional imaging system |
JPH07271997A (ja) * | 1994-03-29 | 1995-10-20 | Toshiba Corp | 画像処理装置 |
JP3814932B2 (ja) * | 1997-03-31 | 2006-08-30 | 株式会社島津製作所 | 3次元画像生成装置 |
-
2000
- 2000-05-03 US US09/564,128 patent/US6690371B1/en not_active Expired - Fee Related
-
2001
- 2001-02-19 JP JP2001041540A patent/JP4959875B2/ja not_active Expired - Fee Related
- 2001-04-24 IL IL14277401A patent/IL142774A0/xx not_active IP Right Cessation
- 2001-04-26 DE DE10120584A patent/DE10120584A1/de not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2855616A1 (fr) * | 2003-05-30 | 2004-12-03 | Univ Paris Descartes | Procede et dispositif d'echographie ultrasonore |
WO2007069174A1 (en) * | 2005-12-15 | 2007-06-21 | Koninklijke Philips Electronics, N.V. | Faster rates for real-time 3d volume rendered images |
DE102011079380A1 (de) * | 2011-07-19 | 2013-01-24 | Siemens Aktiengesellschaft | Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen |
Also Published As
Publication number | Publication date |
---|---|
JP4959875B2 (ja) | 2012-06-27 |
US6690371B1 (en) | 2004-02-10 |
IL142774A0 (en) | 2002-03-10 |
JP2001319220A (ja) | 2001-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10120584A1 (de) | Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten | |
US6947584B1 (en) | Volume imaging system | |
DE3826287C2 (de) | Verfahren und Vorrichtung zur automatischen Analyse von Lungengewebe aus einem röntgenologischen Brustbild | |
DE602004003576T2 (de) | Abbildung interner strukturen | |
DE102005046385B4 (de) | Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie | |
DE69233207T2 (de) | Verfahren und gerät zur bildverarbeitung. | |
DE102011087337B4 (de) | Verfahren zur Rekonstruktion eines zweidimensionale virtuelle Röntgenbilder enthaltenden Rekonstruktionsdatensatzes | |
DE10159331A1 (de) | Verfahren und System zur Auswahl und Anzeige von medizinischen Bilddaten | |
DE102004063053A1 (de) | Verfahren und System zum Visualisieren dreidimensionaler Daten | |
DE102007052572A1 (de) | Verfahren und Vorrichtung zum Definieren mindestens eines Akquisitions- und Bearbeitungs-Parameter in einer Tomosynthesevorrichtung | |
DE10164162A1 (de) | Rückprojektionsverfahren und -vorrichtung für Computertomographieabbildungssysteme | |
DE19955690A1 (de) | System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation | |
DE202007019608U1 (de) | Bildhandhabung und Anzeige bei der Röntgenmammographie und Tomosynthese | |
DE102011003135B4 (de) | Bildgebungsverfahren zum Rotieren eines Gewebebereichs | |
DE102009044683A1 (de) | Multimaterialiendekomposition mittels Dualenergie-Computertomographie | |
DE602004004877T2 (de) | System und verfahren für exakte bildrekonstruktion für spiralkegelstrahl-compu tertomographie mit redundanten daten | |
DE602004009653T2 (de) | Vorrichtung, Verfahren, Programm und maschinenlesbares Speichermedium zur Strahlungsbildverarbeitung | |
DE202009019204U1 (de) | Röntgenerfassungssystem zur Erzeugung eines synthetisierten 2D-Mammogramms aus durch Tomosynthese rekonstruierten Bildern | |
DE102006041309A1 (de) | System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern | |
DE102006003609A1 (de) | Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung | |
DE10144630A1 (de) | Verfahren und Vorrichtung zur Visualisierung eines Körpervolumens und Computerprogrammprodukt | |
DE102008002915A1 (de) | System und Verfahren für eine Benutzerschnittstelle in der digitalen radiographischen Röntgentomosynthese | |
DE102004056783A1 (de) | Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie | |
DE19849292A1 (de) | Bildrekonstruktion in einem Computer-Tomographie-Fluoroskopiesystem | |
DE102016219887A1 (de) | Verfahren und System zur Nutzung von Messdaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8139 | Disposal/non-payment of the annual fee |