DE10120584A1 - Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten - Google Patents

Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten

Info

Publication number
DE10120584A1
DE10120584A1 DE10120584A DE10120584A DE10120584A1 DE 10120584 A1 DE10120584 A1 DE 10120584A1 DE 10120584 A DE10120584 A DE 10120584A DE 10120584 A DE10120584 A DE 10120584A DE 10120584 A1 DE10120584 A1 DE 10120584A1
Authority
DE
Germany
Prior art keywords
volume
processing device
image
opacity
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10120584A
Other languages
English (en)
Inventor
Darin Robert Okerlund
Mark E Woodford
Christopher Carson Slack
James Markvica
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Publication of DE10120584A1 publication Critical patent/DE10120584A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/08Bandwidth reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Bei einem Ausführungsbeispiel der Erfindung handelt es sich um ein Verfahren zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten (62), wobei das Verfahren die Schritte des schnellen Erzeugens von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit eine einstellbaren visuellen Parameter aufweisen; des Einstellens des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung; des Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und des Anwendens der ausgewählten Einstellung auf das Bild voller Genaugikeit aufweist. DOLLAR A Dieses Ausführungsbeispiel stellt eine interaktive Volumenrenderfähigkeit (52) mit relativ preiswerter Hardware und einem schnellen Ansprechverhalten zur Verringerung der zur Analyse von Bildern benötigten Zeit bereit.

Description

Die vorliegende Erfindung bezieht sich allgemein auf eine medizinische Abbildung und insbesondere auf Verfahren und eine Vorrichtung zur schnellen Extraktion relevanter Bilddaten aus einem dreidimensionalen volumetrischen Datensatz.
Ein anspruchsvolles Problem in dem Bereich der Volumenvisualisierung besteht in der Fähigkeit, in einem Volumen von Bilddaten, z. B. medizinischen Bilddaten, enthaltene relevante Informationen unter Verwendung eines für einen Endbenutzer einfachen und intuitiven Verfahrens in einer aktuellen Art und Weise zu extrahieren.
Ein Volumenrendern (VR) stellt eine bevorzugte Wahl zur Visualisierung eines Volumens von medizinischen Bilddaten dar. Der VR-Prozeß wird durch einen Satz von Kurven gesteuert, d. h. Opazitäts- und Farb-/Intensitätskurven. Diese Kurven bestimmen, welchen Beitrag und welche Farbintensität ein bestimmtes Volumenelement (ein Datenpunkt in dem Volumen) bei der sich ergebenden 3D- Projektion oder dem sich ergebenden Rendering aufweisen wird. Die Herausforderung besteht darin, eine geeignete Kurve zur Hervorhebung von für eine Untersuchung wichtigen Informationen (wie beispielsweise durch eine Bereitstellung von z. B. kontrastverbesserten Gefäßen) unter Unterdrückung von für die Untersuchung irrelevanten Informationen (z. B. eines Abtasteinrichtungstischs und von Knochenstrukturen bei einer Untersuchung von Gefäßen) zu bestimmen. Eine Volumenbeschneidung oder Schnittebenen können ebenfalls zur Entfernung von Teilen eines Volumens verwendet werden, die nicht von Interesse sind und die andernfalls relevantes Gewebe oder relevante Anatomie verschleiern oder verdecken würden. Beispielsweise kann eine Volumenbeschneidung zum Wegschneiden eines Bilds von einer Rippe verwendet werden, um eine klare pfeilrechte Ansicht von einer Aorta zu erhalten.
Ein Problem bei bekannten Systemen zum Rendern von Volumen von Bilddaten besteht darin, daß sie entweder zu langsam sind, um bei medizinischen oder chirurgischen Umgebungen eine unmittelbare Rückmeldung bereitzustellen, oder leistungsfähige und teuere Bildverarbeitungshardware benötigen. Ferner versuchen einige bekannte softwarebasierte Volumenrendereinrichtungen, ein schnelleres interaktives Rendern zu erreichen, indem sie große Teile eines Bildvolumens überspringen. In einem gewissen Sinn wird der Renderprozeß bei einer bestimmten Volumenrenderopazitätskurve auf spezielle Volumenelementwerte abgestimmt. Teile eines Volumens, die transparent wären (d. h., die Bereichsvolumenelementwerte, denen eine Opazität von Null zugewiesen wurde), werden nicht abgetastet. Dieses Schema ermöglicht es einem Benutzer nicht, eine Opazitätskurve einzustellen, während dem Benutzer interaktiv Ergebnisse der Einstellung gezeigt werden.
Es ist somit wünschenswert, ein interaktives Volumenrendern bereitzustellen, das auf relativ preiswerter Hardware arbeiten kann. Zumindest für einige medizinische oder chirurgische Anwendungen ist es ferner wünschenswert, interaktive Steuereinrichtungen bereitzustellen, die ein schnelles Ansprechverhalten aufweisen, damit die zur Analyse von Bildern benötigte Zeit verringert wird. Es ist außerdem wünschenswert, daß das Ansprechverhalten so schnell ist, daß eine Bedienungsperson von Abbildungsausstattung wichtige Informationen in dem Volumen interaktiv hervorheben kann, während eine unverzügliche visuelle Rückmeldung im wesentlichen erhalten wird, um seine oder ihre Auswahl zu führen. Vorzugsweise sollte eine derartige interaktive "Justierung" oder Einstellung auf anfängliche, protokollierte Einstellungen zur Extraktion relevanter Daten nicht mehr als etwa eine Minute pro Untersuchung benötigen. Es ist wünschenswert, erheblich weniger Zeit für Einstellungen und "Justierungen" dreidimensionaler Parameter zu verwenden, so daß ein endgültiges, völlig genaues Rendern viel eher begonnen werden kann, als es unter Verwendung derzeitiger Systeme getan wird. Zur weiteren Steigerung der klinischen Produktivität ist es ferner wünschenswert, eine wesentliche Kompliziertheit bei Benutzerschnittstellen zu beseitigen und einen intuitiven Ansatz für Systeme zur schnellen Extraktion relevanter Daten aus einem Volumen bereitzustellen.
Bei einem Ausführungsbeispiel der Erfindung handelt es sich daher um ein Verfahren zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten, wobei das Verfahren die Schritte des schnellen Erzeugens von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen; des Einstellens des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung; des Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und des Anwendens der ausgewählten Einstellung auf das Bild voller Genauigkeit aufweist.
Dieses Ausführungsbeispiel stellt eine interaktive Volumenrenderfähigkeit mit relativ preiswerter Hardware und einem schnellen Ansprechverhalten zur Verringerung der zur Analyse von Bildern benötigten Zeit bereit.
Fig. 1 zeigt eine veranschaulichende Ansicht eines CT- Abbildungssystems.
Fig. 2 zeigt ein schematisches Blockschaltbild des in Fig. 1 gezeigten Systems.
Fig. 3 zeigt ein Blockschaltbild einer Bedienungsperson- Bedieneinheit gemäß einer Ausgestaltung der vorliegenden Erfindung.
Fig. 4 veranschaulicht eine Drehung eines Volumenmodells.
Fig. 5 zeigt ein Blockschaltbild eines Visualisierungssubsystems gemäß einer Ausgestaltung der vorliegenden Erfindung.
Fig. 6 veranschaulicht eine Wiedergabe einer inkrementellen Aktualisierung eines erfaßten Volumens von Daten.
Fig. 7 veranschaulicht Wiedergabebetrachtungsoptionen.
Fig. 8 veranschaulicht ein Rendern von dynamischen Daten.
Fig. 9 veranschaulicht eine inkrementelle Aktualisierung von Daten.
Fig. 10 veranschaulicht ein Gleitfenster des dynamischen Datenrenderns.
Fig. 11 veranschaulicht eine hierarchische Datenstruktur.
Fig. 12 veranschaulicht ein gemischtes Datenrendern.
Fig. 13 veranschaulicht zwei Datenverarbeitungspfade einschließlich eines interaktiven Pfads verringerter Genauigkeit zum Rendern von Daten.
Fig. 14 veranschaulicht eine Gruppe von Schiebersteuereinrichtungen, die bei einem Ausführungsbeispiel der Erfindung zur Steuerung eines einstellbaren Bildparameters während eines schnellen Renderns zur Auswahl einer gewünschten Einstellung verwendet wird und die ihre Ergebnisse in einem 3D- Darstellungsfeld anzeigt.
Fig. 15 und 16 veranschaulichen eine horizontale Verschiebung einer VR-Kurve.
Fig. 17 und 18 veranschaulichen eine Änderung der Neigung einer Anstiegsrampe einer VR-Kurve.
Fig. 19 veranschaulicht ein durch Orte von Beschneidungsebenen in einem gesamten Bildvolumen definiertes Volumen von Interesse.
Unter Bezugnahme auf Fig. 1 und 2 ist stellvertretend für eine CT-Abtasteinrichtung der "dritten Generation" ein nachstehend als CT-Abbildungssystem bezeichnetes Computertomographieabbildungssystem 10 einschließlich eines Portals 12 gezeigt. Das Portal 12 weist eine Röntgenquelle 14 auf, die einen Strahl von Röntgenstrahlen 16 zu einer regelmäßigen Anordnung von Detektoren 18 auf der gegenüberliegenden Seite des Portals 12 projiziert. Die regelmäßige Anordnung von Detektoren 18 ist durch Detektorelemente 20 gebildet, die zusammen die durch einen medizinischen Patienten 22 gehenden projizierten Röntgenstrahlen erfassen. Jedes Detektorelement 20 erzeugt ein elektrisches Signal, das die Intensität eines auftreffenden Röntgenstrahls darstellt und somit die Abschwächung des Strahls, wenn er durch den Patienten 22 geht. Während einer Abtastung zur Erfassung von Röntgenprojektionsdaten drehen sich das Portal 12 und die daran angebrachten Komponenten um einen Drehmittelpunkt 24.
Die Drehung des Portals 12 und der Betrieb der Röntgenquelle 14 werden durch eine Steuervorrichtung 26 des CT-Systems 10 gesteuert. Die Steuervorrichtung 26 umfaßt eine Röntgensteuereinrichtung 28, die Leistungs- und Zeitablaufsteuersignale für die Röntgenquelle 14 bereitstellt, und eine Portalmotorsteuereinrichtung 30, die die Drehgeschwindigkeit und -position des Portals 12 steuert. Ein Datenerfassungssystem (DAS) 32 bei der Steuervorrichtung 26 tastet Analogdaten von Detektorelementen 20 ab und wandelt die Daten in Digitalsignale für eine nachfolgende Verarbeitung. Eine Bildrekonstruktionseinrichtung 34 empfängt abgetastete und digitalisierte Röntgendaten von dem DAS 32 und führt eine Hochgeschwindigkeitsbildrekonstruktion aus. Das rekonstruierte Bild wird einem Computer 36 als Eingabe zugeführt, der das Bild in einer Massenspeichervorrichtung 38 speichert.
Der Computer 36 empfängt auch Befehle und Abtastparameter von einer Bedienungsperson über eine Bedieneinheit 40, die eine Tastatur aufweist. Eine zugeordnete Kathodenstrahlröhrenanzeige 42 ermöglicht es der Bedienungsperson, das rekonstruierte Bild und andere Daten von dem Computer 36 zu beobachten. Die von der Bedienungsperson zugeführten Befehle und Parameter werden von dem Computer 36 zur Bereitstellung von Steuersignalen und Informationen für das DAS 32, die Röntgensteuereinrichtung 28 und die Portalmotorsteuereinrichtung 30 verwendet. Darüber hinaus betätigt der Computer 36 eine Tischmotorsteuereinrichtung 44, die einen motorisierten Tisch 46 zur Positionierung des Patienten 22 in dem Portal 12 steuert. Insbesondere bewegt der Tisch 46 Teile des Patienten 22 durch die Portalöffnung 48.
Fig. 3 zeigt ein Blockschaltbild einer Bedienungsperson- Bedieneinheit 40. Gemäß einem Ausführungsbeispiel ist der Computer 36 (Fig. 1) in die Bedieneinheit 40 integriert, und die Bedieneinheit 40 umfaßt ein Untersuchungsvorschriftssubsystem 50, das die Art und Weise bestimmt, auf die das Abbildungssystem Daten erfaßt, ein Visualisierungssubsystem 52, das für das Darstellungslayout und die Anzeige der erfaßten Bilder und verarbeiteten Daten zuständig ist, ein Archivierungssubsystem 54 zur permanenten Speicherung und zukünftigen Wiedergewinnung von Abbildungsdaten, ein Filmsubsystem 56, das Daten auf Film überträgt, und ein Vernetzungssubsystem 58, das Daten über ein Netz zu oder von anderen Abbildungssystemen überträgt. Optionale entfernte Betrachtungsstationen können zur Ermöglichung des Fernbetrachtens von Bildern mit der Bedieneinheit 40 gekoppelt sein.
Das Untersuchungsvorschriftssubsystem 50 ist dafür zuständig, zu bestimmen, wie die Patientenuntersuchungsdaten erfaßt werden. Es sind zahlreiche Parameter einschließlich einer Sequenz von Schnittorten, einer Schnittdicke, eines Gesichtsfelds, eines Abtastverfahrens und eines Rekonstruktionsalgorithmus zur Bestimmung einer Erfassung erforderlich. Volumenabbildungs- und Filmdarstellungsparameter können ebenfalls in der Untersuchungsabtastvorschrift enthalten sein. Diese Parameter können explizit durch den Technologen eingegeben werden oder, was eher üblich ist, die Parameter werden durch eine Auswahl eines speziellen Abtastprotokolls definiert, wie es in dem Bereich der Technik allgemein bekannt ist. Das Subsystem 50 erzeugt eine Abtastvorschrift, und die Vorschrift wird zu dem DAS 32 (Fig. 2) übertragen.
Das DAS 32 sammelt die Erfassungsdaten gemäß der Vorschrift und stellt die erfaßten Daten für die Bildrekonstruktionseinrichtung 34 bereit, um eine Reihe von Bildern aus den erfaßten Daten zu erzeugen, die zur Erzeugung eines volumetrischen Modells verwendet werden können. Ein volumetrisches Modell umfaßt typischerweise eine dreidimensionale (oder höher) geradlinige regelmäßige Anordnung von Werten, häufig mit einem einzelnen Skalarwert pro Abtastwert. Fig. 4 veranschaulicht ein geradliniges 3D- Modell, das aus einem Stapel von zweidimensionalen Bildern besteht. Während der Erfassung werden einzelne Schnitte erfaßt und entlang einer Dimension des Modells gestapelt. Nachdem alle Schnitte erfaßt und rekonstruiert sind, wird ein Nx × Ny × Nz Datenabtastwerte enthaltendes volumetrisches Modell erzeugt.
Wieder auf Fig. 3 Bezug nehmend steuert das Visualisierungssubsystem 52 die Darstellung von allen relevanten Abbildungsdaten für die Bedienungsperson. Die Daten umfassen z. B. 2D-Bilder, 3D-Projektionen, Patientendaten, einen Vermerk und Messungen. Das Subsystem 52 realisiert mehrere Visualisierungsmerkmale wie beispielsweise eine Routinenanzeige, einen Querverweis, eine Autoansichtsanzeige, eine Volumenautoansichtsanzeige und andere Formen der Anzeige unter Verwendung eines oder mehrerer Fenster oder Darstellungsfelder 60, wobei jedes Fenster 60 seinen eigenen Satz von Visualisierungsparametern umfassen kann. Wie es nachstehend ausführlicher beschrieben ist, umfaßt das Visualisierungssubsystem 52 mehrere Komponenten zur Filterung, zur Klassifikation, zum Rendern, zum Vermerken und zum Vornehmen von Messungen.
Das Archivierungssubsystem 54 speichert (unter Verwendung verschiedener Trägerformate) alle erfaßten und berechneten Abbildungsdaten zur zukünftigen Wiedergewinnung permanent. Diese Daten umfassen Protokolle, 2D-Bilder, Messungen und 3D-Renderings wie Bildschirmmomentaufnahmen. 3D-Protokolle, Filmclips und Filmschleifen können ebenfalls durch das Subsystem 54 gespeichert werden.
Das Filmsubsystem 56 erzeugt eine Hartkopie der Abbildungsdaten, indem es die Daten auf Film verarbeitet. Dies kann 2D-Bilder, Text- und Grafikvermerke sowie 3D- Renderings von erfaßten Bilddaten umfassen. Format- und Darstellungsparameter für die 3D-Abbildung (z. B. Position, Orientierung und Transparenzzuweisungen) können in der Untersuchungsabtastvorschrift enthalten sein.
Das Vernetzungssubsystem 58 ähnelt in seiner Funktionalität dem Archivierungssubsystem 54 außer, daß das Vernetzungssubsystem 58 Abbildungsdaten über eine vernetzte Verbindung zu oder von einem weiteren Abbildungssystem überträgt. Das Vernetzungssubsystem 58 kann auch HIS/RIS- Informationen akzeptieren und kann Zustandsinformationen für andere Subsysteme bereitstellen. Beispiele für Abbildungsdaten umfassen 3D-Parameter, 3D-Projektionen, Filmschleifen sowie Filmclips und können über das Vernetzungssubsystem 58 zu einer vernetzten Workstation übertragen werden.
Das Vernetzungssubsystem 58 kann auch eine Netzverbindung zu einer Zusatzverarbeitungsanlage aufbauen, die zur Ausführung einer Ansichts-, Bild- und 3D-Verarbeitung in der Lage ist. Die Zusatzverarbeitungsanlage kann z. B. ausschließlich zugeordnete Anlagen umfassen, die schnell die empfangenen Daten verarbeiten und Bilddaten sowie Informationen zurückgeben. Beispielsweise können Rekonstruktionscodes auf die Ansichtsdaten angewendet werden, und es wird ein rekonstruierter Datensatz zurückgegeben.
Eine optionales entferntes Betrachtungsstationssubsystem kann ebenfalls mit der Bedieneinheit 40 gekoppelt sein. Ein derartiges Subsystem fügt die Fähigkeit zur Fernbetrachtung von Echtzeitanzeigeaktualisierungen von 3D-Bildern bei der Erzeugung der Bilder während der Erfassung hinzu.
Fig. 5 zeigt ein Blockschaltbild des Visualisierungssubsystems 52. Eine Filterungskomponente 80 des Subsystems 52 wendet Bildverarbeitungsfilter auf die von dem DAS bereitgestellten Daten an. Eine derartige Filterung kann sowohl zweidimensionale als auch dreidimensionale Verarbeitungsschritte umfassen und ist zur Bildverbesserung, zur Bildwiederherstellung oder Verringerung von Bildartefakten, zur Bildkomprimierung und -dekomprimierung und zur für eine weiterentwickelte Visualisierung erforderlichen Vorverarbeitung verwendbar, wie es in dem Bereich der Technik allgemein bekannt ist. Im wesentlichen kann eine derartige Filterung während der Bilderfassung inkrementell auftreten. Eine derartige Filterung kann ebenfalls nach der Erfassung eines vollständig erfaßten Datensatzes ausgeführt werden. Wenn sie nicht erforderlich ist, kann die Filterungskomponente 80 z. B. zur Steigerung der Verarbeitungsgeschwindigkeit umgangen werden.
Eine Segmentierungskomponente 82 klassifiziert die gefilterten Daten in getrennte Kategorien. Die Komponente 82 kann inkrementell arbeiten, während die Daten erfaßt werden, oder sie kann arbeiten, nachdem alle Daten erfaßt sind. Die Segmentierung kann sowohl zweidimensionale als auch dreidimensionale Verarbeitungsschritte zur Bereitstellung von Informationen darüber, wie die relevanten Informationen aus den erfaßten Abbildungsdaten zu extrahieren sind, umfassen. Diese Informationen können mehrere Formen einschließlich Nachschlagetabellen über Bildeigenschaften und getrennte Volumina, die binäre Belegungs- oder Materialprozentsatzinformationen enthalten, aufweisen.
Eine Messungskomponente 84 arbeitet entweder in einer Echtzeitbetriebsart oder in einer Nacherfassungsbetriebsart an 2D-Bildern und 3D-Volumina. Die Messungskomponente 84 kann Berechnungen bei den erfaßten Bilddaten, den gefilterten Daten und/oder den segmentierten Daten ausführen. Die Messungen umfassen Abstand, Oberflächenbereich, Volumen, Bereiche von Interesse (Bildelement- oder Volumenelementmittelwerte und -standardabweichungen) und Verkalkungsauswertung, sind jedoch nicht darauf beschränkt. Wie bei anderen Visualisierungskomponenten können diese Berechnungen während der Erfassung inkrementell oder als ein Nachprozeß auftreten.
Eine Renderkomponente 86 erhält eine Ausgabe direkt von der Bildrekonstruktionseinrichtung 34 (Fig. 2), von der Filterungskomponente 80 oder von dem Segmentierungssubsystem 82 und berechnet ein neues Bild, das anzuzeigen ist. Die Renderkomponente 86 kann mehrere gerenderte Bilder der erfaßten Daten entweder in einer Echtzeitbetriebsart oder in einer Nacherfassungsbetriebsart erzeugen. Beide Betriebsarten unterstützen ein Betrachten von Daten entweder als einen 2D-Querschnitt oder als eine höherdimensionale Projektion des erfaßten Modells.
Eine Vermerkkomponente 88 vermerkt dem gerenderten Bild überlagerte Patienten- und Abtastinformationen. Für Merkmale wie beispielsweise einen Querverweis kann auch ein grafischer Vermerk zusätzlich zu Text bereitgestellt werden. Das Vermerken kann ebenso auf 3D-Renderings angewendet werden.
Die das Subsystem 52 steuernden Parameter können vor der Erfassung von dem Benutzer eingegeben werden oder in dem Abtastprotokoll enthalten sein. Die Parameter können ferner während der Erfassung lokal einstellbar sein.
Das Visualisierungssubsystem 52 unterstützt die Echtzeitanzeige von Querschnittsdaten. Auf dieses Visualisierungsmerkmal wird im allgemeinen als "Autoansicht" Bezug genommen. "Volumenautoansicht" oder "VAV", wie es dabei verwendet wird, bezieht sich auf eine inkrementell aktualisierte 3D-Ansicht der Daten bei der Erfassung der Daten. Die Volumenautoansicht ist mit dem Abbildungs-"Strom" von der Bildrekonstruktionseinrichtung verbunden und wird bei der Bedieneinheit 40 ausgeführt.
Während der Datenerfassung stellt die Volumenautoansicht eine inkrementell aktualisierte Echtzeit-3D-Ansicht der Daten bereit, während die Daten über die Zeit erfaßt werden. Auf dieses Renderverfahren wird dabei als dynamisches Datenrendern (DDR) Bezug genommen. Nachdem die Daten vollständig erfaßt sind, wird daraufhin ein Renderverfahren für statische Daten verwendet. Auf dieses Anzeigeverfahren wird dabei als statisches Datenrendern (SDR) Bezug genommen. Darüber hinaus wird die Fähigkeit zum Rendern sowohl statischer Daten als auch dynamischer Daten in einer integrierten Ansicht bereitgestellt. Auf diese Renderart wird als gemischtes Datenrendern (MDR) Bezug genommen. DDR, SDR und MDR sind nachstehend ausführlicher beschrieben.
Vor der Datenerfassung wird von dem Technologen eine Untersuchung vorgeschrieben. Die Volumenautoansicht ist mit dem Untersuchungsvorschriftssubsystem integriert, wodurch neue Parameter bereitgestellt werden, die bestimmen, wie das dynamische Volumen oder die dynamischen Volumina während der Erfassung visualisiert werden sollen. Genauer werden Parameter wie beispielsweise die Position und die Orientierung des 3D-Modells und der Ansicht, Farb- und Transparenzzuweisungen, Filterungs- und Segmentierungseinstellungen, das Visualisierungsverfahren und der Visualisierungsalgorithmus in dem Protokoll bestimmt. Die Visualisierungsparameter sind ebenfalls in spezifischen VIS-Abtastprotokollen enthalten. Das Filmen kann ebensogut wie die Erzeugung und Archivierung von Filmclips auch vor der Erfassung vorgeschrieben werden.
Bei einer Erfassung neuer Bilder filtert das Visualisierungssubsystem 52 die Bilder (falls erforderlich), während sie zu dem 3D-Modell hinzugefügt werden. Eine zweidimensionale und eine dreidimensionale Segmentierung zur Extraktion spezifischer Informationen aus den Bildern sind mit der Einschränkung, daß die gesamte Verarbeitung und das gesamte Rendern selbst bei sehr schnellen, eingreifenden ("Durchleucht-" bzw. "Fluoro-") Abtastbetriebsarten mit den Bilderzeugungsraten des Erfassungssubsystems "Schritt halten" muß, ebenfalls möglich. Ferner kann die Volumenautoansicht zum Erhalten von Echtzeitmessungen (z. B. Volumen von Interesse und Verkalkungsauswertung) bei dem dynamischen Volumen verwendet werden.
Die Volumenautoansicht kann in einer "Wackelbetriebsart" ("rock mode") ausgeführt werden. Genauer kann ein kleiner Drehungswinkel auf das 3D-Modell angewendet werden, typischerweise um die vertikale Achse und normal zu dem Betrachtungsvektor. Der Drehungswinkel variiert zyklisch, während das 3D-Modell von Bild zu Bild gerendert wird. Eine derartige automatische Drehung ist nicht nur bei der Bereitstellung einer weiteren Bildtiefe bei dem Visualisierungsprozeß nützlich, sondern ist für eingreifende Prozeduren besonders wertvoll, bei denen der Technologe/Radiologe/Eingreifende die Hände nicht zur Interaktion mit dem 3D-Modell während der Erfassung frei haben kann. Die Wackelbetriebsartparameter können in der Vorschrift enthalten sein und können auch durch den Benutzer eingestellt werden.
Die Volumenautoansicht umfaßt ebenfalls eine Vermischung von Geometriedaten mit Volumendaten. Beispielsweise kann ein geometrisches Modell einer Nadel in das Volumen eingebettet werden, und die Volumenautoansicht kann zur Verfolgung der Position der bei einer Biopsieprozedur verwendeten tatsächlichen Nadel verwendet werden. Eingebettete Geometrie kann ferner als dreidimensionale Vermerke in dem Volumen verwendet werden.
Es können auch mehrere Abbildungsfenster oder Darstellungsfenster 60 (Fig. 3) für unabhängige Visualisierungsparameter verwendet werden. Beispielsweise kann während einer Erfassung die Knochenstruktur aus einer pfeilrechten Ansicht in einem Fenster angezeigt werden, während das Gefäßsystem aus einer kranzartigen Ansicht in einem zweiten Fenster angezeigt werden kann. Es werden mehrere Darstellungsfenster jeweils mit einem unabhängigen Satz von Visualisierungsparametern bereitgestellt.
Ein wesentlicher klinischer Vorteil der Volumenautoansicht kann in der Behandlung von Traumafällen bestehen. In derartigen Notfallsituationen ist eine Minimierung der gesamten Untersuchungszeit entscheidend. Bedingt durch die zeitlichen Einschränkungen kann der Radiologe auf die herkömmlichen 3D-Nacherfassungsanalysen verzichten und sich einzig und allein auf die von den Querschnittsdaten vermittelten Informationen verlassen. Mit der Volumenautoansicht werden während der Erfassung ohne einen zeitlichen Nachteil zusätzliche 3D-Informationen für den Radiologen dargestellt, was bei der Ausbildung der richtigen Diagnose wesentlich sein kann.
Nach der Erfassung kann eine Überprüfungsanzeigebetriebsart verwendet werden, um mit dem Volumen von Daten zu interagieren und es weiter zu visualisieren, z. B. zur Extraktion zusätzlicher Informationen aus dem Volumen. Unter Verwendung eines Wiedergabemerkmals können Renderings des visualisierten Volumens zu einem nachstehend als VCR bezeichneten Videorecorder ausgegeben werden. Es kann auch eine Wiederholungsschleife verwendet werden, wie sie in Fig. 6 gezeigt ist, die das Volumen ebenso wiedergibt, wie es erfaßt wurde. Es können ferner Multimediafilmclips erzeugt und für eine spätere Wiedergabe archiviert werden.
Auf Fig. 7 Bezug nehmend kann das Volumen zur Visualisierung einer Scheibe oder eines Untervolumens (z. B. Scheibenfilm/-überlagerung) der Daten zu einer Zeit periodisch wiederholt werden. Darüber hinaus können 3D- Renderings in der Bilddatenbank installiert, archiviert, gefilmt oder vernetzt werden.
Das Rendersubsystem 86 arbeitet an zumindest einem volumetrischen Modell. Ein virtuelles Kameramodell ist definiert, um die Parameter zur Projektion eines volumetrischen Modells auf eine Bildebene zu bestimmen, die in Px × Py Bildelemente zerlegt ist. Das Kameramodell verwendet eine Projektionsmatrix M, die die nachstehend als Mapping bezeichnete Abbildung von den Kameraansichtskoordinaten auf die Modelldatenabtastwertkoordinaten definiert. Diese Matrix ist für das Seitenverhältnis der Abtastwerte in dem Volumen und alle Transformationen (z. B. Skalierung, Verschiebung und Drehung) bei dem volumetrischen Objekt und der Kamera verantwortlich. Die Matrix M unterstützt übliche Projektionsverfahren einschließlich paralleler und perspektivischer Ansichtstransformationen.
Die Projektion des volumetrischen Modells auf die Bildebene wird z. B. unter Verwendung eines nachstehend als Ray- Casting bezeichneten Strahlwurfs oder einer nachstehend als Textur-Mapping bezeichneten Texturabbildung erreicht. Selbstverständlich können andere Bildordnungsverfahren verwendet werden. Das als Ray-Casting (RC) bekannte Bildordnungsverfahren wirft einen Strahl von jedem Bildelement in der Bildebene in das Volumen. Das Volumen wird daraufhin entlang des Strahls abgetastet, und es werden zur Erzeugung eines endgültigen Bildelements für das Bild Datenwerte kombiniert. Abtastwerte können optional auf verschiedene Größen wie beispielsweise Farbe oder Opazität abgebildet bzw. gemappt werden, um übliche Volumenrenderverfahren zu unterstützen. Übliche auf Abtastwerte entlang dem Strahl angewendete Operationen sind maximale Intensität (MIP), Durchschnitt, Kombination (compositing) und Kombination mit Schattierung.
Alternativ kann ein Hardware-Textur-Mapping-Verfahren (Hardware-TM-Verfahren) verwendet werden. Bei dem Hardware- TM handelt es sich um ein Objektordnungsverfahren, bei dem Datenabtastwerte unter Verwendung von Hardware zum textur­ gemappten geometrischen Rendern in der richtigen Reihenfolge durchgegangen und gemischt werden. Die Abtastwerte (oder ihre RGBA-gemappten Werte) werden auf Polygone gemappt, und die Polygone werden auf die Bildebene projiziert. Abhängig von der TM-Hardware können die projizierten Ebenen entweder an Achsen ausgerichtet (2D-TM- Hardware) oder schräg und parallel zu der Kameraansichtsebene (3D-TM-Hardware) sein. Ähnlich wie bei dem RC können die Datenabtastwerte in andere Eigenschaften wie beispielsweise Farbe und Opazität gewandelt werden, um übliche Volumenvisualisierungsrenderverfahren zu unterstützen. Alle bei dem RC verfügbaren Operationen an Abtastwerten sind unter Verwendung eines TM-Verfahrens möglich. Sowohl RC-Verfahren als auch TM-Verfahren, die allgemein bekannt sind, können zur Unterstützung der nachstehend beschriebenen drei Renderbetriebsarten verwendet werden.
Wenn das zu rendernde Volumenmodell sich über die Zeit ändert, muß der Renderprozeß diese Änderungen bei dem nächsten gerenderten Bild berücksichtigen. Fig. 8 veranschaulicht ein Volumenmodell, bei dem ein Schnitt durch neue Daten ersetzt worden ist. Bei dieser Art von Änderung kann das Rendern auf zwei Weisen ausgeführt werden. Eine einfache Strategie roher Gewalt zum Rendern besteht darin, zur Erzeugung eines aktuellen Bilds alle soweit erfaßten Daten vollständig zu rendern. Es können jedoch wesentliche Ersparnisse erhalten werden, falls die Kamera und das volumetrische Modell stationär bleiben. In diesem Fall ist es möglich, zur Berücksichtigung einer Änderung bei den Volumendaten ein vorheriges Rendering inkrementell zu aktualisieren.
Unter Verwendung des TM wird z. B. ein neues Rendering erreicht, indem der Beitrag jedes neuen Schnitts zu dem vorher berechneten Bild hinzugefügt wird. Fig. 9 veranschaulicht den Volumenzuwachs in der Größe zu dem Betrachter hin, während neue Schnitte zu einem Ende des Volumens hinzugefügt werden. Wenn ein neuer Schnitt verfügbar ist und unter Verwendung des DDR-Verfahrens werden alle textur-gemappten Polygone zwischen dem letzten Schnitt und dem neuen Schnitt verwendet. Die die Farben und Opazitäten des neuen Schnitts enthaltenden textur-gemappten Polygone werden durch die inverse Projektionsmatrix M-1 transformiert, abtastgewandelt und mit dem derzeitigen Bild in dem Bildzwischenspeicher gemischt. Der neu hinzugefügte Schnitt kann mit Bezug auf den Betrachter entweder zu der Vorderseite oder zu der Rückseite des Volumens hinzugefügt werden. Eine Hinzufügung des Schnitts vor den bereits gerenderten Schnitten ist wünschenswert, da sie es dem Benutzer ermöglicht, die neuesten erfaßten Informationen zu betrachten, und bei der Kombination keinen zusätzlichen Speicher in dem Bildzwischenspeicher zur Speicherung partieller Opazitätsergebnisse erfordert. Eine Hinzufügung von Schnitten hinter den vorher gerenderten Schnitten erfordert die Verwendung einer Kombination von vorne nach hinten und erfordert daher zusätzlichen Speicher pro Bildelement.
Falls eine Schattierung ausgeführt wird, müssen die berechneten Normalen des vorher gerenderten Schnitts modifiziert werden. Der Beitrag des vorherigen Schnitts ist jedoch bereits in das derzeitige Bild gemischt. Das Rendern kann um einen Schnitt oder mehr Schnitte verzögert werden, so daß alle Informationen für den Schnitt verfügbar sind, wenn sein Beitrag zu dem gerenderten Bild ausgebildet wird.
Die rechnerische Komplexität des Renderns eines Volumenmodells mit dem Ansatz roher Gewalt ist O(N), wobei es sich bei N um die Anzahl von Ebenen in dem Volumen handelt. Ein inkrementeller Ansatz für das Rendern verringert die rechnerische Komplexität des Renderns auf O(1), da für jeden zu dem Volumenmodell hinzugefügten Schnitt lediglich 1 zusätzlicher Schnitt gerendert werden muß.
Bei dem inkrementellen Rendern besteht die einzige zwischen Rendervorgängen unterstützte Änderung in der Hinzufügung von Daten an der Volumenmodellgrenze. Ferner muß die Orientierung des Volumenmodells mit Bezug auf die Kamerabildebene derart sein, daß der Absolutwert des Winkels zwischen einer Schnittnormalen und der Bildebenennormalen sich innerhalb von 90 Grad befindet. D. h., die Kamera muß das Volumen vorwiegend durch die axialen Schnitte betrachten.
Ein RC-Ansatz für das inkrementelle Rendern funktioniert größtenteils auf die gleiche Weise wie der TM-Ansatz, jedoch mit weniger Einschränkungen. Bevor Renderings des Volumens ausgebildet werden und für jedes Bildelement in dem gerenderten Bild werden Strahldefinitionen für jedes Bildelement in dem Volumen gespeichert. Wenn ein neuer Schnitt zu dem Volumenmodell hinzugefügt wird, werden die Strahlen bestimmt, die unmittelbar beeinflußt werden, und es wird für jeden der Beitrag des neuen Schnitts berechnet. Mit diesem Ansatz ist keine Einschränkung für den Betrachtungswinkel des Volumenmodells vorhanden. Ähnlich wie bei dem TM handelt es sich bei der rechnerischen Komplexität für die Hinzufügung eines neuen Schnitts zu dem Volumen um eine Konstante.
Es ist häufig wünschenswert, die letzten N während der Abtastung erfaßten Schnitte zu zeigen. Auf diese Anzeigeart wird als Gleitfensterverfahren Bezug genommen. Fig. 10 veranschaulicht, daß während des Fortgangs der Abtastung Schnitte zu dem Modell hinzugefügt und aus dem Modell entfernt werden.
Ein Verfahren zum Rendern eines Gleitfenstermodells rekonstruiert und rendert bei der Abtastung jedes neuen Schnitts ein völlig neues Volumen. Ähnlich wie bei dem inkrementellen Rendern kann ein Gleitfensterrenderverfahren einen Vorteil aus vorherigen Renderergebnissen ziehen, falls die Kameraansicht mit Bezug auf das Volumenmodell fest ist.
Zum effizienten Rendern eines Volumenmodells, nachdem eine Änderung an einem Schnitt ausgebildet wurde, kann eine hierarchische Datenstruktur verwendet werden. Die hierarchische Datenstruktur ist in der Form eines binären Baums vorhanden, wobei es sich bei den Blattknoten um die ursprünglichen Schnitte handelt und bei den inneren Knoten um die bei einem Rendern von Paaren von Schnitten erzeugten Bilder handelt. Fig. 11 veranschaulicht einen aus 8 ursprünglichen Schnitten erzeugten Baum. Ein Knoten F enthält das bei einer Projektion von lediglich Schnitt 5 und 6 auf die Kameraansichtsebene erzeugte Bild (typischerweise die Farbe (R, G, B) und Opazität (A) für jedes Bildelement). Ein Knoten C enthält das bei einer Projektion von Knoten F und G erzeugte Bild und stellt daher auch die Projektion von Schnitten 5 bis 8 dar. Knoten A-G speichern ein Bild der partiellen Ergebnisse des Renderns des gesamten Volumenmodells. Diese projizierten Bilder weisen die gleiche Größe wie die Kameraansichtsebenengröße auf, die Px × Py Bildelemente beträgt.
Wenn eine Änderung an einem Schnitt ausgebildet wird, kombiniert ein derartiges Rendern alle Knoten neu, die durch die Änderung beeinflußt werden können. Wie es in Fig. 11 gezeigt ist, hat sich der Schnitt 6 geändert, und daher müssen die Bilder bei den Knoten F, C und A neu berechnet werden. Dieses Verfahren verringert die rechnerische Komplexität des Renderns einer einzelnen Schnittänderung bei einem Volumen wirksam von O(N) auf O(log(N)), wobei es sich bei N um die Anzahl von Schnitten in dem Volumenmodell handelt.
Alternativ kann jedes Blatt des Baums eine Ebene von Abtastwerten darstellen, die sich nicht notwendigerweise auf einem ursprünglichen Schnitt befinden. Eine Form von Interpolation wie beispielsweise eine trilineare Interpolation kann zur Berechnung der Abtastwerte verwendet werden. Falls ein einzelner ursprünglicher Schnitt eines Volumenmodells modifiziert wird, wird er eine Wirkung auf jede Abtastung aufweisen, die in dem Bereich von 1 Schnitt um ihn stattfindet. In diesem Fall ändern sich mehrere Blätter des Baums und es besteht eine Möglichkeit, daß zur Berechnung eines neuen Bilds mehr Knoten verarbeitet werden müssen.
Fig. 11 veranschaulicht einen Fall, in dem sich der geänderte Schnitt innerhalb des vorher gerenderten Modells befindet. Falls der Schnitt zu dem Modell hinzugefügt oder aus dem Modell entfernt wird, muß sich die hierarchische Datenstruktur zur Berücksichtigung der Hinzufügung ändern. Falls ein Schnitt 9 zu dem Volumenmodell hinzugefügt wird, wird ein neuer Knoten H auf der gleichen Ebene wie G in den Baum eingefügt. Unterstützende Knoten werden ebenfalls ausgebildet, und der sich ergebende Baum befindet sich vorübergehend nicht im Gleichgewicht.
Das Gleitfensterrenderverfahren kann auch mit dem RC realisiert werden. Jeder Strahlwurf bildet eine hierarchische Datenstruktur aus, die partielle Ergebnisse für Paare von Abtastwerten entlang dem Strahl speichert. Falls entlang dem Strahl eine Änderung auftritt, kann das partielle Ergebnis zur Ausbildung eines neuen Renderings effizient neu kombiniert werden.
Das vorstehend beschriebene hierarchische Rendern ist auf ein breites Spektrum von Abtastverfahren anwendbar. Das Verfahren unterstützt ein effizientes Rendern jeder Änderung in einem volumetrischen Modell. Wenn z. B. mit einem Ultraschalltastkopf freihändig abgetastet wird, kann jede durch das Modell schneidende Ebene erfaßt und aktualisiert werden. Dieses hierarchische Renderverfahren unterstützt das effiziente Rendern dieser willkürlichen Aktualisierungen.
Während Daten erfaßt werden, werden alle zur Nachverarbeitungsvisualisierung erforderlichen Informationen inkrementell berechnet. Wenn das Abtastsystem ein volles Volumen erfaßt hat, kann das Modell daraufhin unter Verwendung von Standardvolumenvisualisierungsverfahren wie beispielsweise TM oder RC visualisiert werden. Die Bedienungsperson kann die abgetasteten Daten bei einer dreidimensionalen Anzeige unmittelbar überprüfen.
Ein Volumenmodell enthält häufig mehr als lediglich eine Sammlung von Schnitten. Gradienteninformationen bei jedem Ort werden typischerweise zusätzlich zu Segmentierungsvolumina berechnet. Es ist vorteilhaft, diese Informationen vorzuberechnen, da ihre Berechnung während des Renderns sehr zeitraubend und rechnerisch aufwendig ist. Der Aufbau dieser zusätzlichen Datenstrukturen kann während der Abtastung inkrementell ausgeführt werden, falls ausreichende Datenverarbeitungsbetriebsmittel verfügbar sind.
Das gemischte Datenrendern (MDR) kombiniert sowohl ein statisches, vorher erfaßtes Volumenmodell als auch dynamische Daten miteinander. Fig. 12 veranschaulicht ein Volumenmodell, bei dem alle Schnitte bis auf einen Schnitt statisch sind. Der dynamische Schnitt ändert sich kontinuierlich, während die Abtasteinrichtung neue Informationen auf der Ebene erfaßt. Ein Rendern dieser Art von gemischten Daten kann entweder mit einem Ansatz roher Gewalt, d. h. einem Rendern des gesamten Volumens jedesmal, oder mit Rendervarianten fester Ansicht erreicht werden. Für die in Fig. 12 veranschaulichte Situation kann ein Bild P aller vor dem dynamischen Schnitt projizierten Schnitte sowie ein Bild Q aller nach dem dynamischen Schnitt projizierten Schnitte gespeichert werden. Wenn ein neuer dynamischer Schnitt R erfaßt wird, vereinfacht sich das Rendern zu einer Kombination des Bilds P, daraufhin der Projektion des dynamischen Schnitts und schließlich des Bilds Q.
Das MDR ist möglicherweise bei einer CT- Durchleuchtungseinstellung nützlich, z. B. wenn eine vorher erfaßte Abtastung das Vorhandensein wichtiger Anatomie vor und hinter dem Erfassungsbereich angeben kann. Diese Fähigkeit kann z. B. visuelle Informationen über den 3D-Ort und die Struktur nahegelegener Rippen für einen eingreifenden Radiologen darstellen, während eine Nadelbiopsie ausgeführt wird.
Das vorstehend beschriebene Volumenabbildungssystem baut stufenweise dreidimensionale Modelle auf, analysiert und aktualisiert sie, während Querschnittsdaten (nicht darauf beschränkt, jedoch einschließlich axialer Querschnittsdaten) erfaßt werden. Das System baut dreidimensionale Renderings auf und zeigt sie an und führt während des Abbildungssystemdatensammlungsprozesses quantitative Berechnungen in Echtzeit aus, zeigt interaktive dreidimensionale Renderings in einem herkömmlichen Nachdatensammlungsprozeß an sowie schreibt vor, archiviert und filmt und überträgt während der Datensammlung und Nacherfassung Renderprozeduren, Parameter, Renderings, Messungen und verarbeitete Daten.
Die vorstehend beschriebenen Renderverfahren sind auf jede Art von Abtastbetriebsart einschließlich Einzelschnittabtastbetriebsarten und volumetrischen Abtastbetriebsarten anwendbar. Für die volumetrische Abtastung umfaßt der erfaßte Abbildungsdatenstrom einfach eine Sammlung von 3D-Bildern.
Zur Bereitstellung einer unmittelbareren Rückmeldung in medizinischen oder chirurgischen Umgebungen stellt ein Ausführungsbeispiel des Visualisierungssubsystems 52 ein interaktives Volumenrendern mit schnellem Ansprechverhalten unter Verwendung relativ preiswerter Hardware bereit. Dieses Ausführungsbeispiel stellt eine Ansprechzeit bereit, die schnell genug ist, um es der Bedienungsperson zu ermöglichen, interaktive Einstellungen zur Hervorhebung wichtiger Informationen in dem Volumen auszuführen, während eine im wesentlichen unverzügliche visuelle Rückmeldung zur Führung seiner oder ihrer Auswahl erhalten wird.
Bei einem Ausführungsbeispiel der Erfindung wird ein 3D- Rendern bereitgestellt, das eine sehr interaktive Renderleistungsfähigkeit auf einer anspruchslosen Grafikworkstation (z. B. einer medizinischen Abbildungsabtasteinrichtungsbedieneinheit oder Analyse-/Überprüfungsworkstation) erreicht. Dieses Ausführungsbeispiel verwendet eine intuitive Volumenvisualisierungsanwendung, die einen durch ein Untersuchungsprotokoll definierten Satz von VR- Voreinstellungen in Verbindung mit einer nichtkomplexen VR- Kurve und Volumenbeschneidungssteuereinrichtungen, die eine Echtzeitrückmeldung bereitstellen, verwendet.
Interaktive Renderraten werden erreicht, indem ein Verfahren oder mehr Verfahren von unterschiedlichen Verfahren verwendet werden. Bei dem ersten Verfahren handelt es sich um eine Volumendezimierung, die eine gesteigerte Effizienz durch ein Rendern einer kleineren Version eines Bilddatenvolumens während der Interaktion erreicht. Beispielsweise wird 1/4 × 1/4 × 1/2 eines vollen Volumens statt des vollen Volumens gerendert. Das zweite Verfahren besteht darin, die Größe der verwendeten Rendermatrix zu verringern. Beispielsweise wird eine Rendermatrix von 256 × 256 Datenpunkten während des interaktiven Renderns in einem sichtbaren Darstellungsfeld auf ein Rendering von 512 × 512 vergrößert bzw. gezoomt (z. B. unter Verwendung einer bilinearen Interpolation). Wenn schließlich dreidimensionale Texturen gerendert werden, wird die Grobheit der Abtastung und/oder die Polygonschrittgröße erhöht. Beispielsweise wird eine Abtastung von 1/2 verwendet, wodurch ein Abstand zwischen Abtastebenen verdoppelt wird.
Bei diesem Ausführungsbeispiel umfaßt die Visualisierungssubstation 52 eine Grafikworkstation. Ein Beispiel für eine Grafikworkstation mit ausreichender Leistung zur bequemen Erreichung der für die Erfindung gewünschten sehr interaktiven Renderleistungsfähigkeit stellt eine SGI® Octane® Workstation (von Silicon Graphics, Inc., Mountain View, Kalifornien, USA erhältlich) mit einer MIPS® R12000® CPU (MIPS Technologies, Inc., Mountain View, Kalifornien, USA) mit 275 MHz, 1024 MB RAM, 32 KB Anweisungshilfsspeicher, 32 KB Datenhilfsspeicher, 2 MB Sekundärhilfsspeicher und SGI® Grafikhardware "SI mit Texturoption" dar. Für einen typischen medizinischen Bilddatensatz mit 200 Schnitten von 512 × 512 Bilddaten weist dieses Ausführungsbeispiel eine typische interaktive Renderzeit von 0,15 bis 0,2 Sekunden auf. Andere Ausführungsbeispiele verwenden Workstations mit einer größeren oder kleineren Leistungsfähigkeit. Für wesentlich weniger leistungsfähige Workstations kann es jedoch schwierig sein, einen gewünschten Grad von sehr interaktiver Renderleistungsfähigkeit zu erreichen.
Mit Bezug auf Fig. 13 wird ein Volumen von Bilddaten 62, das sowohl ein Volumen voller Größe von Volumenelementen 90 als auch ein Volumen voller Größe von Normalen 92 (für eine VR-Schattierung) umfaßt, in einem Renderpfad voller Genauigkeit 94 zur Erzeugung eines aus dem Volumen 62 abgeleiteten Bilds voller Genauigkeit verwendet. Eine (in Fig. 13 nicht gezeigte) Renderkomponente 86 tastet das Volumenelementvolumen 90 und das Normalenvolumen 92 unter Verwendung eines dreidimensionalen Textur-Mappings zum Mappen des Volumens 90 auf bestimmte Polygone vollständig ab. Diese Mapping-Ergebnisse werden in einen eine Matrix von Zwischen-3D-Ergebnissen enthaltenden 512 × 512 Zwischenspeicher 96 voller Größe kombiniert. Eine Software 98 basiert auf üblichen TM-Verfahren, aber die Verfahren sind zur Unterstützung sowohl eines interaktiven Renderns als auch eines Renderns voller Genauigkeit modifiziert, indem sie Volumen unterschiedlicher Größe (voll und dezimiert), 3D-Rendermatrizen unterschiedlicher Größe (z. B. 512 × 512 und 256 × 256) und eine variable Polygonschrittgröße (z. B. 100% oder, wie bei einem Ausführungsbeispiel verwendet, 50%) handhaben.
Ein Zwischenspeicher 96 wird von der Renderkomponente 86 zum dazwischenliegenden oder endgültigen Rendern in in einem Zusatzspeicher 100 gespeicherte Bildelemente verwendet. Die Zwischenrenderings werden mit einem mehrfachen Zeichnen/Kopieren von Bildelementen oder zweidimensionalen TM-Aufrufen pro vollständigem dreidimensionalem Rendering auf einem 3D-Darstellungsfeld 102 gezeigt, bei dem es sich um einen mit einer Anzeige gekoppelten 512 × 512 Zwischenspeicher handelt. Eine Vermerkkomponente 88 wird verwendet, wenn es gewünscht ist, Vermerke auf Renderings bereitzustellen. Dazwischenliegende und/oder endgültige Renderings werden unter Verwendung von Bildschirmsicherungen oder Film mit Vermerken (falls bereitgestellt) gesichert 104.
Ein zweiter, interaktiver Pfad 106 ist für ein schnelles Rendern verringerter Genauigkeit eines Bildvolumens ebenfalls bereitgestellt. Der Pfad 106 erzeugt Bilder schneller und mit geringerer Genauigkeit als der Renderpfad 94. Ein ein dezimiertes Volumen von Volumenelementen 108 und ein dezimiertes Volumen von Normalen 110 (für eine VR- Schattierung) umfassendes dezimiertes Volumen von Bilddaten 64 wird von dem Visualisierungssubsystem 52 aus dem Abbildungsvolumen 62 abgeleitet, indem das Volumenelementvolumen 90 und das Normalenvolumen 92 des Bildvolumens 62 dezimiert werden. Aus den Volumina 108 und 110 erzeugte dreidimensionale Texturen werden unter Verwendung von Polygonen mit einem Abstand von 100% Volumenelementgröße in eine in dem Zwischenspeicher 96 enthaltene Rendermatrix 112 von 1/4 Größe (256 × 256) gemappt. (Bei anderen Ausführungsbeispielen wird eine Rendermatrix 112 anderer Größe verwendet, die jedoch kleiner als die Rendermatrix des Renderpfads voller Genauigkeit 94 ist, und folglich wird lediglich ein Teil 112 verwendet, der kleiner als die Gesamtheit des Zwischenspeichers 96 ist). Das in der Rendermatrix 112 gespeicherte Zwischenrendering stellt ein 3D- Volumenrendering des dezimierten Bildvolumens 64 dar. Die Rendermatrix wird in einen Kurzzeitzwischenspeicher 114 gleicher Größe zurückgelesen und wird unter Verwendung z. B. einer Bildelementwiederholung oder einer bilinearen Interpolation mit zweidimensionalem TM-Rendern (falls eine bilineare Interpolation verwendet wird) zur Anzeige in dem 3D-Darstellungsfeld 102 auf 512 × 512 vergrößert. Die Vermerkkomponente 88 wird verwendet, wenn es gewünscht ist, Vermerke auf diesen Renderings bereitzustellen. Bei einem Ausführungsbeispiel wird das dezimierte Bildvolumen zur schnellen Erzeugung eines Bilds verringerter Genauigkeit mit beabstandeten Polygonen mit einem ersten Abstand abgetastet, und das Bildvolumen voller Größe (d. h., das nicht dezimierte Bildvolumen) wird mit beabstandeten Polygonen mit einem zweiten Abstand abgetastet. Der erste Abstand stellt eine breitere Beabstandung als der zweite Abstand dar.
Mit Bezug auf Fig. 14 sind eine einfache VR- Kurvensteuereinrichtung 116 und Beschneidungssteuereinrichtungen 118, 120 und 122 mit einer Echtzeitrückmeldung bereitgestellt, die zu einer einfachen, intuitiven Benutzerschnittstelle führen. Bei den Steuereinrichtungen 116, 118, 120 und 122 handelt es sich bei einem Ausführungsbeispiel um virtuelle Steuereinrichtungen, die auf einem (nicht gezeigten) Bildschirm des Visualisierungssubsystems 52 bereitgestellt sind und mit einer Maus oder Tastatur bedient werden.
Histogramme, Schwellen und Schnittlinien werden vermieden, wodurch die Komplexität von Querverweisbildern beseitigt wird. Folglich werden erforderliche Einstellungen der anfänglichen Visualisierungsparametervoreinstellungen erheblich schneller ausgeführt, um relevante Informationen aus einem Volumen zu extrahieren. Einstellungen zumindest eines durch die Verwendung des interaktiven Renderpfads verringerter Genauigkeit 106 bestimmten Visuellen Parameters wählen eine auf ein Rendern voller Genauigkeit anzuwendende Einstellung aus. Bei einem Ausführungsbeispiel rendert der Renderpfad voller Genauigkeit ein Bild voller Genauigkeit des Bildvolumens 90, und die ausgewählte Einstellung wird auf das Bild voller Genauigkeit angewendet und in dem 3D-Darstellungsfeld 102 angezeigt. Somit werden eine gesteigerte Produktivität und ein verbesserter Arbeitsablauf in der klinischen Umgebung bereitgestellt.
Eine einzelne "Einknopf"-Steuereinrichtung 116 für VR- Kurveneinstellungen wird bei einem Ausführungsbeispiel der Erfindung verwendet. Einstellungen der Steuereinrichtung führen z. B. zu horizontalen oder vertikalen Verschiebungen von Kurvenpunkten, wie es in Fig. 15 und 16 gezeigt ist, oder zu einer Änderung der Neigung zwischen benachbarten Bildelementen, wie es in Fig. 17 und 18 gezeigt ist. Die von der Steuereinrichtung 116 ausgeführte spezifische Operation und Einstellung werden bei jedem Ausführungsbeispiel durch eine VR-Voreinstellung definiert, jedoch müssen keine der Einzelheiten für den Benutzer offengelegt werden. Es kann eine Analogie zu Radioabstimmeinrichtungen alten Typs ausgebildet werden, wobei die VR-Voreinstellung einer Radioabstimmeinrichtungsvoreinstellungstaste entspricht, während die Einknopf-VR-Kurvensteuereinrichtung analog zu der Radiofeinabstimmeinrichtung ist.
Bei einem in Fig. 15 und 16 veranschaulichten beispielhaften Ausführungsbeispiel werden Einstellungen der VR-Kurvensteuereinrichtung 116 in eine horizontale Verschiebung von inneren Kurvenpunkten um ein festes Inkrement gemappt. Bei diesem Ausführungsbeispiel werden Volumenelementen in einem gewissen Bereich (oder gemäß einer willkürlichen, bestimmten Funktion) auf eine Art und Weise Opazitäten zugewiesen, die diese Volumenelemente hervorhebt und andere Volumenelemente weniger hervorhebt oder verbirgt. Der Ort dieses Bereichs wird abhängig von den bei der VR-Kurvensteuereinrichtung 116 ausgebildeten Einstellungen variiert. Eine derartige Einstellung kann z. B. zur Hervorhebung von Gefäßen verwendet werden, während die Hervorhebung von Knochen und anderen Geweben verringert wird.
Bei einem in Fig. 17 und 18 gezeigten weiteren beispielhaften Ausführungsbeispiel werden Einstellungen bei der VR-Kurvensteuereinrichtung 116 in eine Änderung der Neigung einer gültigen Anstiegsrampe gemappt, wodurch eine 3D-Fensterniveauausgleichsfähigkeit (3D window-leveling capability) bereitgestellt wird. Bei noch einem Ausführungsbeispiel weist die VR-Kurvensteuereinrichtung 116 mehr als eine Funktion auf, wobei die Funktion interaktiv auswählbar ist. Darüber hinaus muß die VR- Kurvensteuereinrichtung nicht mit dem GUI-Schieber realisiert sein. Bei einem Ausführungsbeispiel wird sie durch Ziehen mit der Maus in dem 3D-Darstellungsfeld gesteuert.
Somit wird bei einem Ausführungsbeispiel und mit Bezug auf Fig. 15 und 16 das dezimierte Bildvolumen interaktiv rekonstruiert, während eine Beziehung zwischen Opazität und Volumenelementwert von einem voreingestellten Niveau aus eingestellt wird. (Bei einem CT-Abbildungssystem sind die Volumenelementwerte äquivalent zu Houndsfeld-Einheiten). Genauer weist bei diesem Ausführungsbeispiel die Beziehung zwischen Opazität und Volumenelementwert für einen ausgewählten Bereich von Volumenelementwerten höhere Opazitätswerte zu. Die Einstellung der Beziehung zwischen Opazität und Volumenelementwert bedeutet somit eine Änderung eines Bereichs von Volumenelementwerten, zu denen die höheren Werte der Opazität zugewiesen werden, im Ansprechen auf eine benutzerbetätigte Steuereinrichtung 116. Somit handelt es sich bei diesem Ausführungsbeispiel bei der Opazität um einen einstellbaren visuellen Parameter. (Es wird als äquivalent angesehen, einen Bereich von Volumenelementwerten zu ändern, bei dem niedrigere Opazitätswerte bereitgestellt werden, da diese Änderung ebenfalls auftreten muß. Siehe Fig. 15 und 16). Bei einem weiteren Ausführungsbeispiel und mit Bezug auf Fig. 17 und 18 stellt die Beziehung zwischen Opazität und Volumenelementwerten in einem ausgewählten Bereich von Volumenelementwerten eine Grenzneigung bereit, und eine Beziehung zwischen Opazität und Volumenelementwerten wird eingestellt, indem im Ansprechen auf eine benutzerbetätigte Steuereinrichtung 116 ein Bereich von Opazitäten geändert wird, bei dem die Grenzneigung bereitgestellt wird.
Bei einem Ausführungsbeispiel und wieder mit Bezug auf Fig. 14 sind intuitive Schiebersteuereinrichtungen 118, 120 und 122 für jede der rechten/linken, vorderen/hinteren bzw. oberen/unteren Volumenbeschneidungsebenen bereitgestellt. Mit Bezug auf Fig. 19 sind diese Steuereinrichtungen zur interaktiven Einstellung von Orten von Beschneidungsebenen 124 tätig, die ein Untervolumen oder Volumen von Interesse (VOI) in einem Stapel von Bildern 126 definieren, die ein gesamtes Bildvolumen 128 bilden. Somit wird ein Satz von ein Volumen von Interesse (VOI) definierenden Volumenbeschneidungsebenen 124 selektiv bereitgestellt, und die Volumenbeschneidungsebenen werden gemäß einer Einstellung von Schiebersteuereinrichtungen 118, 120 und 122 ausgewählt. Bei diesem Ausführungsbeispiel handelt es sich bei dem benutzerdefinierten VOI um einen einstellbaren visuellen Parameter.
Eine interaktive "Justierung" oder Einstellung zur Extraktion relevanter Daten erfordert bei einem Ausführungsbeispiel unter Verwendung der SGI-Workstation eine Minute oder weniger pro Untersuchung.
Bei einem Ausführungsbeispiel, das einen Ray-Casting-Ansatz mit lediglich Software verwendet, werden ähnliche Verfahren zur Erreichung interaktiver Volumenrenderraten verwendet. Bei diesem Ausführungsbeispiel wird das Volumen deutlich unterabgetastet und in eine kleinere Rendermatrix gerendert, die daraufhin vergrößert wird. Bei einem weiteren Ausführungsbeispiel unter Verwendung des Ray- Casting-Ansatzes mit lediglich Software wird während des interaktiven Renderns ein Abtastschema "nächster Nachbar" verwendet, um den rechnerischen Aufwand einer trilinearen Interpolation zu vermeiden, der Rendervorgängen voller Genauigkeit innewohnt. Bei einigen Ausführungsbeispielen kann ferner zur Erreichung von Bildern des interaktiven Renderns eine kleinere, dezimierte Version des Bildvolumens verwendet werden. Bei einem Ausführungsbeispiel sind entweder der interaktive Renderprozeß oder der Renderprozeß voller Genauigkeit oder beide Renderprozesse multithreading-fähig, d. h. können in mehrere gleichzeitige Unterprozesse geteilt werden, um einen Vorteil aus zusätzlicher Verarbeitungsleistung auf einem Mehrprozessorcomputersystem zu ziehen.
Es ist somit offensichtlich, daß Ausführungsbeispiele der Erfindung Lösungen für Probleme bekannter Systeme zum Rendern von Volumen von Bilddaten bereitstellen. Beschriebene Ausführungsbeispiele der Erfindung stellen z. B. ein interaktives Volumenrendern unter Verwendung relativ preiswerter Hardware bereit. Einige der beschriebenen Ausführungsbeispiele stellen interaktive Steuereinrichtungen mit einem schnellen Ansprechverhalten zur Verringerung der zur Analyse von Bildern benötigten Zeit bereit. Bei einigen Ausführungsbeispielen wird ein ausreichend schnelles Ansprechverhalten bereitgestellt, so daß eine interaktive Hervorhebung von wichtigen Informationen erreicht werden kann, während eine im wesentlichen unmittelbare visuelle Rückmeldung erhalten wird. Darüber hinaus wird eine wesentliche Komplexität bei Benutzerschnittstellen verringert, und es wird ein intuitiver Ansatz zur schnellen Extraktion relevanter Daten aus einem Volumen bereitgestellt. Ein konstantes Niveau von interaktiver Renderleistungsfähigkeit kann ohne Rücksicht auf die Volumenelementwerte bei einem Bildvolumen oder eine derzeitige Einstellung der Renderopazitätskurve des Bildvolumens erreicht werden. Somit können einfache Benutzerschnittstellensteuereinrichtungen wie beispielsweise Opazitäts- und Beschneidungsebenensteuereinrichtungen mit einer glatten und konstanten Rückmeldungsrate bereitgestellt werden.
Während die Erfindung hinsichtlich verschiedener spezifischer Ausführungsbeispiele beschrieben ist, erkennen Fachleute, daß verschiedene Modifikationen im Rahmen des Inhalts und Schutzbereichs der beigefügten Patentansprüche möglich sind.
Bei einem Ausführungsbeispiel der Erfindung handelt es sich um ein Verfahren zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten, wobei das Verfahren die Schritte des schnellen Erzeugens von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen; des Einstellens des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung; des Erzeugens eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und des Anwendens der ausgewählten Einstellung auf das Bild voller Genauigkeit aufweist.
Dieses Ausführungsbeispiel stellt eine interaktive Volumenrenderfähigkeit mit relativ preiswerter Hardware und einem schnellen Ansprechverhalten zur Verringerung der zur Analyse von Bildern benötigten Zeit bereit.

Claims (26)

1. Verfahren zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten (62) mit den Schritten:
schnelles Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
2. Verfahren nach Anspruch 1, wobei die schnelle Erzeugung von aus einem Bildvolumen (62) abgeleiteten Bildern verringerter Genauigkeit die Schritte des Dezimierens eines Bildvolumens voller Größe zur Erzeugung eines dezimierten Bildvolumens (64) und des Rekonstruierens des dezimierten Bildvolumens umfaßt.
3. Verfahren nach Anspruch 2, wobei die Rekonstruktion des dezimierten Bildvolumens (64) den Schritt des Mappens von aus dem dezimierten Bildvolumen erzeugten dreidimensionalen Texturen unter Verwendung von Polygonen zur Erzeugung eines Zwischenrenderings umfaßt.
4. Verfahren nach Anspruch 3 mit dem Schritt des Zoomens des Zwischenrenderings mit bilinearer Interpolation zur Anzeige in einem dreidimensionalen Darstellungsfeld (102).
5. Verfahren nach Anspruch 3 mit dem Schritt des Zoomens des Zwischenrenderings durch eine Bildelementwiederholung.
6. Verfahren nach Anspruch 2, wobei ein benutzerdefiniertes Volumen von Interesse der einstellbare visuelle Parameter ist und die Rekonstruktion des dezimierten Bildvolumens (64) den Schritt des selektiven Bereitstellens eines Satzes von Volumenbeschneidungsebenen (124) zur Definition des Volumens von Interesse umfaßt.
7. Verfahren nach Anspruch 6, wobei die selektive Bereitstellung eines Satzes von Volumenbeschneidungsebenen (124) zur Definition des Volumens von Interesse den Schritt des Bereitstellens von Schiebersteuereinrichtungen für rechte/linke (118), vordere/hintere (120) und obere/untere (122) Beschneidungsebenen und des Einstellens der Volumenbeschneidungsebenen gemäß einer Einstellung der Schiebersteuereinrichtungen umfaßt.
8. Verfahren nach Anspruch 2, wobei die schnelle Erzeugung von Bildern verringerter Genauigkeit den Schritt des Abtastens des dezimierten Volumens (64) mit beabstandeten Polygonen mit einem ersten Abstand umfaßt; und die Erzeugung eines Bilds voller Genauigkeit den Schritt des Abtastens des Bildvolumens voller Größe mit beabstandeten Polygonen mit einem zweiten Abstand umfaßt, wobei der erste Abstand eine breitere Beabstandung darstellt als der zweite Abstand.
9. Verfahren nach Anspruch 2, wobei die Opazität der einstellbare visuelle Parameter ist und die Rekonstruktion des dezimierten Bildvolumens (69) den Schritt des Einstellens einer Beziehung zwischen Opazität und Volumenelementwert von einem voreingestellten Niveau aus umfaßt.
10. Verfahren nach Anspruch 9, wobei die Beziehung zwischen Opazität und Volumenelementwert für einen ausgewählten Bereich von Volumenelementwerten höhere Opazitäten zuweist und die Einstellung einer Beziehung zwischen Opazität und Volumenelementwert den Schritt des Änderns eines Bereichs von Volumenelementwerten, zu denen die höheren Werte der Opazität zugewiesen werden, im Ansprechen auf Einstellungen einer benutzerbetätigten Steuereinrichtung umfaßt.
11. Verfahren nach Anspruch 9, wobei die Beziehung zwischen Opazität und Volumenelementwert in einem ausgewählten Bereich von Volumenelementwerten eine Grenzneigung bereitstellt und die Einstellung einer Beziehung zwischen Opazität und Volumenelementwert den Schritt des Änderns eines Bereichs von Volumenelementwerten, in dem die Grenzneigung bereitgestellt wird, im Ansprechen auf eine benutzerbetätigte Steuereinrichtung (116) umfaßt.
12. Verfahren nach Anspruch 9, wobei die Einstellung der Beziehung zwischen Opazität und Volumenelementwert von einem voreingestellten Wert aus mit einer einzelnen Steuereinrichtung (116) ausgeführt wird.
13. Verfahren nach Anspruch 1, wobei die schnelle Erzeugung eines Bilds verringerter Genauigkeit den Schritt des Kombinierens von Mapping-Ergebnissen in eine erste Rendermatrix (112) umfaßt; und die Erzeugung eines Bilds voller Genauigkeit den Schritt des Kombinierens von Mapping-Ergebnissen in eine zweite Rendermatrix umfaßt, wobei die erste Rendermatrix kleiner als die zweite Rendermatrix ist.
14. Interaktive Bildverarbeitungseinrichtung (52) zur schnellen Extraktion und Visualisierung relevanter Daten aus einem Volumen von Bilddaten (62), wobei die interaktive Bildverarbeitungseinrichtung konfiguriert ist zum:
schnellen Erzeugen von aus einem Bildvolumen abgeleiteten Bildern verringerter Genauigkeit, wobei die Bilder verringerter Genauigkeit einen einstellbaren visuellen Parameter aufweisen;
Einstellen des visuellen Parameters der Bilder verringerter Genauigkeit während der schnellen Erzeugung zur Auswahl einer gewünschten Einstellung;
Erzeugen eines aus dem Bildvolumen abgeleiteten Bilds voller Genauigkeit; und
Anwenden der ausgewählten Einstellung auf das Bild voller Genauigkeit.
15. Verarbeitungseinrichtung (52) nach Anspruch 14, wobei die Konfiguration der Verarbeitungseinrichtung zur schnellen Erzeugung von aus einem Bildvolumen (62) abgeleiteten Bildern verringerter Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum Dezimieren eines Bildvolumens voller Größe zur Erzeugung eines dezimierten Bildvolumens (64) und zum Rekonstruieren des dezimierten Bildvolumens konfiguriert ist.
16. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei die Konfiguration der Verarbeitungseinrichtung zur Rekonstruktion des dezimierten Bildvolumens (64) umfaßt, daß die Verarbeitungseinrichtung zum Mappen von aus dem dezimierten Bildvolumen erzeugten dreidimensionalen Texturen unter Verwendung von Polygonen zur Erzeugung eines Zwischenrenderings konfiguriert ist.
17. Verarbeitungseinrichtung (52) nach Anspruch 16, die zum Zoomen des Zwischenrenderings mit bilinearer Interpolation zur Anzeige in einem dreidimensionalen Darstellungsfeld (102) konfiguriert ist.
18. Verarbeitungseinrichtung (52) nach Anspruch 16, die zum Zoomen des Zwischenrenderings durch eine Bildelementwiederholung konfiguriert ist.
19. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei ein benutzerdefiniertes Volumen von Interesse der einstellbare visuelle Parameter ist und die Konfiguration der Verarbeitungseinrichtung zur Rekonstruktion des dezimierten Bildvolumens (64) umfaßt, daß die Verarbeitungseinrichtung zum selektiven Bereitstellen eines Satzes von Volumenbeschneidungsebenen (124) zur Definition des Volumens von Interesse konfiguriert ist.
20. Verarbeitungseinrichtung (52) nach Anspruch 19, wobei die Konfiguration der Verarbeitungseinrichtung zur selektiven Bereitstellung eines Satzes von Volumenbeschneidungsebenen (124) zur Definition des Volumens von Interesse umfaßt, daß die Verarbeitungseinrichtung zum Bereitstellen von Schiebersteuereinrichtungen für rechte/linke (118), vordere/hintere (120) und obere/untere (122) Beschneidungsebenen und zum Einstellen der Volumenbeschneidungsebenen gemäß einer Einstellung der Schiebersteuereinrichtungen konfiguriert ist.
21. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei die Konfiguration der Verarbeitungseinrichtung zur schnellen Erzeugung von Bildern verringerter Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum Abtasten des dezimierten Volumens (64) mit beabstandeten Polygonen mit einem ersten Abstand konfiguriert ist; und die Konfiguration der Verarbeitungseinrichtung zur Erzeugung eines Bilds voller Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum Abtasten des Bildvolumens voller Größe mit beabstandeten Polygonen mit einem zweiten Abstand konfiguriert ist, wobei der erste Abstand eine breitere Beabstandung darstellt als der zweite Abstand.
22. Verarbeitungseinrichtung (52) nach Anspruch 15, wobei die Opazität der einstellbare visuelle Parameter ist und die Konfiguration der Verarbeitungseinrichtung zur Rekonstruktion des dezimierten Bildvolumens (64) umfaßt, daß die Verarbeitungseinrichtung zum Einstellen einer Beziehung zwischen Opazität und Volumenelementwert von einem voreingestellten Niveau aus konfiguriert ist.
23. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei die Beziehung zwischen Opazität und Volumenelementwert für einen ausgewählten Bereich von Volumenelementwerten höhere Opazitäten zuweist und die Konfiguration der Verarbeitungseinrichtung zur Einstellung einer Beziehung zwischen Opazität und Volumenelementwert umfaßt, daß die Verarbeitungseinrichtung zum Ändern eines Bereichs von Volumenelementwerten, zu denen die höheren Werte der Opazität zugewiesen werden, im Ansprechen auf Einstellungen einer benutzerbetätigten Steuereinrichtung (116) konfiguriert ist.
24. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei die Beziehung zwischen Opazität und Volumenelementwert in einem ausgewählten Bereich von Volumenelementwerten eine Grenzneigung bereitstellt und die Konfiguration der Verarbeitungseinrichtung zur Einstellung einer Beziehung zwischen Opazität und Volumenelementwert umfaßt, daß die Verarbeitungseinrichtung zum Ändern eines Bereichs von Volumenelementwerten, in dem die Grenzneigung bereitgestellt wird, im Ansprechen auf eine benutzerbetätigte Steuereinrichtung (116) konfiguriert ist.
25. Verarbeitungseinrichtung (52) nach Anspruch 22, wobei die Verarbeitungseinrichtung zur Bereitstellung einer einzelnen Steuereinrichtung (116) zur Einstellung der Beziehung zwischen Opazität und Volumenelementwert von einem voreingestellten Wert aus konfiguriert ist.
26. Verarbeitungseinrichtung (52) nach Anspruch 14, wobei die Konfiguration der Verarbeitungseinrichtung zur schnellen Erzeugung eines Bilds verringerter Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum Kombinieren von Mapping-Ergebnissen in eine erste Rendermatrix (112) konfiguriert ist; und die Konfiguration der Verarbeitungseinrichtung zur Erzeugung eines Bilds voller Genauigkeit umfaßt, daß die Verarbeitungseinrichtung zum Kombinieren von Mapping-Ergebnissen in eine zweite Rendermatrix konfiguriert ist, wobei die erste Rendermatrix kleiner als die zweite Rendermatrix ist.
DE10120584A 2000-05-03 2001-04-26 Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten Withdrawn DE10120584A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/564,128 US6690371B1 (en) 2000-05-03 2000-05-03 Relevant image data extraction from a medical image data volume

Publications (1)

Publication Number Publication Date
DE10120584A1 true DE10120584A1 (de) 2001-11-08

Family

ID=24253260

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10120584A Withdrawn DE10120584A1 (de) 2000-05-03 2001-04-26 Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten

Country Status (4)

Country Link
US (1) US6690371B1 (de)
JP (1) JP4959875B2 (de)
DE (1) DE10120584A1 (de)
IL (1) IL142774A0 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2855616A1 (fr) * 2003-05-30 2004-12-03 Univ Paris Descartes Procede et dispositif d'echographie ultrasonore
WO2007069174A1 (en) * 2005-12-15 2007-06-21 Koninklijke Philips Electronics, N.V. Faster rates for real-time 3d volume rendered images
DE102011079380A1 (de) * 2011-07-19 2013-01-24 Siemens Aktiengesellschaft Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001239926A1 (en) * 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US7269580B2 (en) * 2000-10-03 2007-09-11 Celcorp, Inc. Application integration system and method using intelligent agents for integrating information access over extended networks
US6978230B1 (en) * 2000-10-10 2005-12-20 International Business Machines Corporation Apparatus, system, and method for draping annotations on to a geometric surface
JP2002123530A (ja) * 2000-10-12 2002-04-26 Hitachi Ltd 多次元データの可視化方法及び装置
FR2824164B1 (fr) * 2001-04-26 2003-08-15 Ge Med Sys Global Tech Co Llc Systeme d'imagerie medicale a affichage d'une representation tridimensionnelle
US8649843B2 (en) * 2001-11-24 2014-02-11 Ben A. Arnold Automated calcium scoring of the aorta
US7758508B1 (en) * 2002-11-15 2010-07-20 Koninklijke Philips Electronics, N.V. Ultrasound-imaging systems and methods for a user-guided three-dimensional volume-scan sequence
WO2004049935A1 (en) * 2002-11-29 2004-06-17 Wang Shih-Ping Thick-slice display of medical images
US20040138560A1 (en) * 2002-12-02 2004-07-15 Gianluca Paladini Real-time scan conversion and rendering of ultrasound data
AU2003282325A1 (en) * 2002-12-20 2004-07-14 Koninklijke Philips Electronics N.V. Protocol-based volume visualization
US7239730B2 (en) * 2003-01-29 2007-07-03 Ge Medical Systems Global Technology Company, Llc Method and apparatus for volume scoring calcification concentrations of a CT scan
WO2005013841A1 (en) * 2003-08-07 2005-02-17 Xoran Technologies, Inc. Intra-operative ct scanner
US7301538B2 (en) * 2003-08-18 2007-11-27 Fovia, Inc. Method and system for adaptive direct volume rendering
DE10345073A1 (de) * 2003-09-26 2005-05-04 Siemens Ag Betriebsverfahren für ein tomographiefähiges bildgebendes Untersuchungsgeräts und Röntgen-Computertomographiegerät
JP2005202791A (ja) * 2004-01-16 2005-07-28 Med Solution Kk 画像を生成する方法、装置およびプログラム
US7154500B2 (en) * 2004-04-20 2006-12-26 The Chinese University Of Hong Kong Block-based fragment filtration with feasible multi-GPU acceleration for real-time volume rendering on conventional personal computer
JP2007534416A (ja) * 2004-04-28 2007-11-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多次元のデータセットにオブジェクトをマッピングする方法、コンピュータプログラム、装置、画像分析システム及びイメージングシステム
US7660382B2 (en) * 2004-06-28 2010-02-09 Koninklijke Philips Electronics N.V. Examination apparatus for perfusion studies
JP4208791B2 (ja) 2004-08-11 2009-01-14 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US7436402B2 (en) * 2004-09-01 2008-10-14 Medison Co., Ltd. Rendering apparatus and method for a real-time 3D ultrasound diagnostic system
JP4205683B2 (ja) * 2005-03-23 2009-01-07 ザイオソフト株式会社 画像処理方法および画像処理プログラム
FR2886433B1 (fr) * 2005-05-30 2007-09-07 Commissariat Energie Atomique Methode de segmentation d'une sequence d'images tridimensionnelles, notamment en pharmaco-imagerie.
JP5239115B2 (ja) * 2005-07-28 2013-07-17 横河電機株式会社 医用画像データ処理装置および医用画像データ処理方法
US7692648B2 (en) * 2006-01-18 2010-04-06 Siemens Medical Solutions Usa, Inc. System and method for empty space skipping in sliding texture based volume rendering by trimming slab polygons
KR100738107B1 (ko) * 2006-02-15 2007-07-12 삼성전자주식회사 3차원 포인트 기반 모델링 장치 및 방법
EP1862120B1 (de) * 2006-05-29 2016-11-09 Toshiba Medical Systems Corporation Computergestützte Vorrichtung zur Bildgebungsdiagnoseverarbeitung und computergestütztes Verfahren zur Bildgebungsdiagnoseverarbeitung
US7802215B2 (en) * 2006-06-06 2010-09-21 Fujitsu Limited System and method for providing an improved sliding window scheme for clock mesh analysis
US20080008371A1 (en) * 2006-06-13 2008-01-10 Kevin Woods Considerations when colon segmentation differs between CAD processing and visualization
GB2439121B (en) * 2006-06-15 2009-10-21 Motorola Inc Apparatus and method for content item annotation
US7808514B2 (en) * 2006-06-21 2010-10-05 Siemens Medical Solutions Usa, Inc. Multiplanar reformatting visualization with multiple scrolling speeds
CN101563706B (zh) * 2006-07-31 2012-10-10 皇家飞利浦电子股份有限公司 用于为图像数据集的显像创建预设置图的方法、设备
US7952592B2 (en) * 2006-09-25 2011-05-31 Siemens Medical Solutions Usa, Inc. System and method for view-dependent cutout geometry for importance-driven volume rendering
WO2008086193A2 (en) * 2007-01-05 2008-07-17 Landmark Graphics Corporation, A Halliburton Company Systems and methods for visualizing multiple volumetric data sets in real time
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
US9717896B2 (en) * 2007-12-18 2017-08-01 Gearbox, Llc Treatment indications informed by a priori implant information
JP4376944B2 (ja) * 2008-04-03 2009-12-02 富士フイルム株式会社 中間画像生成方法および装置ならびにプログラム
CN102047294B (zh) * 2008-06-06 2013-10-30 兰德马克绘图国际公司,哈里伯顿公司 对表示网格体的几何不规则网格数据的三维体成像的系统及方法
US8968210B2 (en) 2008-10-01 2015-03-03 Covidien LLP Device for needle biopsy with integrated needle protection
US9332973B2 (en) 2008-10-01 2016-05-10 Covidien Lp Needle biopsy device with exchangeable needle and integrated needle protection
US11298113B2 (en) 2008-10-01 2022-04-12 Covidien Lp Device for needle biopsy with integrated needle protection
US9186128B2 (en) 2008-10-01 2015-11-17 Covidien Lp Needle biopsy device
US9782565B2 (en) 2008-10-01 2017-10-10 Covidien Lp Endoscopic ultrasound-guided biliary access system
US20100130860A1 (en) * 2008-11-21 2010-05-27 Kabushiki Kaisha Toshiba Medical image-processing device, medical image-processing method, medical image-processing system, and medical image-acquiring device
RU2556590C2 (ru) * 2009-03-19 2015-07-10 Конинклейке Филипс Электроникс Н.В. Функциональная визуализация
US20110082667A1 (en) * 2009-10-06 2011-04-07 Siemens Corporation System and method for view-dependent anatomic surface visualization
WO2011062108A1 (ja) * 2009-11-19 2011-05-26 株式会社 日立メディコ 画像処理装置及び画像処理方法
WO2012018560A2 (en) * 2010-07-26 2012-02-09 Kjaya, Llc Adaptive visualization for direct physician use
CN103229041B (zh) * 2010-12-03 2016-03-02 索尼公司 3d数据分析装置、3d数据分析方法和3d数据分析程序
US9142056B1 (en) * 2011-05-18 2015-09-22 Disney Enterprises, Inc. Mixed-order compositing for images having three-dimensional painting effects
JP5835975B2 (ja) * 2011-07-19 2015-12-24 株式会社東芝 画像処理システム、装置、方法及び医用画像診断装置
DE102012205222B4 (de) * 2012-03-30 2020-08-13 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines artefaktreduzierten dreidimensionalen Bilddatensatzes und Röntgeneinrichtung
US9147280B2 (en) * 2012-08-03 2015-09-29 Kabushiki Kaisha Toshiba Preparation and display of derived series of medical images
US10318100B2 (en) * 2013-10-16 2019-06-11 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
US9760690B1 (en) * 2016-03-10 2017-09-12 Siemens Healthcare Gmbh Content-based medical image rendering based on machine learning
US10542060B2 (en) * 2016-09-19 2020-01-21 Ebay Inc. Interactive real-time visualization system for large-scale streaming data
US10699410B2 (en) * 2017-08-17 2020-06-30 Siemes Healthcare GmbH Automatic change detection in medical images
US11157781B2 (en) * 2017-09-21 2021-10-26 Royal Bank Of Canada Device and method for assessing quality of visualizations of multidimensional data
JP7003635B2 (ja) * 2017-12-22 2022-01-20 大日本印刷株式会社 コンピュータプログラム、画像処理装置及び画像処理方法
JP7013849B2 (ja) * 2017-12-22 2022-02-01 大日本印刷株式会社 コンピュータプログラム、画像処理装置及び画像処理方法
JP7283603B2 (ja) * 2017-12-22 2023-05-30 大日本印刷株式会社 コンピュータプログラム、画像処理装置及び画像処理方法
JP2019114034A (ja) * 2017-12-22 2019-07-11 大日本印刷株式会社 コンピュータプログラム、画像処理装置、画像処理方法及びボクセルデータ
EP3574476A1 (de) * 2018-01-31 2019-12-04 Mitos GmbH Verfahren zur bildrekonstruktion eines objekts, insbesondere auf basis einer computertomografiebildrekonstruktion und vorrichtung, system und computerprogrammprodukt dafür
CA3105067A1 (en) * 2018-06-27 2020-01-02 Colorado State University Research Foundation Methods and apparatus for efficiently rendering, managing, recording, and replaying interactive, multiuser, virtual reality experiences
US11191525B2 (en) * 2018-08-10 2021-12-07 General Electric Company Method and system for visualizing overlapping images
JPWO2022202203A1 (de) * 2021-03-26 2022-09-29

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313567A (en) * 1991-06-13 1994-05-17 At&T Bell Laboratories Arrangement for determining and displaying volumetric data in an imaging system
AU3930793A (en) * 1992-05-08 1993-12-13 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
JPH07115517A (ja) * 1993-10-14 1995-05-02 Konica Corp 放射線画像撮影システム
US5842473A (en) 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
JPH07271997A (ja) * 1994-03-29 1995-10-20 Toshiba Corp 画像処理装置
JP3814932B2 (ja) * 1997-03-31 2006-08-30 株式会社島津製作所 3次元画像生成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2855616A1 (fr) * 2003-05-30 2004-12-03 Univ Paris Descartes Procede et dispositif d'echographie ultrasonore
WO2007069174A1 (en) * 2005-12-15 2007-06-21 Koninklijke Philips Electronics, N.V. Faster rates for real-time 3d volume rendered images
DE102011079380A1 (de) * 2011-07-19 2013-01-24 Siemens Aktiengesellschaft Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen

Also Published As

Publication number Publication date
JP4959875B2 (ja) 2012-06-27
US6690371B1 (en) 2004-02-10
IL142774A0 (en) 2002-03-10
JP2001319220A (ja) 2001-11-16

Similar Documents

Publication Publication Date Title
DE10120584A1 (de) Extraktion relevanter Bilddaten aus einem Volumen medizinischer Bilddaten
US6947584B1 (en) Volume imaging system
DE3826287C2 (de) Verfahren und Vorrichtung zur automatischen Analyse von Lungengewebe aus einem röntgenologischen Brustbild
DE602004003576T2 (de) Abbildung interner strukturen
DE102005046385B4 (de) Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie
DE69233207T2 (de) Verfahren und gerät zur bildverarbeitung.
DE102011087337B4 (de) Verfahren zur Rekonstruktion eines zweidimensionale virtuelle Röntgenbilder enthaltenden Rekonstruktionsdatensatzes
DE10159331A1 (de) Verfahren und System zur Auswahl und Anzeige von medizinischen Bilddaten
DE102004063053A1 (de) Verfahren und System zum Visualisieren dreidimensionaler Daten
DE102007052572A1 (de) Verfahren und Vorrichtung zum Definieren mindestens eines Akquisitions- und Bearbeitungs-Parameter in einer Tomosynthesevorrichtung
DE10164162A1 (de) Rückprojektionsverfahren und -vorrichtung für Computertomographieabbildungssysteme
DE19955690A1 (de) System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation
DE202007019608U1 (de) Bildhandhabung und Anzeige bei der Röntgenmammographie und Tomosynthese
DE102011003135B4 (de) Bildgebungsverfahren zum Rotieren eines Gewebebereichs
DE102009044683A1 (de) Multimaterialiendekomposition mittels Dualenergie-Computertomographie
DE602004004877T2 (de) System und verfahren für exakte bildrekonstruktion für spiralkegelstrahl-compu tertomographie mit redundanten daten
DE602004009653T2 (de) Vorrichtung, Verfahren, Programm und maschinenlesbares Speichermedium zur Strahlungsbildverarbeitung
DE202009019204U1 (de) Röntgenerfassungssystem zur Erzeugung eines synthetisierten 2D-Mammogramms aus durch Tomosynthese rekonstruierten Bildern
DE102006041309A1 (de) System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern
DE102006003609A1 (de) Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung
DE10144630A1 (de) Verfahren und Vorrichtung zur Visualisierung eines Körpervolumens und Computerprogrammprodukt
DE102008002915A1 (de) System und Verfahren für eine Benutzerschnittstelle in der digitalen radiographischen Röntgentomosynthese
DE102004056783A1 (de) Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie
DE19849292A1 (de) Bildrekonstruktion in einem Computer-Tomographie-Fluoroskopiesystem
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee