-
Die
Erfindung betrifft ein Verfahren zur Erzeugung eines Volumenansichtsbilds
vom Inneren eines Körpers auf Basis von mittels eines bildgebenden
medizintechnischen Systems erzeugten dreidimensionalen Bilddaten.
Weiterhin betrifft die Erfindung ein Bildverarbeitungssystem, mit
dem mit einem solchen Verfahren aus dreidimensionalen Bilddaten
ein Volumenansichtsbild erzeugbar ist.
-
Moderne
bildgebende medizintechnische Systeme wie beispielsweise Magnetresonanzsysteme,
Computertomographen, PET- oder SPECT-Systeme, Ultraschallanlagen
etc. sind heutzutage in der Lage, sehr große Mengen an
Bilddaten mit hoher Auflösung zu liefern. Eine Herausforderung
zur Verbesserung der Anwendung derartiger bildgebender Systeme und
der damit erzielten Ergebnisse liegt daher auch darin, die große
Menge an gemessenen Bilddaten so aufzubereiten und für
eine Befundung und/oder Interventionsplanung so auszugeben, dass der
Befunder bzw. Planer alle relevanten Informationen erkennen kann.
Hierzu werden die dreidimensionalen Bilddaten, welche beispielsweise
in Form von einzelnen Schichten oder auch als Volumendaten gemessen
werden können, zunehmend in Form von dreidimensionalen
Visualisierungen, im Folgenden als „Volumenansichtsbilder” bezeichnet,
beispielsweise im sogenannten „Volume-Rendering-Verfahren”,
ausgegeben. Eine solche Ausgabe in Form von Volumenansichtsbildern
erleichtert für den Befunder die Interpretation, insbesondere
bei Gefäßbefundungen und darauf basierender Interventionsplanung,
da der Betrachter intuitiv ein räumliches Verständnis
der dargestellten Strukturen erhält und nicht allein auf sein
räumliches Vorstellungsvermögen wie bei der Interpretation
von rein zweidimensionalen Schnittbildern angewiesen ist.
-
In
klinischen Routinen werden heutzutage solche Volumenansichtsbilder
einer bestimmten Struktur, z. B. eines oder mehrerer bestimmter
Organe, in der Regel in einer unabhängig von den vorliegenden
Daten vorher genauen definierten Standardansicht dargestellt. Das
heißt, es werden standardmäßig eine oder
mehrere Volumenansichtsbilder mit verschiedenen Ansichtspunkten
(den Standorten der virtuellen „Kamera”) erstellt.
Die Sichtbarkeit der interessierenden Strukturen wird unter anderem
durch die Wahl der sogenannten „Transferfunktion” gesteuert,
welche ein Maß dafür ist, inwieweit eine bestimmte
Struktur durchsichtig ist und ob in der Darstellung auch durch die
Struktur hindurch auf eine dahinter liegende Struktur geschaut werden
kann. Neben der Transparenz kann die Transferfunktion noch die Farbe
definieren, mit der jedes Bildvoxel in der Volumendarstellung visualisiert
werden soll. Die Transferfunktion basiert dabei jedoch im Wesentlichen
nur auf Bildintensitäten. Dies führt dazu, dass
Strukturen mit gleichen Bildintensitäten nicht getrennt
voneinander dargestellt werden.
-
Üblicherweise
werden daher in der Praxis für eine gegebene klinische
Fragestellung meist durch einen speziell ausgebildeten technischen
Bediener manuell bestimmte Strukturen, insbesondere Organe, freigestellt.
Dies kann beispielsweise mit Hilfe von sogenannten „Punch-Tools” erfolgen,
die virtuell einen bestimmten Bereich aus den Bilddaten ausstanzen,
so dass ein Blick auf dahinterliegende Strukturen möglich
ist. Dabei werden gleichzeitig auch Volumenansichtsbilder als sogenannte „Screenshots” aus verschiedenen
sinnvollen bzw. informationsreichen „Kamerapositionen” erstellt.
Diese Screenshots werden in der Regel über ein geeignetes
Bilddatennetzwerk, beispielsweise ein PACS (Picture Archive and Communication
System), zur Befundung an einen Radiologen gesandt. Insbesondere
die Freistellung von Organen mit Hilfe der Punch-Tools ist relativ
zeitaufwändig, da der Bediener oft verschiedene Ansichtspunkte
anfahren muss und in jedem Ansichtspunkt ein geeignet geformtes
Punch-Tool bilden muss, um beispielsweise durch Entfernen von weiter vorne
zum Ansichtspunkt hin liegenden Organen die Sicht auf ein dahinterliegendes
interessierendes Organ zu ermöglichen. Stellt sich dann
heraus, dass die Sicht auf das eigentliche interessierende Zielorgan nicht
gut genug ist, muss der Bediener einen neuen Ansichtspunkt anfahren
und dort wieder mit einem geeignet angepassten Punch-Tool den Bereich
vor dem Zielorgan freistellen.
-
Es
ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren
und eine verbesserte Bildverarbeitungsvorrichtung zu schaffen, mit der
die Erstellung von Volumenansichtsbildern aus dreidimensionalen
Bilddaten eines bildgebenden medizintechnischen Systems erheblich
vereinfacht zumindest teilautomatisch, besonders bevorzugt vollautomatisch
möglich ist.
-
Diese
Aufgabe wird durch ein Verfahren gemäß Patentanspruch
1 und durch eine Bildverarbeitungsvorrichtung gemäß Patentanspruch
17 gelöst.
-
Bei
dem erfindungsgemäßen Verfahren erfolgt als ein
wesentlicher Verfahrensschritt zunächst eine Segmentierung
mehrerer verschiedener funktioneller Strukturen des Körpers
in den dreidimensionalen Bilddaten. Unter funktionellen Strukturen
sind hierbei beispielsweise Organe, funktionelle Teileinheiten bildende
Skelettstrukturen, wie beispielsweise einzelne Rippen oder Gruppen
von Rippen, der gesamte Brustkorb, die Wirbelsäule, aber
auch einzelne Knochen, Gefäße bzw. funktionelle
Einheiten bildende Gefäßabschnitte oder Gefäßbereiche
und sonstige zur Versorgung von bestimmten Organen dienende Gewebestrukturen,
beispielsweise Lymphknoten, Abschnitte des Lymphsystems oder das
gesamte Lymphsystem zu verstehen. Bei einer solchen Segmentierung
wird festgestellt, welche Voxel der Bilddaten zu welcher Struktur
gehören und welche nicht, so dass sich einzelne Strukturen
anschließend ohne großen Aufwand selektieren lassen.
Inzwischen gibt es verschiedenste – beispielsweise modellbasierte – Verfahren,
um eine vollautomatische Segmentierung derartiger funktioneller
Strukturen in dreidimensionalen Bilddaten durchführen zu
können. Ein Beispiel hierfür findet sich u. a.
in dem Artikel "Hierarchical parsing and semantic
navigation of full body CT data" von S. Seifert, A. Barbu,
S. K. Zhou, D. Liu, J. Feulner, M. Huber, M. Sühling, A.
Cavallaro, D. Comaniciu; Proceedings of the SPIE, Volume 7259, pp.
725902–725902-8 (2009).
-
Außerdem
erfolgt dann, vorzugsweise in einem nächsten Schritt, gegebenenfalls
aber auch parallel oder vorab, eine Ermittlung von Strukturauswahldaten
zur Festlegung von zu visualisierenden funktionellen Strukturen.
Das heißt, es wird hier festgelegt, welche Strukturen,
beispielsweise welche Organe oder Skelettstrukturen, in dem zu erstellenden Volumenansichtsbild überhaupt
visualisiert werden sollen und welche nicht. Die Ermittlung der
Strukturauswahldaten kann beispielsweise durch Erfassung von über
eine Benutzerschnittstelle eingegebenen Befehlen erfolgen. Sie können
aber auch, z. B. aus einer Datenbank, automatisch ermittelt werden,
beispielsweise abhängig von einer klinischen Fragestellung,
welche der Erstellung der Volumenansichtsbilder zugrunde liegt.
-
Anschließend
wird auf Basis der segmentierten funktionellen Strukturen und der
Strukturauswahldaten zumindest ein Volumenansichtsbild aus den dreidimensionalen
Daten ermittelt. Das heißt, es wird beispielsweise zunächst
eine zu visualisierende Szene ermittelt, in der definiert wird,
aus welcher Ansichtsrichtung die Gruppe der zu visualisierenden funktionellen
Strukturen betrachtet werden soll, und es wird dann ein diese Szene
darstellendes Volumenansichtsbild berechnet. Schließlich
erfolgt eine Ausgabe des ermittelten Volumenansichtsbildes, beispielsweise
in einen Speicher und/oder an eine Bildausgabeeinrichtung wie z.
B. ein Display oder einen Drucker etc.
-
Das
erfindungsgemäße Verfahren hat den Vorteil, dass
es durch die vorherige Multi-Struktur-Segmentierung mittels einer
einfachen Auswahl von zu visualisierenden Strukturen möglich
ist, vollautomatisch, halbautomatisch, aber auch manuell die passenden
Volumenansichtsbilder zu finden bzw. zu erstellen, die die besten
Informationen über die interessierenden Strukturen geben.
Ein mühseliges Freistellen der einzelnen Strukturen mit
Hilfe von Punch-Tools ist hierbei nicht mehr zwingend notwendig.
-
In
der Regel vergeht ohnehin zwischen der Aufnahme der Rohmessdaten
im bildgebenden medizintechnischen System mit der anschließenden
Rekonstruktion der dreidimensionalen Bilddaten bis zur Betrachtung
der Bilder und Befundung durch einen Radiologen ein erheblicher
Zeitraum. Dieser kann für die Segmentierung der funktionellen
Strukturen genutzt werden. Es muss lediglich genügend Rechenkapazität
zur Verfügung stehen. Dabei werden vorzugsweise alle relevanten
funktionellen Strukturen, beispielsweise alle einzelnen Organe,
Gefäße und Knochenstrukturen, in zumindest einem
vordefinierten interessierenden Bereich des Körpers segmentiert,
so dass sie getrennt von anderen Strukturen darstellbar sind. Der
Bereich kann dabei in Abhängigkeit von einer der Untersuchung
zugrunde liegenden klinischen Fragestellung definiert sein. Beispielsweise
kann es sich hierbei um alle Organe, Knochenstrukturen und Gefäße
des Bauchraums oder des Brustraums etc. handeln.
-
Eine
erfindungsgemäße Bildverarbeitungsvorrichtung
zur Durchführung eines solchen Verfahrens benötigt
zum einen eine Bilddatenschnittstelle zur Übernahme der
dreidimensionalen Bilddaten und zum anderen eine Segmentierungseinrichtung
zur Segmentierung mehrerer verschiedener funktioneller Strukturen
des Körpers in den dreidimensionalen Bilddaten. Weiterhin
benötigt die Bildverarbeitungseinrichtung eine Auswahldatenermittlungseinheit
zur Ermittlung von Strukturauswahldaten zur Festlegung von zu visualisierenden
funktionellen Strukturen. Hierbei kann es sich auch um eine Art
Schnittstelle handeln, über die Auswahldaten in Form von
von einem Bediener eingegebenen Auswahlbefehlen erfasst werden,
oder eine Schnittstelle, um solche Daten über ein Netzwerk
oder eine Datenbank zu übernehmen. Die Bildverarbeitungsvorrichtung
benötigt außerdem eine Bildermittlungseinheit
zur Ermittlung eines Volumenansichtsbildes aus den dreidimensionalen
Bilddaten auf Basis der segmentierten funktionellen Strukturen und
der Strukturauswahldaten sowie eine Ausgabeschnittstelle zur Ausgabe
des Volumenansichtsbildes, beispielsweise an einen Speicher und/oder
eine Bildausgabeeinrichtung.
-
Eine
Vielzahl der Komponenten der Bildverarbeitungsvorrichtung kann in
Form von Softwaremodulen auf einer geeigneten Rechnereinheit oder
einem System von mehreren Rechnereinheiten realisiert sein. Dies
gilt insbesondere für die Segmentierungseinrichtung und
die Bildermittlungseinheit. Aber auch die Auswahldatenermittlungseinheit
sowie die Bilddatenschnittstelle und die Ausgabeschnittstelle können
zumindest teilweise in Form von Softwarekomponenten aufgebaut sein.
Eine Realisierung, die soweit wie möglich in Form von Softwaremodulen
erfolgt, hat den Vorteil, dass auch bereits bestehende Bildverarbeitungsvorrichtungen
leichter nachgerüstet werden können, um auf die
erfindungsgemäße Weise zu arbeiten. Sinnvoll ist
es dabei, dass beispielsweise eine geeignete grafische Benutzeroberfläche zur
Verfügung steht, die von den einzelnen Softwarekomponenten
mit verwendet werden kann, beispielsweise der Auswahldatenermittlungseinheit,
wenn eine Eingabe von Strukturauswahldaten durch einen Bediener
erfolgen soll.
-
Insofern
kann die Erfindung auch durch ein Computerprogrammprodukt gelöst
werden, welches direkt in einen Speicher einer Bildverarbeitungsvorrichtung
ladbar ist, mit Programmcode-Mitteln, um alle Schritte des erfindungsgemäßen
Verfahrens auszuführen, wenn das Programmprodukt auf der Bildverarbeitungsvorrichtung
ausgeführt wird.
-
Die
abhängigen Ansprüche sowie die weitere Beschreibung
enthalten jeweils besonders vorteilhafte Weiterbildungen und Ausgestaltungen
der Erfindung, wobei das erfindungsgemäße Bildverarbeitungssystem
auch analog zu den abhängigen Verfahrensansprüchen
weitergebildet sein kann.
-
Bei
einer besonders bevorzugten Weiterbildung des Verfahrens ist die
Möglichkeit gegeben, eine ganz bestimmte Struktur, beispielsweise
ein ganz bestimmtes Organ oder einen Teil eines Organs, als Zielstruktur
zu definieren. Vorzugsweise umfassen hierzu bereits die Strukturauswahldaten Zielstrukturauswahldaten
zur Festlegung der Zielstruktur. Das heißt, es wird nicht
nur eine Anzahl von insgesamt zu visualisierenden Strukturen festgelegt, sondern
innerhalb dieser zu visualisierenden Strukturen auch eine bestimmte
Zielstruktur bestimmt, die beispielsweise dann im Zentrum des erzeugten
Volumenansichtsbildes liegt oder in sonstiger Weise bei der Erstellung
des Volumenansichtsbildes in besonderer Weise berücksichtigt
wird.
-
Diese
Zielstrukturauswahldaten können ebenfalls über
eine Benutzerschnittstelle ermittelt werden. Beispielsweise können
zur Erfassung von Strukturauswahldaten inklusive der Zielstrukturauswahldaten
von einem Bediener mittels einer Benutzerschnittstelle aktivierbare
Repräsentationsdarstellungen der segmentierten Strukturen
angezeigt werden. Bei diesen Repräsentationsdarstellungen
handelt es sich z. B. einfach um schematische Zeichnungen der jeweiligen
Organe, Gefäße oder Skelettstrukturen, welche
es dem Bediener ermöglichen, die betreffende Struktur eindeutig
zu identifizieren. Beispielsweise können die Repräsentationsdarstellungen
mit einer Anzahl von virtuellen Tasten auf einer grafischen Benutzeroberfläche
dargestellt werden, und der Benutzer kann dann durch Mausklick die
Tasten aktivieren. Ebenso können die Strukturen innerhalb
eines Piktogramms dargestellt werden, wobei den einzelnen Organen,
Skelettstrukturen oder Gefäßen innerhalb dieses
Piktogramms mit Mausklick aktivierbare Flächen zugeordnet
sind. Insbesondere ist es auch möglich, auf diese Weise
die Zielstruktur mit auszuwählen, beispielsweise, indem im
Normalfall durch eine Taste die allgemein zu visualisierenden funktionellen
Strukturen ausgewählt werden und durch eine koordinierte
Aktion zweier Tasten eine Zielstruktur ausgewählt wird.
Ebenso ist es möglich, die allgemein zu visualisierenden
Strukturen und die Zielstruktur in unterschiedlichen, aufeinander
folgenden Verfahrensabschnitten auszuwählen.
-
Bei
einer Variante wird zur Erfassung von Zielstrukturauswahldaten einem
Bediener auf Basis der dreidimensionalen Bilddaten eine Volumendarstellung
zumindest der zu visualisierenden funktionellen Strukturen angezeigt.
In dieser Visualisierung ist dann die Zielstruktur mittels einer
grafischen Benutzerschnittstelle auswählbar, beispielsweise
durch Verfahren eines Cursors auf die gewünschte Struktur und
einen Mausklick oder dergleichen. Es wird dann vom Cursor aus ein
Suchstrahl in Blickrichtung ausgesendet und die Struktur ausgewählt,
welche von der Blickrichtung aus als erstes durch den Suchstrahl getroffen
wird.
-
Vorzugsweise
können den segmentierten funktionellen Strukturen individuelle
Transferfunktionen zugeordnet sein. Das heißt, es wird
jedem Organ, jeder Knochenstruktur etc. eine bestimmte Durchsichtigkeit
und Farbe zugeordnet. Dies hat den Vorteil, dass bestimmte Organe
bzw. Skelettstrukturen zur Orientierung für den Befunder
zwar noch erkennbar vorhanden sind, er aber im Prinzip durch diese
auf die eigentlich zu befundenden relevanten Strukturen hindurchschauen
kann. Zur Definition der Transferfunktion kann beispielsweise innerhalb
einer dreidimensionalen Volumendarstellung in einer Tabelle jedem
einzelnen Voxel, welcher üblicherweise mit einem bestimmten
Grauwert verknüpft ist, jeweils eine Farbe und eine Transparenz
zugeordnet sein. Dabei gibt die Farbe die Information des Grauwerts wieder
und die Transparenz steht frei zur Verfügung, um ein Durchsehen
durch den jeweiligen Voxel innerhalb der 3D-Volumendarstellung zu
ermöglichen.
-
Bei
einer besonders bevorzugten Variante wird in Abhängigkeit
von den Strukturauswahldaten, insbesondere in Abhängigkeit
von den Zielstrukturauswahldaten (d. h. in Abhängigkeit
von der jeweils gewählten Zielstruktur), eine automatische
Bestimmung eines Ansichtspunkts durchgeführt. Die automatische Bestimmung
des Ansichtspunkts erfolgt dabei vorteilhafterweise so, dass die
jeweilige Zielstruktur, ggf. auch mehrere Zielstrukturen oder ein
bestimmter interessierender Teil einer Zielstruktur, so dargestellt
wird, dass hierüber die meisten Informationen im Bild ersichtlich
sind.
-
Für
eine automatische Auswahl eines Ansichtspunkts (automatische virtuelle
Kamerapositionierung) gibt es verschiedene Ansätze.
-
Vorzugsweise
erfolgt eine automatische Bestimmung eines Ansichtspunkts im Rahmen
einer modellbasierten Suche unter Verwendung zumindest einer Ansichtssphäre,
in welcher ansichtsrichtungsabhängig ein Ansichtsqualitätswert
hinsichtlich zumindest eines ansichtsrelevanten Parameters kodiert ist.
Das heißt, die möglichen Ansichtspunkte werden auf
einer das interessierende Volumen, beispielsweise die Zielstruktur
umgebenden sogenannten ”Ansichtssphäre” (”Viewing
Sphere”), z. B. einer Kugeloberfläche, verteilt
und bewertet. Das Zentrum dieser Ansichtssphäre kann beispielsweise
der Schwerpunkt der Zielstruktur, insbesondere ein Organschwerpunkt,
ein vom Bediener angegebener interessierender Punkt auf der Oberfläche
der Zielstruktur oder auch ein Punkt sein, der automatisch in Abhängigkeit
von der zugrunde liegenden klinischen Fragestellung bestimmt wird
(beispielsweise bei einer Untersuchung von Nierensteinen der Ausgang
der Niere zum Harnleiter, um zu prüfen, ob hier eine Verstopfung
des Harnleiters vorliegt, oder bei einer Wiederholungsuntersuchung
eines von einem Tumor befallenen Organs der zu beobachtende Tumor).
-
Die
Kodierung des Ansichtsqualitätswerts auf einer solchen
Ansichtssphäre kann derart erfolgen, dass für
jeden Punkt auf der Ansichtssphäre der Radius zum Zentrum
der Ansichtssphäre umso größer gewählt
wird, je höher der Ansichtsqualitätswert an diesem
Ansichtspunkt ist. Auf diese Weise wird eine deformierte Ansichtssphäre
erzeugt, bei der die am weitesten außen liegenden Ansichtspunkte
die beste Ansichtsqualität hinsichtlich des vorgegebenen ansichtsrelevanten
Parameters aufweisen.
-
Als
ansichtsrelevante Parameter könnten verschiedene Parameter
verwenden werden. Ein ansichtsrelevanter Parameter kann eine definierte
Vorzugsblickrichtung sein, die beispielsweise vom Bediener vorgewählt
oder für bestimmte klinische Fragestellungen vorgegeben
sein kann. Ein anderer ansichtsrelevanter Parameter kann die Gestalt,
d. h. die Form und evtl. die Abmessung, der Zielstruktur sein. Ein
weiterer bevorzugter ansichtsrelevanter Parameter ist die Sichtbarkeit
eines Schwerpunkts der Zielstruktur.
-
Weiterhin
kann auch die Sichtbarkeit der Oberfläche der Zielstruktur
bei der automatischen Bestimmung eines Ansichtspunkts berücksichtigt werden.
Beispielsweise ist es möglich, die Sichtbarkeit der Oberfläche
so zu berücksichtigen, dass eine gewichtete Summe der von
der jeweiligen Ansichtsrichtung aus sichtbaren Voxel der Struktur
definiert wird. Wird ausschließlich nach diesem Parameter
gearbeitet, so ist das Ergebnis eine Kameraposition mit einem Maximum
an sichtbaren Voxeln. Je nach Beschaffenheit der interessierenden
Struktur kann eine derartige Bewertung nach maximierter Oberfläche aber
auch zu ungünstigen Ansichtspunkten führen.
-
Besonders
bevorzugt werden zur Bestimmung eines Ansichtspunkts mehrere Ansichtssphären
für unterschiedliche ansichtsrelevante Parameter miteinander
kombiniert. Die Kombination kann dabei mit verschiedenen Kombinationsoperatoren,
beispielsweise einem Additionsoperator, einem Multiplikationsoperator,
einem Grenzwertoperator oder Ähnlichem, erfolgen. Eine
Möglichkeit zur Erstellung von solchen Ansichtssphären
sowie von Kombinationen von Ansichtssphären mit verschiedenen
Operatoren wird in dem Artikel „LiveSync: Deformed
Viewing Spheres for Knowledge-Based Navigation" von P. Kohlmann,
S. Bruckner, A. Kanitsar und M. E. Gröller in IEEE Transactions
on Visualization and Computer Graphics, Volume 13, No. 6, 2007,
Seiten 1544 bis 1551, detaillierter beschrieben. Die dort
beschriebenen Verfahren können auch im Rahmen der vorliegenden
Erfindung angewandt werden.
-
Bei
einer ganz besonders bevorzugten Variante wird zunächst
nach dem zuvor beschriebenen Verfahren durch die Kombination mehrerer
Ansichtssphären ein Start-Ansichtspunkt bestimmt. Es erfolgt dann
unter Berücksichtigung der Sichtbarkeit der Oberfläche
der Zielstruktur in einer Umgebung um den Start-Ansichtspunkt die
eigentliche Bestimmung des Ansichtspunkts.
-
Hierzu
kann beispielsweise bevorzugt in einer Umgebung um den Start-Ansichtspunkt
eine vorzugsweise frei definierbare bzw. konfigurierbare Anzahl
von Kandidaten-Ansichtspunkten festgelegt werden. Zu jedem dieser
Kandidaten-Ansichtspunkte werden dann von verschiedenen Oberflächenpunkten
bzw. Voxeln in einem definierten relevanten Gebiet der Oberfläche
der Zielstruktur aus Suchstrahlen ausgesendet. Diese Suchstrahlen
werden dann dahingehend analysiert, ob sie den jeweiligen Kandidaten-Ansichtspunkt
erreichen.
-
Dieses
Verfahren der Berücksichtigung der Oberflächensichtbarkeit
in einer Umgebung eines Start-Ansichtspunkts kann auch unabhängig
von der Vorgehensweise bei der Wahl des Start-Ansichtspunkts vorteilhaft
sein.
-
Hierbei
können auch Transferfunktionen von anderen visualisierten
Organen berücksichtigt werden. Ist z. B. einem anderen
Organ eine niedrige Transferfunktion zugeordnet, d. h. das Organ
ist undurchsichtig dargestellt, so kann es sein, dass der Suchstrahl
den Kandidaten-Ansichtspunkt nicht erreicht. Ebenso kann die Transferfunktion
in geeigneter Weise bei der Analyse berücksichtigt werden, wenn
das Organ durchsichtig dargestellt wird, d. h. zwar im Bild mit
visualisiert wird, aber nur die Sichtbarkeit auf die Zielstruktur
einschränkt, jedoch nicht ganz verhindert. Es wird dann
auf Basis eines Ergebnisses der gesamten Analyse ein Ansichtspunkt
aus den Kandidaten-Ansichtspunkten ausgewählt.
-
Je
nach klinischer Fragestellung ist es unter Umständen wünschenswert,
eine sogenannte „Clipplane” zu setzen. Bei einer
solchen Clipplane handelt es sich um eine Schnittebene durch die
visualisierten Strukturen, bei der alles, was vom Ansichtspunkt
aus gesehen vor der Clipplane liegt, automatisch aus dem Bild entfernt
wird. Liegt beispielsweise eine solche Clipplane innerhalb eines
Organs, so wird an dieser Stelle das Organ im Schnitt dargestellt und
ausgehend von dieser Schnittfläche vom Ansichtspunkt weg
die weiteren Konturen als dreidimensionale Außenansicht.
-
Beispielsweise
kann ein solcher Querschnitt durch ein Organ mit Hilfe einer Benutzeroberfläche durch
einen Bediener festgelegt werden. Bei einer bevorzugten Variante
ermöglicht die Erfindung aber das Setzen der Clipplane
vor eine bestimmte Struktur, d. h. ein bestimmtes Organ oder ein
Gefäß, um dieses automatisch freizustellen. Zur
Festlegung der Clipplane kann hierzu entlang einer vom Ansichtspunkt
zu einem Zielpunkt in der Zielstruktur verlaufenden Verbindungsachse
in einem Abstand von einer Zielstrukturoberfläche zum Ansichtspunkt
ein Ebenenschnittpunkt festgelegt werden. Die Clipplane wird dann
so festgelegt, dass sie orthogonal zur Verbindungsachse ist und
der Ebenenschnittpunkt in der Clipplane liegt. Bei dem Zielpunkt
kann es sich in der Regel um den Schwerpunkt der Zielstruktur oder
um einen vom Benutzer gesetzten Punkt handeln. Der Abstand des Ebenenschnittpunkts
von der Zielstrukturoberfläche kann dabei relativ kurz
sein, sollte aber vorzugsweise zumindest so lang sein, dass das
gesamte Organ vom Ansichtspunkt aus gesehen hinter der Clipplane
liegt, so dass das Organ komplett freigestellt wird, ohne dass es
durch die Clipplane geschnitten wird.
-
Besonders
bevorzugt werden innerhalb des erfindungsgemäßen
Verfahrens verschiedene Szenarien vordefiniert, denen bestimmte
Strukturauswahldaten und/oder individuelle Transferfunktionen für
funktionelle Strukturen und/oder ansichtsrelevante Parameter zugeordnet
sind. Diesen Szenarien können auch noch weitere der zuvor
beschriebenen Parameter zugeordnet sein, beispielsweise, welche ansichtsrelevanten
Parameter bei der Definition von Ansichtssphären verwendet
werden und wie eine Kombination der verschiedenen Ansichtssphären
erfolgt, z. B. mit welcher Gewichtung die ansichtsrelevanten Parameter
eingehen. Ebenso können hierüber auch bereits
Parameter zur automatischen Festlegung von Clipplanes zugeordnet
sein.
-
Die
verschiedenen vordefinierten Szenarien können für
verschiedene klinische Fragestellungen definiert sein. Es ist dann
vorzugsweise möglich, dass zumindest ein vordefiniertes
Szenario automatisch auf Basis von patienten- und/oder untersuchungsspezifischen
Daten ausgewählt wird. Solche patienten- bzw. untersuchungsspezifischen
Daten können beispielsweise innerhalb eines RIS (Radiologie
Informationssystem) vorhanden sein. Insbesondere kann es sich hierbei
um Untersuchungsanfragedaten (sog. Requested Procedure) handeln,
mit denen die durchzuführenden Untersuchungen an dem jeweiligen
bildgebenden System definiert werden. Wird auf Basis der im RIS
vorhandenen Daten ein vordefiniertes Szenario ausgewählt,
so können die zugeordneten Strukturauswahldaten, individuellen Transferfunktionen,
ansichtsrelevanten Parameter etc. verwendet werden, um vollautomatisch
die passenden Volumenansichtsbilder aus den dreidimensionalen Bilddaten
zu erzeugen, die der Befunder höchstwahrscheinlich für
die Befundung bei der jeweiligen klinischen Fragestellung benötigt.
-
Die
Erfindung wird im Folgenden anhand von Ausführungsbeispielen
unter Hinweis auf die beigefügten Zeichnungen näher
erläutert. Es zeigen:
-
1 eine
schematische Darstellung eines möglichen Ablaufs des erfindungsgemäßen
Verfahrens,
-
2 eine
schematische Darstellung eines Ausführungsbeispiels eines
erfindungsgemäßen Bildverarbeitungssystems,
-
3 eine
mögliche Variante für ein Verfahren zur Bestimmung
eines automatischen Ansichtspunktes im Hinblick auf eine Betrachtung
einer Organoberfläche,
-
4 eine
mögliche Variante für ein Verfahren zur Bestimmung
eines automatischen Ansichtspunktes im Hinblick auf eine Betrachtung
des Querschnitts durch ein Organ,
-
5 eine
Darstellung einer Ansichtssphäre unter Berücksichtigung
einer bevorzugten Blickrichtung,
-
6 eine
Darstellung einer Ansichtssphäre unter Berücksichtigung
der Form eines Organs,
-
7 eine
Darstellung einer Ansichtssphäre unter Berücksichtigung
der Sichtbarkeit eines Organschwerpunkts,
-
8 eine
schematische Darstellung von Operatoren zur Verknüpfung
von Ansichtssphären,
-
9 eine
schematische Darstellung einer begrenzten Organoberflächenanalyse
zur Auffindung eines optimalen Ansichtspunktes,
-
10 eine
Darstellung der unterschiedlichen Sichtbarkeit von Oberflächenteilen
eines Organs von verschiedenen Ansichtspunkten aus,
-
11 eine
schematische Darstellung einer grafischen Benutzeroberfläche
zur Auswahl von zu visualisierenden Strukturen und einer Zielstruktur
in Form von virtuellen Tasten, und
-
12 eine
schematische Darstellung einer grafischen Benutzeroberfläche
zur Auswahl von zu visualisierenden Strukturen und einer Zielstruktur
in Form eines Piktogramms mit aktivierbaren Regionen.
-
Bei
dem folgenden Ausführungsbeispiel wird – ohne
Beschränkung der Erfindung darauf – davon ausgegangen,
dass es sich bei den zu visualisierenden Strukturen jeweils um Organe
handelt, wobei ein Gefäß bzw. ein funktioneller
Teil eines Gefäßes, beispielsweise die Bauchaorta,
ebenfalls als Organ bezeichnet wird. Daher wird im Folgenden anstelle
des Begriffs „funktionelle Struktur” meist der
Begriff „Organ” verwendet.
-
Im
nachfolgenden Ausführungsbeispiel wird weiterhin davon
ausgegangen, dass in einem Schritt I für eine
klinische Untersuchung zunächst Patientendaten aufgenommen
werden und ein Examination Request ER definiert wird, welcher zum
einen patientenspezifische Informationen wie Name, Alter, Geschlecht
und zum anderen untersuchungsspezifische Informationen enthält,
beispielsweise, mit welcher Vordiagnose ein Patient gekommen ist
und welche speziellen Untersuchungen und Befundungen durchzuführen
sind. Die Eingabe dieser Daten kann z. B. an einem beliebigen Terminal
T1 erfolgen. Zumindest ein Teil der Daten kann auch über
einen vorzugsweise gesicherten Kanal eines Netzwerks von einem einweisenden
Arzt gesendet oder sonstwie elektronisch übernommen worden
sein. Über ein Netzwerk N werden diese Daten dann in einem
zweiten Schritt II an einem bildgebenden System BS, beispielsweise einem
Computertomographen oder Magnetresonanztomographen, dazu verwendet,
um die im Examination Request ER definierten Messungen durchzuführen.
Hierzu werden an dem bildgebenden System BS die notwendigen Rohdaten
RD akquiriert und daraus ebenfalls im Schritt II die Bilddaten
BD rekonstruiert. Dabei handelt es sich um dreidimensionale Bilddaten,
wobei die einzelnen Voxel beispielsweise schichtweise oder auch
gleich in Form einer Volumenmessung aufgenommen worden sein können.
-
Erfindungsgemäß werden
diese Bilddaten BD zunächst in einem Schritt III segmentiert.
Hierbei werden vorzugsweise alle Organe des relevanten Bereichs
einzeln segmentiert. Die segmentierten Strukturen bzw. Organe werden
eindeutig markiert, um sie so identifizieren zu können.
Dies kann beliebig in Form eines geeigneten Namens des jeweiligen
Organs wie „Leber”, „linke Niere” etc.
erfolgen, aber auch durch Kennziffern oder dergleichen. Wesentlich ist
nur, dass im späteren Verfahren die segmentierten Organe
automatisch oder durch einen Bediener ausgewählt werden
können, um dann die zugehörigen segmentierten
Strukturen, d. h. alle Voxel, die zu der jeweiligen Struktur gehören,
zu visualisieren, aus einer Visualisierung zu entfernen oder mit
einer bestimmten Transferfunktion, d. h. einer bestimmten Durchsichtigkeit,
zu versehen.
-
In
einem weiteren Schritt IV werden dann Strukturauswahldaten
AD, Zielstrukturauswahldaten ZD und gegebenenfalls Transferfunktionen
TF definiert. Dies kann, wie später noch erläutert
wird, mit Hilfe eines Bedienerterminals T2 erfolgen. Es ist aber auch
möglich, diese Daten über das Netzwerk N beispielsweise
mit Hilfe der im RIS im zugehörigen Examination Request
EZ eingegebenden Daten zu entnehmen. Insbesondere ist es möglich,
dass ein Teil der Daten oder sogar alle Daten für die Ansichtsbilderstellung
bereits in einem Szenario SZ definiert sind. Hierzu können
verschiedene Szenarien SZ in einer Datenbank DB hinterlegt sein,
und ein solches Szenario SZ wird beispielsweise im Schritt I bei
der Definition des Examination Request aufgrund der klinischen Fragestellung
ausgewählt. Alle notwendigen Daten, um das Szenario zu
identifizieren, und/oder die einzelnen dem Szenario SZ zugeordneten
Daten AD, ZD, TF werden dann entweder mit dem Examination Request
ER an die später zur automatischen Erstellung der Volumenansichtsbilder
verwendeten Rechnereinheiten übergeben oder es wird im
Schritt IV auf Basis des Examination Request EZ ein Szenario
SZ oder zumindest einzelnen Parameter AD, ZD, TF aus der Datenbank
DB ermittelt.
-
Verschiedene
Möglichkeiten, wie ein Bediener über ein Terminal
T2 die zu visualisierenden Strukturen und/oder eine Zielstruktur
auswählen kann, werden nachfolgend anhand der 11 und 12 erläutert.
-
Eine
Möglichkeit besteht darin, dass auf einem Display des Terminals
eine Anzahl von virtuellen Tasten dargestellt wird, wie dies in 11 gezeigt
ist. Jede dieser virtuellen Tasten enthält eine repräsentative
Darstellung, beispielsweise eine schematische Zeichnung, des Organs
bzw. der Knochenstruktur. Der Bediener kann dann mit Hilfe eines
Mauszeigers die virtuellen Tasten anklicken und somit bestimmte Organe
oder Knochenstrukturen auswählen, die nachfolgend visualisiert
werden sollen. So ist eine sehr einfache Erfassung von Strukturauswahldaten AD
möglich. In der Repräsentationsdarstellung RD1 in 11 sind
beispielsweise die Organe auf den vertieft dargestellten Tasten
(d. h. die hell hinterlegten Organe) bereits ausgewählt
worden, wobei die Organe auf den erhöht dargestellten Tasten
noch nicht ausgewählt sind und somit in dem anzufertigenden Volumenansichtsbild
nicht dargestellt würden.
-
12 zeigt
eine andere Variante für eine aktivierbare Repräsentationsdarstellung
RD2. Der Nutzer wählt hier mittels eines Klicks auf das
dargestellte Piktogramm aus, welche Organe visualisiert und welche
Organe nicht dargestellt werden sollen. Das Piktogramm kann dabei
sensitive Zonen enthalten, die vorzugsweise möglichst exakt
der vorher durchgeführten Multi-Organstruktur-Segmentierung entsprechen.
Das heißt, dass beispielsweise die segmentierte Leber eine
eigene Zone hat, die der Bilddarstellung der Leber im Piktogramm
entspricht. Entsprechendes gilt für die Nieren, die Bauchaorta,
die Rippen, das Herz, den Darm etc.
-
Zusätzlich
kann ein Bediener zur Auswahl von zu visualisierenden Strukturen
innerhalb der zu visualisierenden Organe den Fokus auf ein besonders
interessierendes Zielorgan setzen. In dem erfindungsgemäßen
Verfahren ist es dann insbesondere möglich, automatisch
den optimalen Ansichtspunkt auf das fokussierte Zielorgan zu setzen.
-
Vorzugsweise
sind dabei folgende Interaktionen zur Fokussierung auf ein bestimmtes
Organ möglich:
Beispielsweise kann innerhalb des Auswahlverfahrens,
wie es oben anhand der 11 und 12 definiert
wurde, durch gleichzeitiges Drücken einer weiteren Taste,
z. B. einer Shift-Taste, bestimmt werden, ob es sich bei dem ausgewählten
Organ einfach um ein zu visualisierendes Organ handelt oder um das Zielorgan.
-
Eine
weitere Möglichkeit besteht darin, dass die zu visualisierenden
Organe in einer Volumendarstellung angezeigt werden. Der Bediener
kann in dieser Darstellung mit einem Mauszeiger direkt auf das Zielorgan
klicken. Das Organ wird dann durch das Aussenden eines Suchstrahls
in Blickrichtung auf den selektierten Punkt detektiert und es wird
das Organ ausgewählt, dessen zugehöriges Voxel
als erstes durch den Suchstrahl erreicht wird.
-
Wie
oben bereits erwähnt, können aber nicht nur die
zu visualisierenden Organe, sondern auch das Zielorgan innerhalb
eins Szenarios vordefiniert sein.
-
Nachdem
sämtliche zu visualisierenden Strukturen und ggf. die Zielstruktur
ausgewählt sind, erfolgt im Schritt V die eigentliche
Ermittlung des Volumenansichtsbildes.
-
Hierzu
wird vorzugsweise zunächst die beste Sicht auf die Zielstruktur,
insbesondere auf ein Zielorgan, unter Berücksichtigung
der anderen visualisierten Strukturen ermittelt. Die Ermittlung
des günstigsten Ansichtspunkts erfolgt bei dem dargestellten
Ausführungsbeispiel im Rahmen einer modellbasierten Suche
mit einer anschließenden Korrektur durch eine lokal begrenzte
Oberflächen-Sichtbarkeits-Analyse.
-
Die
modellbasierte Suche beinhaltet dabei die Kodierung und Kombination
von ansichtsrelevanten Parametern im Rahmen von Ansichtssphären, ähnlich
wie dies bereits in der oben genannten Schrift von P. Kohlmann
et al. erläutert ist. Hierbei werden insgesamt
folgende Kriterien bzw. ansichtsrelevanten Parameter berücksichtigt.
-
1. Die bevorzugte Blickrichtung:
-
Je
nach vorliegendem Datensatz können favorisierte Blickrichtungen
auf die Volumendarstellung definiert werden. Dabei kann der Bediener
bzw. der spätere Befunder, welcher das Bild betrachten
soll, seine favorisierten Blickrichtungen für bestimmte Körperregionen
oder bestimmte klinische Fragestellungen vorkonfigurieren. Dies
kann z. B. durch eine manuelle Positionierung der virtuellen Kamera
und ein Speichern der Position in einem Konfigurationsmodus erfolgen.
-
Als
ein Beispiel ist in eine Ansichtssphäre
VS1 dargestellt, in der die Normalen-Richtung, d. h. die senkrechte
Richtung, bezüglich der Kopf-Fuß-Achse des Patienten
als bevorzugt kodiert ist. Daher weist die Ansichtssphäre
eine Form auf, so dass alle Ansichtspunkte, die genau senkrecht
zur Kopf-Fuß-Achse des Patienten liegen, weiter vom zentralen
Punkt der Ansichtssphäre entfernt sind als die Punkte,
die parallel zur Kopf-Fuß-Achse des Patienten liegen.
-
2. Die Form des Organs:
-
Mit
Hilfe einer Hauptkomponentenanalyse kann das Zielorgan bezüglich
seiner dominanten räumlichen Ausdehnung analysiert werden.
In einer Ansichtssphäre erfolgt dann eine Kodierung der
bevorzugten Ansichtspunkte so, dass der Blick in Normalen-Richtung
auf die größte Organausdehnung favorisiert wird.
-
zeigt
ein Beispiel für die Ansichtssphäre hinsichtlich
des ansichtsrelevanten Parameters „Organform” einer
Niere.
-
3. Die Sichtbarkeit des Strukturschwerpunkts:
-
Um
eine optimale Sicht auf das Zielorgan zu erlauben, werden vom Schwerpunkt
des segmentierten Zielorgans aus Strahlen in alle Raumrichtungen ausgesendet.
Dabei werden die Opazitäten der durchlaufenden Voxel integriert.
Die Opazitäten sind dabei durch die Transferfunktion der
einzelnen Organe gegeben. Diese Transferfunktionen können,
wie oben erläutert, vorzugsweise für jedes einzelne
segmentierte Organ vorgegeben sein und insbesondere für
bestimmte Szenarien schon hinterlegt sein. Dabei wird berücksichtigt,
welche Organe überhaupt in den geplanten Volumenansichtsbildern
visualisiert werden sollen. Ausgeblendete Organe werden mit der Opazität
0 berücksichtigt, d. h. sie sind komplett durchscheinend.
Umgebende Organe, die visualisiert werden sollen, werden mit der
Opazität ihrer spezifischen Transferfunktion berücksichtigt.
Alternativ können auch alle umgebenden Organe mit der Opazität 1
berücksichtigt werden, d. h. sie sind komplett undurchsichtig.
Erreicht ein Strahl ein Voxel mit der Opazität 1, wird
der Strahl terminiert und mit einem minimalen Sichtbarkeitswert
in der Ansichtssphäre kodiert. Liegt die Opazität
zwischen 1 und 0, wird davon ausgegangen, dass der Suchstrahl bezüglich
der Sichtbarkeit eingeschränkt ist, was ebenfalls innerhalb
der Ansichtssphäre durch entsprechende Einstellung der
Entfernung des jeweiligen Ansichtspunktes auf der Ansichtssphäre
vom Zentrum der Ansichtssphäre kodiert werden kann.
-
Eine
solche Ansichtssphäre unter Berücksichtigung der
Sichtbarkeit des Organschwerpunkts ist am Beispiel einer Leber mit
den umgebenden verdeckenden Organen und Knochenstrukturen in dargestellt.
-
Die
zuvor beschriebenen Ansichtssphären können mit
Hilfe von Operatoren verknüpft werden. Drei verschiedene
Operatoren sind in 8 schematisch dargestellt.
-
Im
oberen Bild handelt es sich um einen Additionsoperator, bei dem
einfach für alle Ansichtspunkte auf der Ansichtssphäre
die Werte der kombinierten einzelnen Ansichtssphären aufsummiert
werden.
-
In
der Mitte von 8 ist ein Grenzwertoperator
dargestellt. Dabei werden die Radien des rechten Operanden in das
Ergebnis übernommen, wenn an dieser Position der linke
Operand einen Radius aufweist, der größer als
ein vorgegebener Schwellenwert ist. Mit diesem Operator lassen sich
Ausscheidungskriterien sehr gut realisieren.
-
In
der unteren Spalte von 8 ist ein Multiplikationsoperator
dargestellt. Dabei wirken sich geringe Radien bei einem der Operanden
stark auf die entsprechende Position im Ergebnis aus. Ein großer Radius
im Ergebnis bedeutet also, dass auf allen berücksichtigten
Ansichtssphären an dieser Position eine gute Kameraposition
induziert wird.
-
Zur
genauen Definition und Realisierung solcher Operatoren wird auf
die Schrift von Kohlmann et al. verwiesen.
-
Bei
der Kombination können die einzelnen Ansichtssphären
auch gewichtet werden, um deren Einfluss anzupassen. Beispiele hierfür
werden später noch anhand der 3 und 4 gegeben.
-
Wie
oben bereits erwähnt, ist es möglich, den so bestimmten
Ansichtspunkt hinsichtlich der Sichtbarkeit der Organoberfläche
zu korrigieren. Dies erfolgt in einer lokalen Oberflächenansichtsanalyse.
-
Hierzu
wird zunächst in einem Vorpositionierungsschritt, vorzugsweise
mit Hilfe des oben beschriebenen Verfahrens unter Berücksichtigung
einer Kombination der verschiedenen Ansichtssphären, ein
Start-Ansichtspunkt SAP gewählt. In einem nachfolgenden
Feinpositionierungsschritt erfolgt dann die Auswahl des optimalen
Ansichtspunkts innerhalb der Umgebung dieses Start-Ansichtspunkts.
Dabei wird eine konfigurierbare Anzahl von Kandidaten-Ansichtspunkten
KAP um den Start-Ansichtspunkt SAP ausgewählt. Ein einfaches
Beispiel hierfür ist schematisch in 9 dargestellt.
Für jeden dieser Kandidaten-Ansichtspunkte KAP (einschl.
des Start-Ansichtspunkts SAP) wird eine Oberflächenanalyse
der Oberfläche O des interessierenden Organs durchgeführt,
um dann die Ansichtsposition auszuwählen, so dass die sichtbare
Oberfläche O maximiert wird. Hierzu werden Suchstrahlen
von allen Oberflächenpunkten OP in einem Gebiet in Richtung
der zu bewertenden Kamerapositionen bzw. Ansichtspunkte betrachtet.
Beispielsweise können das alle Oberflächenpunkte
sein, die sich innerhalb eines Winkels α, ausgehend von
einer Verbindungsachse zwischen dem Start-Ansichtspunkt SAP und
dem Organschwerpunkt OSP, befinden. Bei den Oberflächenpunkten OP
handelt es sich beispielsweise um die Mittelpunkte der Oberflächenvoxel
des segmentierten Organs. Dabei wird bevorzugt beachtet, dass die
Voxel in den wenigsten Fällen isometrisch sind. Meistens
ist die Auflösung in z-Richtung geringer als in x- oder y-Richtung.
Das hat zur Folge, dass die sichtbare Fläche eines Voxels
je nach Betrachtungsrichtung variiert. Daher wird vorzugsweise festgestellt,
aus welcher Fläche des Voxels der Suchstrahl austritt. Der
Betrag dieser Fläche geht dann in die Bewertung mit ein.
Die x- und y-Auflösung ist im Allgemeinen bei Volumendatensätzen
identisch. Das Problem kann somit darauf reduziert werden zu ermitteln,
ob der Suchstrahl aus der oberen oder unteren Fläche oder aus
einer Seitenfläche austritt. Um die Austrittsfläche zu
ermitteln, wird der Winkel zwischen einer parallel zur Bodenfläche
und durch den Schwerpunkt des Voxels verlaufenden Ebene und dem
Suchstrahl betrachtet.
-
Diese
Oberflächenanalyse wird wie gesagt auf die lokale Nachbarschaft
von vielversprechenden Kandidaten-Ansichtspunkten KAP beschränkt,
da eine vollständige Auswertung der sichtbaren Oberfläche
O des Organs für jeden möglichen Ansichtspunkt zu
rechenaufwändig wäre und somit eine Echtzeitinteraktion
verhindern würde.
-
10 zeigt
ein simples Beispiel, wie durch eine solche Analyse die Kameraposition
verbessert werden kann. Ausgewählt wurde hier zunächst
ein Start-Ansichtspunkt SAP, von dem aus zwar ein großer
Teil der Organoberfläche gut erkennbar ist. Eingezeichnet
sind auch zwei Suchstrahlen ST, die von zwei Oberflächenpunkten
OP1, OP1 zu diesem Start-Ansichtspunkt SAP verlaufen. Jedoch gibt
es keinen Suchstrahl, der von dem Grund einer Falte in der Oberfläche
O, d. h. von dem Organoberflächenpunkt OP3, zu diesem Start-Ansichtspunkt
führt. Innerhalb der lokalen Oberflächenansichtsanalyse wurde
aber ein Ansichtspunkt AP gefunden, von dem aus Suchstrahlen ST
zu allen drei Oberflächenpunkten OP1, OP2, OP3 führen,
d. h. von diesem Ansichtspunkt AP aus ist auch eine optimale Sicht
in die Falte der Organoberfläche O gewährleistet.
-
In
den 3 und 4 ist dargestellt, wie durch
unterschiedliche Gewichtung und Verknüpfung verschiedener
Ansichtssphären und gegebenenfalls Anwendung einer lokalen
Oberflächensichtanalyse je nach klinischer Fragestellung
bzw. einem gegebenen Visualisierungsziel unterschiedliche optimale
Ansichtspunkte gefunden werden können.
-
In 3 ist
zunächst ein Visualisierungsziel VZO definiert, bei dem
es darum geht, möglichst die Organoberfläche zu
befunden. Hierzu werden zunächst die Ansichtssphären
VS1, VS2, VS3 mit den oben beschriebenen Kriterien bzw. ansichtsrelevanten
Parametern 1 bis 3 definiert. Es erfolgt dann eine Addition der
Ansichtssphäre VS1 hinsichtlich des ansichtsrelevanten
Parameters „Orientierung” und der Ansichtssphäre
VS2 hinsichtlich des ansichtsrelevanten Parameters „Form”,
wobei die Orientierung mit einem Faktor 0,6 gewichtet wird und die
Form mit einem Faktor 1,0. Das Ergebnis wird dann mit der Ansichtssphäre
VS3 hinsichtlich des ansichtsrelevanten Parameters „Strukturschwerpunkt-Sichtbarkeit” durch
eine Multiplikation kombiniert, wobei das Ergebnis der Addition
und die weitere Ansichtssphäre VS3 jeweils gleich gewichtet
mit dem Faktor 1,0 eingehen. Anschließend wird unter Berücksichtigung des
so ermittelten optimalen Ansichtspunkts als Start-Ansichtspunkt
eine lokale Oberflächensichtbarkeitsanalyse LOA durchgeführt,
wie sie zuvor beschrieben wurde.
-
4 geht
von einem Visualisierungsziel VZS aus, bei dem ein Organschnitt
visualisiert werden soll. Auch hier werden zunächst wieder
die drei Ansichtssphären VS1, VS2, VS3 des betreffenden Organs
erstellt. Dabei erfolgt ebenfalls zunächst eine Addition
der Ansichtssphäre VS1 für die Orientierung und
der Ansichtssphäre VS2 für die Organform, jedoch
hier mit gleichen Gewichtungsfaktoren von 1,0. Das Ergebnis wird
dann über einen Schwellenwertoperator mit der Ansichtssphäre
VS3 bezüglich der Sichtbarkeit des Organschwerpunkts kombiniert,
wobei das Ergebnis aus der Addition den Gewichtungsfaktor 1,0 erhält
und die weitere Ansichtssphäre bezüglich der Sichtbarkeit
des Organschwerpunkts den Gewichtungsfaktor 1,4. Anschließend
erfolgt eine Multiplikation der so erhaltenen Ansichtssphäre
(mit einem Gewichtungsfaktor 1,0) mit der ursprünglichen Ansichtssphäre
VS2 bezüglich der Organform (welche wieder mit einer Gewichtung
1,0 eingeht).
-
Nachdem
ein optimaler Ansichtspunkt gefunden wurde, kann es je nach klinischer
Fragestellung sinnvoll sein, eine Clipplane zu setzen. Dies kann entweder
vollautomatisch oder halbautomatisch, z. B. mit einer einfachen
Bedienerinteraktion, erfolgen.
-
Beim
Setzen einer solchen Clipplane sind zwei Fälle zu unterscheiden:
- 1. Die Clipplane wird vor ein Organ gesetzt:
Hierbei wird durch eine Clipplane die Sicht auf ein Zielorgan zusätzlich
verbessert, indem hinderliche Bilddaten entfernt werden, die von
der Kameraposition aus gesehen vor der Clipplane sitzen. Zur automatischen
Freistellung kann dabei vom Schwerpunkt des Organs ein Strahl in
Richtung des aktuellen Ansichtspunkts analysiert werden, um die
Organoberfläche in dieser Richtung zu finden. An dem Punkt,
an dem der Suchstrahl das Organ durchstößt, wird
der Strahl um einen kleinen Betrag verlängert. Das Ende
des Strahls wird dann als Punkt zur Definition der Clipplane verwendet,
die in Normalen-Richtung zum Strahl positioniert wird. So wird auf
einfache Weise das jeweilige Organ automatisch freigestellt. Alternativ kann
auch ein Benutzer den Schnittpunkt, an dem die Clipplane auf dem
Suchstrahl gesetzt wird, mit Hilfe einer grafischen Benutzeroberfläche
festlegen.
- 2. Es wird ein Organquerschnitt mit Hilfe einer Clipplane festgelegt:
Zur Visualisierung eines Organschnitts kann beispielsweise ein Bediener durch
einen Klick in eine parallel ausgegebene zweidimensionale Ansicht
einen beliebigen Punkt angeben, durch den die Clipplane verlaufen
soll. Die Orientierung der Clipplane wird dann beispielsweise wieder
automatisch bezüglich des Ansichtspunkts in dem dreidimensionalen
Volumenansichtsbild berechnet und entsprechend dort visualisiert.
Auf der Clipplane werden bei einem solchen Schnitt mit bekannten
Methoden die Grauwertinformationen des jeweils angeschnittenen Organs
dargestellt.
-
Bei
beiden Visualisierungszielen kann die Clipplane vorzugsweise mit
einem interaktiven Element verbunden sein, so dass der Bediener
die aktuell dargestellte Clipplane mittels einer graphischen Benutzeroberfläche
kippen und verschieben kann.
-
Werden
im Schritt V (siehe 1) die gewünschten
Volumenansichtsbilder B beispielsweise in Form von Screenshots erzeugt,
so können diese Bilder B entweder sofort auf dem Terminal
T2 angezeigt werden und/oder in einem Massenspeicher S für
eine spätere Befundung hinterlegt werden. Insbesondere
können die so hinterlegten Screenshots auch über
das Netzwerk N wieder aus dem Speicher S abgefragt und beispielsweise
an einer beliebigen Befundungsstation vom Radiologen gesichtet werden.
-
2 zeigt
grob schematisch ein Bildverarbeitungssystem 1, mit dem
dieses Verfahren durchführbar ist. Das Bildverarbeitungssystem 1 weist
dabei eine Bilddatenschnittstelle 2 auf, über
die das Bildverarbeitungssystem Bilddaten BD beispielsweise von
einer Rekonstruktionseinrichtung oder aus einem Massenspeicher übernehmen
kann, in dem die Bilddaten für einen bestimmten Untersuchungsauftrag
zuvor hinterlegt wurden.
-
Das
Bildverarbeitungssystem 1 weist außerdem eine
Segmentierungseinrichtung 3 auf, in der die erfindungsgemäße
Segmentierung der verschiedenen Strukturen, insbesondere Organe,
durchgeführt wird.
-
In
einer Auswahldatenermittlungseinheit 4, die beispielsweise
auch als Benutzerschnittstelle mit Verbindung zu einem Terminal
T oder als Schnittstelle zu einem Netzwerk N ausgebildet sein kann,
werden die Strukturauswahldaten AD und Zielstrukturauswahldaten
ZD zur Festlegung von zu visualisierenden funktionellen Strukturen
und der Zielstruktur sowie ggf. weitere für die Bildgebung
wie oben beschrieben relevanten Daten ermittelt. In dieser Einheit
können auch alle Softwaremodule oder dergleichen realisiert
sein, um die notwendigen Daten zu definieren, wie sie im Schritt IV anhand
von 1 weiter oben erläutert wurden.
-
Ein
zentrales Modul des Bildverarbeitungssystems 1 ist hier
eine Bildermittlungseinheit 5, welche auf Basis der segmentierten
funktionellen Strukturen und der Strukturauswahldaten AD aus den
dreidimensionalen Bilddaten BD ein Volumenansichtsbild B bzw. in
der Regel mehrere Volumenansichtsbilder B erzeugt, die dann über
eine Ausgabeschnittstelle 6 des Bildverarbeitungssystems 1 an
einen Speicher und/oder an eine Bildausgabeeinrichtung, beispielsweise
ein Display oder einen Drucker, ausgegeben werden können.
-
Das
Bildverarbeitungssystem 1 ist hier in Form eines zusammenhängenden
Blocks dargestellt. Grundsätzlich ist es aber auch möglich,
dass die Komponenten des Bildverarbeitungssystems 1 auf
mehreren lokal getrennten Teilsystemen realisiert sind. Insbesondere
ist es möglich, dass die Segmentierungseinrichtung 3 beispielsweise
auf einem anderen Rechner als die Auswahldatenermittlungseinheit 4 und
die Bildermittlungseinheit 5 realisiert ist. Dies ist insofern
sinnvoll, als die Segmentierung relativ viel Rechenkapazität
benötigt. Insofern könnte ein spezieller Rechner
hierfür reserviert sein, welcher auf Anforderung die Bilddaten
BD übernimmt und die Segmentierung vornimmt, bevor eine
weitere Analyse der Bilddaten BD erfolgt, beispielsweise in einer
Wartezeit, bevor sich überhaupt ein Bediener mit diesen Daten
beschäftigt.
-
Für
die Bearbeitung werden dann die fertig segmentierten Bilddaten BDS übernommen
und die Recheneinheit ist während der weiteren Bildverarbeitung
frei, um andere Bilddaten zu segmentieren.
-
Das
erfindungsgemäße Verfahren bietet die Möglichkeit,
entweder teilautomatisch mit lediglich einfachen, intuitiven Nutzerinteraktionen
oder sogar vollautomatisch selektiv Organe von Interesse in einer
Volumenansichtsdarstellung ein- oder auszublenden. Das Verfahren
erlaubt somit die vollautomatische Erzeugung von Screenshots vordefinierter 3D-Darstellungen
mit optimalem Informationsgehalt. Durch Ausnutzung von RIS-Informationen
können je nach klinischer Fragestellung bestimmte Szenarien, d.
h. Presets von Parametern für die Visualisierung, insbesondere
zu visualisierende Organe, ein Zielorgan, Transferfunktionen, bevorzugte
Ansichtspositionen etc. durch das System automatisch ausgewählt werden.
-
Besonders
vorteilhaft ist hierbei neben der Multi-Struktur-Segmentierung die
bevorzugte Möglichkeit, auch den einzelnen Strukturen,
insbesondere Organen, definierte individuelle Transferfunktionen und
somit eine bestimmte Durchsichtigkeit zuzuordnen. Durch eine lokale
Oberflächenansichtsanalyse kann zusätzlich die
Eigenverdeckung der interessierenden Struktur minimiert werden.
-
Neben
der einfachen Bereitstellung eines optimalen Ausgangspunkts für
die Erzeugung von Volumenansichtsbildern, abhängig von
gegebenen dreidimensionalen Bilddaten und bestimmten vorgegebenen
klinischen Fragestellungen, beispielsweise basierend auf RIS-Informationen,
verhindert das Verfahren, dass für wiederkehrende Fragestellungen
immer die gleichen Schritte zur Erzeugung von optimalen Volumenansichtsbildern
händisch ausgeführt werden müssen. Dadurch
wird auch die Akzeptanz für verschiedenste Anwendungen,
wie z. B. Interventionsplanungen, erhöht.
-
Es
wird abschließend noch einmal darauf hingewiesen, dass
es sich bei dem vorhergehend detailliert beschriebenen Verfahren
und dem Bildverarbeitungssystem lediglich um bevorzugte Ausführungsbeispiele
handelt, welche vom Fachmann in verschiedenster Weise modifiziert
werden können, ohne den Bereich der Erfindung zu verlassen,
soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständigkeit
halber auch darauf hingewiesen, dass die Verwendung der unbestimmten
Artikel „ein” bzw. „eine” nicht
ausschließt, dass die betreffenden Merkmale auch mehrfach
vorhanden sein können. Ebenso schließen die Begriffe „Einheit” oder „Modul” usw. nicht
aus, dass diese aus mehreren Komponenten bestehen, die gegebenenfalls
auch räumlich verteilt sein können.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-
- - ”Hierarchical
parsing and semantic navigation of full body CT data” von
S. Seifert, A. Barbu, S. K. Zhou, D. Liu, J. Feulner, M. Huber,
M. Sühling, A. Cavallaro, D. Comaniciu; Proceedings of
the SPIE, Volume 7259, pp. 725902–725902-8 (2009) [0007]
- - „LiveSync: Deformed Viewing Spheres for Knowledge-Based
Navigation” von P. Kohlmann, S. Bruckner, A. Kanitsar und
M. E. Gröller in IEEE Transactions on Visualization and
Computer Graphics, Volume 13, No. 6, 2007, Seiten 1544 bis 1551 [0026]
- - P. Kohlmann et al. [0061]
- - Kohlmann et al. [0072]