DE102009035441A1 - Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers - Google Patents

Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers Download PDF

Info

Publication number
DE102009035441A1
DE102009035441A1 DE102009035441A DE102009035441A DE102009035441A1 DE 102009035441 A1 DE102009035441 A1 DE 102009035441A1 DE 102009035441 A DE102009035441 A DE 102009035441A DE 102009035441 A DE102009035441 A DE 102009035441A DE 102009035441 A1 DE102009035441 A1 DE 102009035441A1
Authority
DE
Germany
Prior art keywords
view
viewpoint
data
selection data
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009035441A
Other languages
English (en)
Other versions
DE102009035441B4 (de
Inventor
Michael Dr. Sühling
Carlos Leber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102009035441.7A priority Critical patent/DE102009035441B4/de
Priority to US12/842,185 priority patent/US9619925B2/en
Publication of DE102009035441A1 publication Critical patent/DE102009035441A1/de
Application granted granted Critical
Publication of DE102009035441B4 publication Critical patent/DE102009035441B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data

Abstract

Beschrieben wird ein Verfahren zur Erzeugung eines Volumenansichtsbilds (B) auf Basis von mittels eirzeugten dreidimensionalen Bilddaten (BD) vom Inneren eines Körpers. Hierbei werden zunächst mehrere verschiedene funktionelle Strukturen des Körpers in den dreidimensionalen Bilddaten (BD) segmentiert. Es erfolgt außerdem eine Ermittlung von Strukturauswahldaten (AD) zur Festlegung von zu visualisierenden funktionellen Strukturen. Auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten (AD) wird dann zumindest ein Volumenansichtsbild (B) aus den dreidimensionalen Bilddaten (BD) erzeugt und ausgegeben. Darüber hinaus wird ein Bildverarbeitungssystem (1) beschrieben, mit dem dieses Verfahren durchführbar ist.

Description

  • Die Erfindung betrifft ein Verfahren zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers auf Basis von mittels eines bildgebenden medizintechnischen Systems erzeugten dreidimensionalen Bilddaten. Weiterhin betrifft die Erfindung ein Bildverarbeitungssystem, mit dem mit einem solchen Verfahren aus dreidimensionalen Bilddaten ein Volumenansichtsbild erzeugbar ist.
  • Moderne bildgebende medizintechnische Systeme wie beispielsweise Magnetresonanzsysteme, Computertomographen, PET- oder SPECT-Systeme, Ultraschallanlagen etc. sind heutzutage in der Lage, sehr große Mengen an Bilddaten mit hoher Auflösung zu liefern. Eine Herausforderung zur Verbesserung der Anwendung derartiger bildgebender Systeme und der damit erzielten Ergebnisse liegt daher auch darin, die große Menge an gemessenen Bilddaten so aufzubereiten und für eine Befundung und/oder Interventionsplanung so auszugeben, dass der Befunder bzw. Planer alle relevanten Informationen erkennen kann. Hierzu werden die dreidimensionalen Bilddaten, welche beispielsweise in Form von einzelnen Schichten oder auch als Volumendaten gemessen werden können, zunehmend in Form von dreidimensionalen Visualisierungen, im Folgenden als „Volumenansichtsbilder” bezeichnet, beispielsweise im sogenannten „Volume-Rendering-Verfahren”, ausgegeben. Eine solche Ausgabe in Form von Volumenansichtsbildern erleichtert für den Befunder die Interpretation, insbesondere bei Gefäßbefundungen und darauf basierender Interventionsplanung, da der Betrachter intuitiv ein räumliches Verständnis der dargestellten Strukturen erhält und nicht allein auf sein räumliches Vorstellungsvermögen wie bei der Interpretation von rein zweidimensionalen Schnittbildern angewiesen ist.
  • In klinischen Routinen werden heutzutage solche Volumenansichtsbilder einer bestimmten Struktur, z. B. eines oder mehrerer bestimmter Organe, in der Regel in einer unabhängig von den vorliegenden Daten vorher genauen definierten Standardansicht dargestellt. Das heißt, es werden standardmäßig eine oder mehrere Volumenansichtsbilder mit verschiedenen Ansichtspunkten (den Standorten der virtuellen „Kamera”) erstellt. Die Sichtbarkeit der interessierenden Strukturen wird unter anderem durch die Wahl der sogenannten „Transferfunktion” gesteuert, welche ein Maß dafür ist, inwieweit eine bestimmte Struktur durchsichtig ist und ob in der Darstellung auch durch die Struktur hindurch auf eine dahinter liegende Struktur geschaut werden kann. Neben der Transparenz kann die Transferfunktion noch die Farbe definieren, mit der jedes Bildvoxel in der Volumendarstellung visualisiert werden soll. Die Transferfunktion basiert dabei jedoch im Wesentlichen nur auf Bildintensitäten. Dies führt dazu, dass Strukturen mit gleichen Bildintensitäten nicht getrennt voneinander dargestellt werden.
  • Üblicherweise werden daher in der Praxis für eine gegebene klinische Fragestellung meist durch einen speziell ausgebildeten technischen Bediener manuell bestimmte Strukturen, insbesondere Organe, freigestellt. Dies kann beispielsweise mit Hilfe von sogenannten „Punch-Tools” erfolgen, die virtuell einen bestimmten Bereich aus den Bilddaten ausstanzen, so dass ein Blick auf dahinterliegende Strukturen möglich ist. Dabei werden gleichzeitig auch Volumenansichtsbilder als sogenannte „Screenshots” aus verschiedenen sinnvollen bzw. informationsreichen „Kamerapositionen” erstellt. Diese Screenshots werden in der Regel über ein geeignetes Bilddatennetzwerk, beispielsweise ein PACS (Picture Archive and Communication System), zur Befundung an einen Radiologen gesandt. Insbesondere die Freistellung von Organen mit Hilfe der Punch-Tools ist relativ zeitaufwändig, da der Bediener oft verschiedene Ansichtspunkte anfahren muss und in jedem Ansichtspunkt ein geeignet geformtes Punch-Tool bilden muss, um beispielsweise durch Entfernen von weiter vorne zum Ansichtspunkt hin liegenden Organen die Sicht auf ein dahinterliegendes interessierendes Organ zu ermöglichen. Stellt sich dann heraus, dass die Sicht auf das eigentliche interessierende Zielorgan nicht gut genug ist, muss der Bediener einen neuen Ansichtspunkt anfahren und dort wieder mit einem geeignet angepassten Punch-Tool den Bereich vor dem Zielorgan freistellen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren und eine verbesserte Bildverarbeitungsvorrichtung zu schaffen, mit der die Erstellung von Volumenansichtsbildern aus dreidimensionalen Bilddaten eines bildgebenden medizintechnischen Systems erheblich vereinfacht zumindest teilautomatisch, besonders bevorzugt vollautomatisch möglich ist.
  • Diese Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 und durch eine Bildverarbeitungsvorrichtung gemäß Patentanspruch 17 gelöst.
  • Bei dem erfindungsgemäßen Verfahren erfolgt als ein wesentlicher Verfahrensschritt zunächst eine Segmentierung mehrerer verschiedener funktioneller Strukturen des Körpers in den dreidimensionalen Bilddaten. Unter funktionellen Strukturen sind hierbei beispielsweise Organe, funktionelle Teileinheiten bildende Skelettstrukturen, wie beispielsweise einzelne Rippen oder Gruppen von Rippen, der gesamte Brustkorb, die Wirbelsäule, aber auch einzelne Knochen, Gefäße bzw. funktionelle Einheiten bildende Gefäßabschnitte oder Gefäßbereiche und sonstige zur Versorgung von bestimmten Organen dienende Gewebestrukturen, beispielsweise Lymphknoten, Abschnitte des Lymphsystems oder das gesamte Lymphsystem zu verstehen. Bei einer solchen Segmentierung wird festgestellt, welche Voxel der Bilddaten zu welcher Struktur gehören und welche nicht, so dass sich einzelne Strukturen anschließend ohne großen Aufwand selektieren lassen. Inzwischen gibt es verschiedenste – beispielsweise modellbasierte – Verfahren, um eine vollautomatische Segmentierung derartiger funktioneller Strukturen in dreidimensionalen Bilddaten durchführen zu können. Ein Beispiel hierfür findet sich u. a. in dem Artikel "Hierarchical parsing and semantic navigation of full body CT data" von S. Seifert, A. Barbu, S. K. Zhou, D. Liu, J. Feulner, M. Huber, M. Sühling, A. Cavallaro, D. Comaniciu; Proceedings of the SPIE, Volume 7259, pp. 725902–725902-8 (2009).
  • Außerdem erfolgt dann, vorzugsweise in einem nächsten Schritt, gegebenenfalls aber auch parallel oder vorab, eine Ermittlung von Strukturauswahldaten zur Festlegung von zu visualisierenden funktionellen Strukturen. Das heißt, es wird hier festgelegt, welche Strukturen, beispielsweise welche Organe oder Skelettstrukturen, in dem zu erstellenden Volumenansichtsbild überhaupt visualisiert werden sollen und welche nicht. Die Ermittlung der Strukturauswahldaten kann beispielsweise durch Erfassung von über eine Benutzerschnittstelle eingegebenen Befehlen erfolgen. Sie können aber auch, z. B. aus einer Datenbank, automatisch ermittelt werden, beispielsweise abhängig von einer klinischen Fragestellung, welche der Erstellung der Volumenansichtsbilder zugrunde liegt.
  • Anschließend wird auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten zumindest ein Volumenansichtsbild aus den dreidimensionalen Daten ermittelt. Das heißt, es wird beispielsweise zunächst eine zu visualisierende Szene ermittelt, in der definiert wird, aus welcher Ansichtsrichtung die Gruppe der zu visualisierenden funktionellen Strukturen betrachtet werden soll, und es wird dann ein diese Szene darstellendes Volumenansichtsbild berechnet. Schließlich erfolgt eine Ausgabe des ermittelten Volumenansichtsbildes, beispielsweise in einen Speicher und/oder an eine Bildausgabeeinrichtung wie z. B. ein Display oder einen Drucker etc.
  • Das erfindungsgemäße Verfahren hat den Vorteil, dass es durch die vorherige Multi-Struktur-Segmentierung mittels einer einfachen Auswahl von zu visualisierenden Strukturen möglich ist, vollautomatisch, halbautomatisch, aber auch manuell die passenden Volumenansichtsbilder zu finden bzw. zu erstellen, die die besten Informationen über die interessierenden Strukturen geben. Ein mühseliges Freistellen der einzelnen Strukturen mit Hilfe von Punch-Tools ist hierbei nicht mehr zwingend notwendig.
  • In der Regel vergeht ohnehin zwischen der Aufnahme der Rohmessdaten im bildgebenden medizintechnischen System mit der anschließenden Rekonstruktion der dreidimensionalen Bilddaten bis zur Betrachtung der Bilder und Befundung durch einen Radiologen ein erheblicher Zeitraum. Dieser kann für die Segmentierung der funktionellen Strukturen genutzt werden. Es muss lediglich genügend Rechenkapazität zur Verfügung stehen. Dabei werden vorzugsweise alle relevanten funktionellen Strukturen, beispielsweise alle einzelnen Organe, Gefäße und Knochenstrukturen, in zumindest einem vordefinierten interessierenden Bereich des Körpers segmentiert, so dass sie getrennt von anderen Strukturen darstellbar sind. Der Bereich kann dabei in Abhängigkeit von einer der Untersuchung zugrunde liegenden klinischen Fragestellung definiert sein. Beispielsweise kann es sich hierbei um alle Organe, Knochenstrukturen und Gefäße des Bauchraums oder des Brustraums etc. handeln.
  • Eine erfindungsgemäße Bildverarbeitungsvorrichtung zur Durchführung eines solchen Verfahrens benötigt zum einen eine Bilddatenschnittstelle zur Übernahme der dreidimensionalen Bilddaten und zum anderen eine Segmentierungseinrichtung zur Segmentierung mehrerer verschiedener funktioneller Strukturen des Körpers in den dreidimensionalen Bilddaten. Weiterhin benötigt die Bildverarbeitungseinrichtung eine Auswahldatenermittlungseinheit zur Ermittlung von Strukturauswahldaten zur Festlegung von zu visualisierenden funktionellen Strukturen. Hierbei kann es sich auch um eine Art Schnittstelle handeln, über die Auswahldaten in Form von von einem Bediener eingegebenen Auswahlbefehlen erfasst werden, oder eine Schnittstelle, um solche Daten über ein Netzwerk oder eine Datenbank zu übernehmen. Die Bildverarbeitungsvorrichtung benötigt außerdem eine Bildermittlungseinheit zur Ermittlung eines Volumenansichtsbildes aus den dreidimensionalen Bilddaten auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten sowie eine Ausgabeschnittstelle zur Ausgabe des Volumenansichtsbildes, beispielsweise an einen Speicher und/oder eine Bildausgabeeinrichtung.
  • Eine Vielzahl der Komponenten der Bildverarbeitungsvorrichtung kann in Form von Softwaremodulen auf einer geeigneten Rechnereinheit oder einem System von mehreren Rechnereinheiten realisiert sein. Dies gilt insbesondere für die Segmentierungseinrichtung und die Bildermittlungseinheit. Aber auch die Auswahldatenermittlungseinheit sowie die Bilddatenschnittstelle und die Ausgabeschnittstelle können zumindest teilweise in Form von Softwarekomponenten aufgebaut sein. Eine Realisierung, die soweit wie möglich in Form von Softwaremodulen erfolgt, hat den Vorteil, dass auch bereits bestehende Bildverarbeitungsvorrichtungen leichter nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Sinnvoll ist es dabei, dass beispielsweise eine geeignete grafische Benutzeroberfläche zur Verfügung steht, die von den einzelnen Softwarekomponenten mit verwendet werden kann, beispielsweise der Auswahldatenermittlungseinheit, wenn eine Eingabe von Strukturauswahldaten durch einen Bediener erfolgen soll.
  • Insofern kann die Erfindung auch durch ein Computerprogrammprodukt gelöst werden, welches direkt in einen Speicher einer Bildverarbeitungsvorrichtung ladbar ist, mit Programmcode-Mitteln, um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Programmprodukt auf der Bildverarbeitungsvorrichtung ausgeführt wird.
  • Die abhängigen Ansprüche sowie die weitere Beschreibung enthalten jeweils besonders vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung, wobei das erfindungsgemäße Bildverarbeitungssystem auch analog zu den abhängigen Verfahrensansprüchen weitergebildet sein kann.
  • Bei einer besonders bevorzugten Weiterbildung des Verfahrens ist die Möglichkeit gegeben, eine ganz bestimmte Struktur, beispielsweise ein ganz bestimmtes Organ oder einen Teil eines Organs, als Zielstruktur zu definieren. Vorzugsweise umfassen hierzu bereits die Strukturauswahldaten Zielstrukturauswahldaten zur Festlegung der Zielstruktur. Das heißt, es wird nicht nur eine Anzahl von insgesamt zu visualisierenden Strukturen festgelegt, sondern innerhalb dieser zu visualisierenden Strukturen auch eine bestimmte Zielstruktur bestimmt, die beispielsweise dann im Zentrum des erzeugten Volumenansichtsbildes liegt oder in sonstiger Weise bei der Erstellung des Volumenansichtsbildes in besonderer Weise berücksichtigt wird.
  • Diese Zielstrukturauswahldaten können ebenfalls über eine Benutzerschnittstelle ermittelt werden. Beispielsweise können zur Erfassung von Strukturauswahldaten inklusive der Zielstrukturauswahldaten von einem Bediener mittels einer Benutzerschnittstelle aktivierbare Repräsentationsdarstellungen der segmentierten Strukturen angezeigt werden. Bei diesen Repräsentationsdarstellungen handelt es sich z. B. einfach um schematische Zeichnungen der jeweiligen Organe, Gefäße oder Skelettstrukturen, welche es dem Bediener ermöglichen, die betreffende Struktur eindeutig zu identifizieren. Beispielsweise können die Repräsentationsdarstellungen mit einer Anzahl von virtuellen Tasten auf einer grafischen Benutzeroberfläche dargestellt werden, und der Benutzer kann dann durch Mausklick die Tasten aktivieren. Ebenso können die Strukturen innerhalb eines Piktogramms dargestellt werden, wobei den einzelnen Organen, Skelettstrukturen oder Gefäßen innerhalb dieses Piktogramms mit Mausklick aktivierbare Flächen zugeordnet sind. Insbesondere ist es auch möglich, auf diese Weise die Zielstruktur mit auszuwählen, beispielsweise, indem im Normalfall durch eine Taste die allgemein zu visualisierenden funktionellen Strukturen ausgewählt werden und durch eine koordinierte Aktion zweier Tasten eine Zielstruktur ausgewählt wird. Ebenso ist es möglich, die allgemein zu visualisierenden Strukturen und die Zielstruktur in unterschiedlichen, aufeinander folgenden Verfahrensabschnitten auszuwählen.
  • Bei einer Variante wird zur Erfassung von Zielstrukturauswahldaten einem Bediener auf Basis der dreidimensionalen Bilddaten eine Volumendarstellung zumindest der zu visualisierenden funktionellen Strukturen angezeigt. In dieser Visualisierung ist dann die Zielstruktur mittels einer grafischen Benutzerschnittstelle auswählbar, beispielsweise durch Verfahren eines Cursors auf die gewünschte Struktur und einen Mausklick oder dergleichen. Es wird dann vom Cursor aus ein Suchstrahl in Blickrichtung ausgesendet und die Struktur ausgewählt, welche von der Blickrichtung aus als erstes durch den Suchstrahl getroffen wird.
  • Vorzugsweise können den segmentierten funktionellen Strukturen individuelle Transferfunktionen zugeordnet sein. Das heißt, es wird jedem Organ, jeder Knochenstruktur etc. eine bestimmte Durchsichtigkeit und Farbe zugeordnet. Dies hat den Vorteil, dass bestimmte Organe bzw. Skelettstrukturen zur Orientierung für den Befunder zwar noch erkennbar vorhanden sind, er aber im Prinzip durch diese auf die eigentlich zu befundenden relevanten Strukturen hindurchschauen kann. Zur Definition der Transferfunktion kann beispielsweise innerhalb einer dreidimensionalen Volumendarstellung in einer Tabelle jedem einzelnen Voxel, welcher üblicherweise mit einem bestimmten Grauwert verknüpft ist, jeweils eine Farbe und eine Transparenz zugeordnet sein. Dabei gibt die Farbe die Information des Grauwerts wieder und die Transparenz steht frei zur Verfügung, um ein Durchsehen durch den jeweiligen Voxel innerhalb der 3D-Volumendarstellung zu ermöglichen.
  • Bei einer besonders bevorzugten Variante wird in Abhängigkeit von den Strukturauswahldaten, insbesondere in Abhängigkeit von den Zielstrukturauswahldaten (d. h. in Abhängigkeit von der jeweils gewählten Zielstruktur), eine automatische Bestimmung eines Ansichtspunkts durchgeführt. Die automatische Bestimmung des Ansichtspunkts erfolgt dabei vorteilhafterweise so, dass die jeweilige Zielstruktur, ggf. auch mehrere Zielstrukturen oder ein bestimmter interessierender Teil einer Zielstruktur, so dargestellt wird, dass hierüber die meisten Informationen im Bild ersichtlich sind.
  • Für eine automatische Auswahl eines Ansichtspunkts (automatische virtuelle Kamerapositionierung) gibt es verschiedene Ansätze.
  • Vorzugsweise erfolgt eine automatische Bestimmung eines Ansichtspunkts im Rahmen einer modellbasierten Suche unter Verwendung zumindest einer Ansichtssphäre, in welcher ansichtsrichtungsabhängig ein Ansichtsqualitätswert hinsichtlich zumindest eines ansichtsrelevanten Parameters kodiert ist. Das heißt, die möglichen Ansichtspunkte werden auf einer das interessierende Volumen, beispielsweise die Zielstruktur umgebenden sogenannten ”Ansichtssphäre” (”Viewing Sphere”), z. B. einer Kugeloberfläche, verteilt und bewertet. Das Zentrum dieser Ansichtssphäre kann beispielsweise der Schwerpunkt der Zielstruktur, insbesondere ein Organschwerpunkt, ein vom Bediener angegebener interessierender Punkt auf der Oberfläche der Zielstruktur oder auch ein Punkt sein, der automatisch in Abhängigkeit von der zugrunde liegenden klinischen Fragestellung bestimmt wird (beispielsweise bei einer Untersuchung von Nierensteinen der Ausgang der Niere zum Harnleiter, um zu prüfen, ob hier eine Verstopfung des Harnleiters vorliegt, oder bei einer Wiederholungsuntersuchung eines von einem Tumor befallenen Organs der zu beobachtende Tumor).
  • Die Kodierung des Ansichtsqualitätswerts auf einer solchen Ansichtssphäre kann derart erfolgen, dass für jeden Punkt auf der Ansichtssphäre der Radius zum Zentrum der Ansichtssphäre umso größer gewählt wird, je höher der Ansichtsqualitätswert an diesem Ansichtspunkt ist. Auf diese Weise wird eine deformierte Ansichtssphäre erzeugt, bei der die am weitesten außen liegenden Ansichtspunkte die beste Ansichtsqualität hinsichtlich des vorgegebenen ansichtsrelevanten Parameters aufweisen.
  • Als ansichtsrelevante Parameter könnten verschiedene Parameter verwenden werden. Ein ansichtsrelevanter Parameter kann eine definierte Vorzugsblickrichtung sein, die beispielsweise vom Bediener vorgewählt oder für bestimmte klinische Fragestellungen vorgegeben sein kann. Ein anderer ansichtsrelevanter Parameter kann die Gestalt, d. h. die Form und evtl. die Abmessung, der Zielstruktur sein. Ein weiterer bevorzugter ansichtsrelevanter Parameter ist die Sichtbarkeit eines Schwerpunkts der Zielstruktur.
  • Weiterhin kann auch die Sichtbarkeit der Oberfläche der Zielstruktur bei der automatischen Bestimmung eines Ansichtspunkts berücksichtigt werden. Beispielsweise ist es möglich, die Sichtbarkeit der Oberfläche so zu berücksichtigen, dass eine gewichtete Summe der von der jeweiligen Ansichtsrichtung aus sichtbaren Voxel der Struktur definiert wird. Wird ausschließlich nach diesem Parameter gearbeitet, so ist das Ergebnis eine Kameraposition mit einem Maximum an sichtbaren Voxeln. Je nach Beschaffenheit der interessierenden Struktur kann eine derartige Bewertung nach maximierter Oberfläche aber auch zu ungünstigen Ansichtspunkten führen.
  • Besonders bevorzugt werden zur Bestimmung eines Ansichtspunkts mehrere Ansichtssphären für unterschiedliche ansichtsrelevante Parameter miteinander kombiniert. Die Kombination kann dabei mit verschiedenen Kombinationsoperatoren, beispielsweise einem Additionsoperator, einem Multiplikationsoperator, einem Grenzwertoperator oder Ähnlichem, erfolgen. Eine Möglichkeit zur Erstellung von solchen Ansichtssphären sowie von Kombinationen von Ansichtssphären mit verschiedenen Operatoren wird in dem Artikel „LiveSync: Deformed Viewing Spheres for Knowledge-Based Navigation" von P. Kohlmann, S. Bruckner, A. Kanitsar und M. E. Gröller in IEEE Transactions on Visualization and Computer Graphics, Volume 13, No. 6, 2007, Seiten 1544 bis 1551, detaillierter beschrieben. Die dort beschriebenen Verfahren können auch im Rahmen der vorliegenden Erfindung angewandt werden.
  • Bei einer ganz besonders bevorzugten Variante wird zunächst nach dem zuvor beschriebenen Verfahren durch die Kombination mehrerer Ansichtssphären ein Start-Ansichtspunkt bestimmt. Es erfolgt dann unter Berücksichtigung der Sichtbarkeit der Oberfläche der Zielstruktur in einer Umgebung um den Start-Ansichtspunkt die eigentliche Bestimmung des Ansichtspunkts.
  • Hierzu kann beispielsweise bevorzugt in einer Umgebung um den Start-Ansichtspunkt eine vorzugsweise frei definierbare bzw. konfigurierbare Anzahl von Kandidaten-Ansichtspunkten festgelegt werden. Zu jedem dieser Kandidaten-Ansichtspunkte werden dann von verschiedenen Oberflächenpunkten bzw. Voxeln in einem definierten relevanten Gebiet der Oberfläche der Zielstruktur aus Suchstrahlen ausgesendet. Diese Suchstrahlen werden dann dahingehend analysiert, ob sie den jeweiligen Kandidaten-Ansichtspunkt erreichen.
  • Dieses Verfahren der Berücksichtigung der Oberflächensichtbarkeit in einer Umgebung eines Start-Ansichtspunkts kann auch unabhängig von der Vorgehensweise bei der Wahl des Start-Ansichtspunkts vorteilhaft sein.
  • Hierbei können auch Transferfunktionen von anderen visualisierten Organen berücksichtigt werden. Ist z. B. einem anderen Organ eine niedrige Transferfunktion zugeordnet, d. h. das Organ ist undurchsichtig dargestellt, so kann es sein, dass der Suchstrahl den Kandidaten-Ansichtspunkt nicht erreicht. Ebenso kann die Transferfunktion in geeigneter Weise bei der Analyse berücksichtigt werden, wenn das Organ durchsichtig dargestellt wird, d. h. zwar im Bild mit visualisiert wird, aber nur die Sichtbarkeit auf die Zielstruktur einschränkt, jedoch nicht ganz verhindert. Es wird dann auf Basis eines Ergebnisses der gesamten Analyse ein Ansichtspunkt aus den Kandidaten-Ansichtspunkten ausgewählt.
  • Je nach klinischer Fragestellung ist es unter Umständen wünschenswert, eine sogenannte „Clipplane” zu setzen. Bei einer solchen Clipplane handelt es sich um eine Schnittebene durch die visualisierten Strukturen, bei der alles, was vom Ansichtspunkt aus gesehen vor der Clipplane liegt, automatisch aus dem Bild entfernt wird. Liegt beispielsweise eine solche Clipplane innerhalb eines Organs, so wird an dieser Stelle das Organ im Schnitt dargestellt und ausgehend von dieser Schnittfläche vom Ansichtspunkt weg die weiteren Konturen als dreidimensionale Außenansicht.
  • Beispielsweise kann ein solcher Querschnitt durch ein Organ mit Hilfe einer Benutzeroberfläche durch einen Bediener festgelegt werden. Bei einer bevorzugten Variante ermöglicht die Erfindung aber das Setzen der Clipplane vor eine bestimmte Struktur, d. h. ein bestimmtes Organ oder ein Gefäß, um dieses automatisch freizustellen. Zur Festlegung der Clipplane kann hierzu entlang einer vom Ansichtspunkt zu einem Zielpunkt in der Zielstruktur verlaufenden Verbindungsachse in einem Abstand von einer Zielstrukturoberfläche zum Ansichtspunkt ein Ebenenschnittpunkt festgelegt werden. Die Clipplane wird dann so festgelegt, dass sie orthogonal zur Verbindungsachse ist und der Ebenenschnittpunkt in der Clipplane liegt. Bei dem Zielpunkt kann es sich in der Regel um den Schwerpunkt der Zielstruktur oder um einen vom Benutzer gesetzten Punkt handeln. Der Abstand des Ebenenschnittpunkts von der Zielstrukturoberfläche kann dabei relativ kurz sein, sollte aber vorzugsweise zumindest so lang sein, dass das gesamte Organ vom Ansichtspunkt aus gesehen hinter der Clipplane liegt, so dass das Organ komplett freigestellt wird, ohne dass es durch die Clipplane geschnitten wird.
  • Besonders bevorzugt werden innerhalb des erfindungsgemäßen Verfahrens verschiedene Szenarien vordefiniert, denen bestimmte Strukturauswahldaten und/oder individuelle Transferfunktionen für funktionelle Strukturen und/oder ansichtsrelevante Parameter zugeordnet sind. Diesen Szenarien können auch noch weitere der zuvor beschriebenen Parameter zugeordnet sein, beispielsweise, welche ansichtsrelevanten Parameter bei der Definition von Ansichtssphären verwendet werden und wie eine Kombination der verschiedenen Ansichtssphären erfolgt, z. B. mit welcher Gewichtung die ansichtsrelevanten Parameter eingehen. Ebenso können hierüber auch bereits Parameter zur automatischen Festlegung von Clipplanes zugeordnet sein.
  • Die verschiedenen vordefinierten Szenarien können für verschiedene klinische Fragestellungen definiert sein. Es ist dann vorzugsweise möglich, dass zumindest ein vordefiniertes Szenario automatisch auf Basis von patienten- und/oder untersuchungsspezifischen Daten ausgewählt wird. Solche patienten- bzw. untersuchungsspezifischen Daten können beispielsweise innerhalb eines RIS (Radiologie Informationssystem) vorhanden sein. Insbesondere kann es sich hierbei um Untersuchungsanfragedaten (sog. Requested Procedure) handeln, mit denen die durchzuführenden Untersuchungen an dem jeweiligen bildgebenden System definiert werden. Wird auf Basis der im RIS vorhandenen Daten ein vordefiniertes Szenario ausgewählt, so können die zugeordneten Strukturauswahldaten, individuellen Transferfunktionen, ansichtsrelevanten Parameter etc. verwendet werden, um vollautomatisch die passenden Volumenansichtsbilder aus den dreidimensionalen Bilddaten zu erzeugen, die der Befunder höchstwahrscheinlich für die Befundung bei der jeweiligen klinischen Fragestellung benötigt.
  • Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen unter Hinweis auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung eines möglichen Ablaufs des erfindungsgemäßen Verfahrens,
  • 2 eine schematische Darstellung eines Ausführungsbeispiels eines erfindungsgemäßen Bildverarbeitungssystems,
  • 3 eine mögliche Variante für ein Verfahren zur Bestimmung eines automatischen Ansichtspunktes im Hinblick auf eine Betrachtung einer Organoberfläche,
  • 4 eine mögliche Variante für ein Verfahren zur Bestimmung eines automatischen Ansichtspunktes im Hinblick auf eine Betrachtung des Querschnitts durch ein Organ,
  • 5 eine Darstellung einer Ansichtssphäre unter Berücksichtigung einer bevorzugten Blickrichtung,
  • 6 eine Darstellung einer Ansichtssphäre unter Berücksichtigung der Form eines Organs,
  • 7 eine Darstellung einer Ansichtssphäre unter Berücksichtigung der Sichtbarkeit eines Organschwerpunkts,
  • 8 eine schematische Darstellung von Operatoren zur Verknüpfung von Ansichtssphären,
  • 9 eine schematische Darstellung einer begrenzten Organoberflächenanalyse zur Auffindung eines optimalen Ansichtspunktes,
  • 10 eine Darstellung der unterschiedlichen Sichtbarkeit von Oberflächenteilen eines Organs von verschiedenen Ansichtspunkten aus,
  • 11 eine schematische Darstellung einer grafischen Benutzeroberfläche zur Auswahl von zu visualisierenden Strukturen und einer Zielstruktur in Form von virtuellen Tasten, und
  • 12 eine schematische Darstellung einer grafischen Benutzeroberfläche zur Auswahl von zu visualisierenden Strukturen und einer Zielstruktur in Form eines Piktogramms mit aktivierbaren Regionen.
  • Bei dem folgenden Ausführungsbeispiel wird – ohne Beschränkung der Erfindung darauf – davon ausgegangen, dass es sich bei den zu visualisierenden Strukturen jeweils um Organe handelt, wobei ein Gefäß bzw. ein funktioneller Teil eines Gefäßes, beispielsweise die Bauchaorta, ebenfalls als Organ bezeichnet wird. Daher wird im Folgenden anstelle des Begriffs „funktionelle Struktur” meist der Begriff „Organ” verwendet.
  • Im nachfolgenden Ausführungsbeispiel wird weiterhin davon ausgegangen, dass in einem Schritt I für eine klinische Untersuchung zunächst Patientendaten aufgenommen werden und ein Examination Request ER definiert wird, welcher zum einen patientenspezifische Informationen wie Name, Alter, Geschlecht und zum anderen untersuchungsspezifische Informationen enthält, beispielsweise, mit welcher Vordiagnose ein Patient gekommen ist und welche speziellen Untersuchungen und Befundungen durchzuführen sind. Die Eingabe dieser Daten kann z. B. an einem beliebigen Terminal T1 erfolgen. Zumindest ein Teil der Daten kann auch über einen vorzugsweise gesicherten Kanal eines Netzwerks von einem einweisenden Arzt gesendet oder sonstwie elektronisch übernommen worden sein. Über ein Netzwerk N werden diese Daten dann in einem zweiten Schritt II an einem bildgebenden System BS, beispielsweise einem Computertomographen oder Magnetresonanztomographen, dazu verwendet, um die im Examination Request ER definierten Messungen durchzuführen. Hierzu werden an dem bildgebenden System BS die notwendigen Rohdaten RD akquiriert und daraus ebenfalls im Schritt II die Bilddaten BD rekonstruiert. Dabei handelt es sich um dreidimensionale Bilddaten, wobei die einzelnen Voxel beispielsweise schichtweise oder auch gleich in Form einer Volumenmessung aufgenommen worden sein können.
  • Erfindungsgemäß werden diese Bilddaten BD zunächst in einem Schritt III segmentiert. Hierbei werden vorzugsweise alle Organe des relevanten Bereichs einzeln segmentiert. Die segmentierten Strukturen bzw. Organe werden eindeutig markiert, um sie so identifizieren zu können. Dies kann beliebig in Form eines geeigneten Namens des jeweiligen Organs wie „Leber”, „linke Niere” etc. erfolgen, aber auch durch Kennziffern oder dergleichen. Wesentlich ist nur, dass im späteren Verfahren die segmentierten Organe automatisch oder durch einen Bediener ausgewählt werden können, um dann die zugehörigen segmentierten Strukturen, d. h. alle Voxel, die zu der jeweiligen Struktur gehören, zu visualisieren, aus einer Visualisierung zu entfernen oder mit einer bestimmten Transferfunktion, d. h. einer bestimmten Durchsichtigkeit, zu versehen.
  • In einem weiteren Schritt IV werden dann Strukturauswahldaten AD, Zielstrukturauswahldaten ZD und gegebenenfalls Transferfunktionen TF definiert. Dies kann, wie später noch erläutert wird, mit Hilfe eines Bedienerterminals T2 erfolgen. Es ist aber auch möglich, diese Daten über das Netzwerk N beispielsweise mit Hilfe der im RIS im zugehörigen Examination Request EZ eingegebenden Daten zu entnehmen. Insbesondere ist es möglich, dass ein Teil der Daten oder sogar alle Daten für die Ansichtsbilderstellung bereits in einem Szenario SZ definiert sind. Hierzu können verschiedene Szenarien SZ in einer Datenbank DB hinterlegt sein, und ein solches Szenario SZ wird beispielsweise im Schritt I bei der Definition des Examination Request aufgrund der klinischen Fragestellung ausgewählt. Alle notwendigen Daten, um das Szenario zu identifizieren, und/oder die einzelnen dem Szenario SZ zugeordneten Daten AD, ZD, TF werden dann entweder mit dem Examination Request ER an die später zur automatischen Erstellung der Volumenansichtsbilder verwendeten Rechnereinheiten übergeben oder es wird im Schritt IV auf Basis des Examination Request EZ ein Szenario SZ oder zumindest einzelnen Parameter AD, ZD, TF aus der Datenbank DB ermittelt.
  • Verschiedene Möglichkeiten, wie ein Bediener über ein Terminal T2 die zu visualisierenden Strukturen und/oder eine Zielstruktur auswählen kann, werden nachfolgend anhand der 11 und 12 erläutert.
  • Eine Möglichkeit besteht darin, dass auf einem Display des Terminals eine Anzahl von virtuellen Tasten dargestellt wird, wie dies in 11 gezeigt ist. Jede dieser virtuellen Tasten enthält eine repräsentative Darstellung, beispielsweise eine schematische Zeichnung, des Organs bzw. der Knochenstruktur. Der Bediener kann dann mit Hilfe eines Mauszeigers die virtuellen Tasten anklicken und somit bestimmte Organe oder Knochenstrukturen auswählen, die nachfolgend visualisiert werden sollen. So ist eine sehr einfache Erfassung von Strukturauswahldaten AD möglich. In der Repräsentationsdarstellung RD1 in 11 sind beispielsweise die Organe auf den vertieft dargestellten Tasten (d. h. die hell hinterlegten Organe) bereits ausgewählt worden, wobei die Organe auf den erhöht dargestellten Tasten noch nicht ausgewählt sind und somit in dem anzufertigenden Volumenansichtsbild nicht dargestellt würden.
  • 12 zeigt eine andere Variante für eine aktivierbare Repräsentationsdarstellung RD2. Der Nutzer wählt hier mittels eines Klicks auf das dargestellte Piktogramm aus, welche Organe visualisiert und welche Organe nicht dargestellt werden sollen. Das Piktogramm kann dabei sensitive Zonen enthalten, die vorzugsweise möglichst exakt der vorher durchgeführten Multi-Organstruktur-Segmentierung entsprechen. Das heißt, dass beispielsweise die segmentierte Leber eine eigene Zone hat, die der Bilddarstellung der Leber im Piktogramm entspricht. Entsprechendes gilt für die Nieren, die Bauchaorta, die Rippen, das Herz, den Darm etc.
  • Zusätzlich kann ein Bediener zur Auswahl von zu visualisierenden Strukturen innerhalb der zu visualisierenden Organe den Fokus auf ein besonders interessierendes Zielorgan setzen. In dem erfindungsgemäßen Verfahren ist es dann insbesondere möglich, automatisch den optimalen Ansichtspunkt auf das fokussierte Zielorgan zu setzen.
  • Vorzugsweise sind dabei folgende Interaktionen zur Fokussierung auf ein bestimmtes Organ möglich:
    Beispielsweise kann innerhalb des Auswahlverfahrens, wie es oben anhand der 11 und 12 definiert wurde, durch gleichzeitiges Drücken einer weiteren Taste, z. B. einer Shift-Taste, bestimmt werden, ob es sich bei dem ausgewählten Organ einfach um ein zu visualisierendes Organ handelt oder um das Zielorgan.
  • Eine weitere Möglichkeit besteht darin, dass die zu visualisierenden Organe in einer Volumendarstellung angezeigt werden. Der Bediener kann in dieser Darstellung mit einem Mauszeiger direkt auf das Zielorgan klicken. Das Organ wird dann durch das Aussenden eines Suchstrahls in Blickrichtung auf den selektierten Punkt detektiert und es wird das Organ ausgewählt, dessen zugehöriges Voxel als erstes durch den Suchstrahl erreicht wird.
  • Wie oben bereits erwähnt, können aber nicht nur die zu visualisierenden Organe, sondern auch das Zielorgan innerhalb eins Szenarios vordefiniert sein.
  • Nachdem sämtliche zu visualisierenden Strukturen und ggf. die Zielstruktur ausgewählt sind, erfolgt im Schritt V die eigentliche Ermittlung des Volumenansichtsbildes.
  • Hierzu wird vorzugsweise zunächst die beste Sicht auf die Zielstruktur, insbesondere auf ein Zielorgan, unter Berücksichtigung der anderen visualisierten Strukturen ermittelt. Die Ermittlung des günstigsten Ansichtspunkts erfolgt bei dem dargestellten Ausführungsbeispiel im Rahmen einer modellbasierten Suche mit einer anschließenden Korrektur durch eine lokal begrenzte Oberflächen-Sichtbarkeits-Analyse.
  • Die modellbasierte Suche beinhaltet dabei die Kodierung und Kombination von ansichtsrelevanten Parametern im Rahmen von Ansichtssphären, ähnlich wie dies bereits in der oben genannten Schrift von P. Kohlmann et al. erläutert ist. Hierbei werden insgesamt folgende Kriterien bzw. ansichtsrelevanten Parameter berücksichtigt.
  • 1. Die bevorzugte Blickrichtung:
  • Je nach vorliegendem Datensatz können favorisierte Blickrichtungen auf die Volumendarstellung definiert werden. Dabei kann der Bediener bzw. der spätere Befunder, welcher das Bild betrachten soll, seine favorisierten Blickrichtungen für bestimmte Körperregionen oder bestimmte klinische Fragestellungen vorkonfigurieren. Dies kann z. B. durch eine manuelle Positionierung der virtuellen Kamera und ein Speichern der Position in einem Konfigurationsmodus erfolgen.
  • Als ein Beispiel ist in eine Ansichtssphäre VS1 dargestellt, in der die Normalen-Richtung, d. h. die senkrechte Richtung, bezüglich der Kopf-Fuß-Achse des Patienten als bevorzugt kodiert ist. Daher weist die Ansichtssphäre eine Form auf, so dass alle Ansichtspunkte, die genau senkrecht zur Kopf-Fuß-Achse des Patienten liegen, weiter vom zentralen Punkt der Ansichtssphäre entfernt sind als die Punkte, die parallel zur Kopf-Fuß-Achse des Patienten liegen.
  • 2. Die Form des Organs:
  • Mit Hilfe einer Hauptkomponentenanalyse kann das Zielorgan bezüglich seiner dominanten räumlichen Ausdehnung analysiert werden. In einer Ansichtssphäre erfolgt dann eine Kodierung der bevorzugten Ansichtspunkte so, dass der Blick in Normalen-Richtung auf die größte Organausdehnung favorisiert wird.
  • zeigt ein Beispiel für die Ansichtssphäre hinsichtlich des ansichtsrelevanten Parameters „Organform” einer Niere.
  • 3. Die Sichtbarkeit des Strukturschwerpunkts:
  • Um eine optimale Sicht auf das Zielorgan zu erlauben, werden vom Schwerpunkt des segmentierten Zielorgans aus Strahlen in alle Raumrichtungen ausgesendet. Dabei werden die Opazitäten der durchlaufenden Voxel integriert. Die Opazitäten sind dabei durch die Transferfunktion der einzelnen Organe gegeben. Diese Transferfunktionen können, wie oben erläutert, vorzugsweise für jedes einzelne segmentierte Organ vorgegeben sein und insbesondere für bestimmte Szenarien schon hinterlegt sein. Dabei wird berücksichtigt, welche Organe überhaupt in den geplanten Volumenansichtsbildern visualisiert werden sollen. Ausgeblendete Organe werden mit der Opazität 0 berücksichtigt, d. h. sie sind komplett durchscheinend. Umgebende Organe, die visualisiert werden sollen, werden mit der Opazität ihrer spezifischen Transferfunktion berücksichtigt. Alternativ können auch alle umgebenden Organe mit der Opazität 1 berücksichtigt werden, d. h. sie sind komplett undurchsichtig. Erreicht ein Strahl ein Voxel mit der Opazität 1, wird der Strahl terminiert und mit einem minimalen Sichtbarkeitswert in der Ansichtssphäre kodiert. Liegt die Opazität zwischen 1 und 0, wird davon ausgegangen, dass der Suchstrahl bezüglich der Sichtbarkeit eingeschränkt ist, was ebenfalls innerhalb der Ansichtssphäre durch entsprechende Einstellung der Entfernung des jeweiligen Ansichtspunktes auf der Ansichtssphäre vom Zentrum der Ansichtssphäre kodiert werden kann.
  • Eine solche Ansichtssphäre unter Berücksichtigung der Sichtbarkeit des Organschwerpunkts ist am Beispiel einer Leber mit den umgebenden verdeckenden Organen und Knochenstrukturen in dargestellt.
  • Die zuvor beschriebenen Ansichtssphären können mit Hilfe von Operatoren verknüpft werden. Drei verschiedene Operatoren sind in 8 schematisch dargestellt.
  • Im oberen Bild handelt es sich um einen Additionsoperator, bei dem einfach für alle Ansichtspunkte auf der Ansichtssphäre die Werte der kombinierten einzelnen Ansichtssphären aufsummiert werden.
  • In der Mitte von 8 ist ein Grenzwertoperator dargestellt. Dabei werden die Radien des rechten Operanden in das Ergebnis übernommen, wenn an dieser Position der linke Operand einen Radius aufweist, der größer als ein vorgegebener Schwellenwert ist. Mit diesem Operator lassen sich Ausscheidungskriterien sehr gut realisieren.
  • In der unteren Spalte von 8 ist ein Multiplikationsoperator dargestellt. Dabei wirken sich geringe Radien bei einem der Operanden stark auf die entsprechende Position im Ergebnis aus. Ein großer Radius im Ergebnis bedeutet also, dass auf allen berücksichtigten Ansichtssphären an dieser Position eine gute Kameraposition induziert wird.
  • Zur genauen Definition und Realisierung solcher Operatoren wird auf die Schrift von Kohlmann et al. verwiesen.
  • Bei der Kombination können die einzelnen Ansichtssphären auch gewichtet werden, um deren Einfluss anzupassen. Beispiele hierfür werden später noch anhand der 3 und 4 gegeben.
  • Wie oben bereits erwähnt, ist es möglich, den so bestimmten Ansichtspunkt hinsichtlich der Sichtbarkeit der Organoberfläche zu korrigieren. Dies erfolgt in einer lokalen Oberflächenansichtsanalyse.
  • Hierzu wird zunächst in einem Vorpositionierungsschritt, vorzugsweise mit Hilfe des oben beschriebenen Verfahrens unter Berücksichtigung einer Kombination der verschiedenen Ansichtssphären, ein Start-Ansichtspunkt SAP gewählt. In einem nachfolgenden Feinpositionierungsschritt erfolgt dann die Auswahl des optimalen Ansichtspunkts innerhalb der Umgebung dieses Start-Ansichtspunkts. Dabei wird eine konfigurierbare Anzahl von Kandidaten-Ansichtspunkten KAP um den Start-Ansichtspunkt SAP ausgewählt. Ein einfaches Beispiel hierfür ist schematisch in 9 dargestellt. Für jeden dieser Kandidaten-Ansichtspunkte KAP (einschl. des Start-Ansichtspunkts SAP) wird eine Oberflächenanalyse der Oberfläche O des interessierenden Organs durchgeführt, um dann die Ansichtsposition auszuwählen, so dass die sichtbare Oberfläche O maximiert wird. Hierzu werden Suchstrahlen von allen Oberflächenpunkten OP in einem Gebiet in Richtung der zu bewertenden Kamerapositionen bzw. Ansichtspunkte betrachtet. Beispielsweise können das alle Oberflächenpunkte sein, die sich innerhalb eines Winkels α, ausgehend von einer Verbindungsachse zwischen dem Start-Ansichtspunkt SAP und dem Organschwerpunkt OSP, befinden. Bei den Oberflächenpunkten OP handelt es sich beispielsweise um die Mittelpunkte der Oberflächenvoxel des segmentierten Organs. Dabei wird bevorzugt beachtet, dass die Voxel in den wenigsten Fällen isometrisch sind. Meistens ist die Auflösung in z-Richtung geringer als in x- oder y-Richtung. Das hat zur Folge, dass die sichtbare Fläche eines Voxels je nach Betrachtungsrichtung variiert. Daher wird vorzugsweise festgestellt, aus welcher Fläche des Voxels der Suchstrahl austritt. Der Betrag dieser Fläche geht dann in die Bewertung mit ein. Die x- und y-Auflösung ist im Allgemeinen bei Volumendatensätzen identisch. Das Problem kann somit darauf reduziert werden zu ermitteln, ob der Suchstrahl aus der oberen oder unteren Fläche oder aus einer Seitenfläche austritt. Um die Austrittsfläche zu ermitteln, wird der Winkel zwischen einer parallel zur Bodenfläche und durch den Schwerpunkt des Voxels verlaufenden Ebene und dem Suchstrahl betrachtet.
  • Diese Oberflächenanalyse wird wie gesagt auf die lokale Nachbarschaft von vielversprechenden Kandidaten-Ansichtspunkten KAP beschränkt, da eine vollständige Auswertung der sichtbaren Oberfläche O des Organs für jeden möglichen Ansichtspunkt zu rechenaufwändig wäre und somit eine Echtzeitinteraktion verhindern würde.
  • 10 zeigt ein simples Beispiel, wie durch eine solche Analyse die Kameraposition verbessert werden kann. Ausgewählt wurde hier zunächst ein Start-Ansichtspunkt SAP, von dem aus zwar ein großer Teil der Organoberfläche gut erkennbar ist. Eingezeichnet sind auch zwei Suchstrahlen ST, die von zwei Oberflächenpunkten OP1, OP1 zu diesem Start-Ansichtspunkt SAP verlaufen. Jedoch gibt es keinen Suchstrahl, der von dem Grund einer Falte in der Oberfläche O, d. h. von dem Organoberflächenpunkt OP3, zu diesem Start-Ansichtspunkt führt. Innerhalb der lokalen Oberflächenansichtsanalyse wurde aber ein Ansichtspunkt AP gefunden, von dem aus Suchstrahlen ST zu allen drei Oberflächenpunkten OP1, OP2, OP3 führen, d. h. von diesem Ansichtspunkt AP aus ist auch eine optimale Sicht in die Falte der Organoberfläche O gewährleistet.
  • In den 3 und 4 ist dargestellt, wie durch unterschiedliche Gewichtung und Verknüpfung verschiedener Ansichtssphären und gegebenenfalls Anwendung einer lokalen Oberflächensichtanalyse je nach klinischer Fragestellung bzw. einem gegebenen Visualisierungsziel unterschiedliche optimale Ansichtspunkte gefunden werden können.
  • In 3 ist zunächst ein Visualisierungsziel VZO definiert, bei dem es darum geht, möglichst die Organoberfläche zu befunden. Hierzu werden zunächst die Ansichtssphären VS1, VS2, VS3 mit den oben beschriebenen Kriterien bzw. ansichtsrelevanten Parametern 1 bis 3 definiert. Es erfolgt dann eine Addition der Ansichtssphäre VS1 hinsichtlich des ansichtsrelevanten Parameters „Orientierung” und der Ansichtssphäre VS2 hinsichtlich des ansichtsrelevanten Parameters „Form”, wobei die Orientierung mit einem Faktor 0,6 gewichtet wird und die Form mit einem Faktor 1,0. Das Ergebnis wird dann mit der Ansichtssphäre VS3 hinsichtlich des ansichtsrelevanten Parameters „Strukturschwerpunkt-Sichtbarkeit” durch eine Multiplikation kombiniert, wobei das Ergebnis der Addition und die weitere Ansichtssphäre VS3 jeweils gleich gewichtet mit dem Faktor 1,0 eingehen. Anschließend wird unter Berücksichtigung des so ermittelten optimalen Ansichtspunkts als Start-Ansichtspunkt eine lokale Oberflächensichtbarkeitsanalyse LOA durchgeführt, wie sie zuvor beschrieben wurde.
  • 4 geht von einem Visualisierungsziel VZS aus, bei dem ein Organschnitt visualisiert werden soll. Auch hier werden zunächst wieder die drei Ansichtssphären VS1, VS2, VS3 des betreffenden Organs erstellt. Dabei erfolgt ebenfalls zunächst eine Addition der Ansichtssphäre VS1 für die Orientierung und der Ansichtssphäre VS2 für die Organform, jedoch hier mit gleichen Gewichtungsfaktoren von 1,0. Das Ergebnis wird dann über einen Schwellenwertoperator mit der Ansichtssphäre VS3 bezüglich der Sichtbarkeit des Organschwerpunkts kombiniert, wobei das Ergebnis aus der Addition den Gewichtungsfaktor 1,0 erhält und die weitere Ansichtssphäre bezüglich der Sichtbarkeit des Organschwerpunkts den Gewichtungsfaktor 1,4. Anschließend erfolgt eine Multiplikation der so erhaltenen Ansichtssphäre (mit einem Gewichtungsfaktor 1,0) mit der ursprünglichen Ansichtssphäre VS2 bezüglich der Organform (welche wieder mit einer Gewichtung 1,0 eingeht).
  • Nachdem ein optimaler Ansichtspunkt gefunden wurde, kann es je nach klinischer Fragestellung sinnvoll sein, eine Clipplane zu setzen. Dies kann entweder vollautomatisch oder halbautomatisch, z. B. mit einer einfachen Bedienerinteraktion, erfolgen.
  • Beim Setzen einer solchen Clipplane sind zwei Fälle zu unterscheiden:
    • 1. Die Clipplane wird vor ein Organ gesetzt: Hierbei wird durch eine Clipplane die Sicht auf ein Zielorgan zusätzlich verbessert, indem hinderliche Bilddaten entfernt werden, die von der Kameraposition aus gesehen vor der Clipplane sitzen. Zur automatischen Freistellung kann dabei vom Schwerpunkt des Organs ein Strahl in Richtung des aktuellen Ansichtspunkts analysiert werden, um die Organoberfläche in dieser Richtung zu finden. An dem Punkt, an dem der Suchstrahl das Organ durchstößt, wird der Strahl um einen kleinen Betrag verlängert. Das Ende des Strahls wird dann als Punkt zur Definition der Clipplane verwendet, die in Normalen-Richtung zum Strahl positioniert wird. So wird auf einfache Weise das jeweilige Organ automatisch freigestellt. Alternativ kann auch ein Benutzer den Schnittpunkt, an dem die Clipplane auf dem Suchstrahl gesetzt wird, mit Hilfe einer grafischen Benutzeroberfläche festlegen.
    • 2. Es wird ein Organquerschnitt mit Hilfe einer Clipplane festgelegt: Zur Visualisierung eines Organschnitts kann beispielsweise ein Bediener durch einen Klick in eine parallel ausgegebene zweidimensionale Ansicht einen beliebigen Punkt angeben, durch den die Clipplane verlaufen soll. Die Orientierung der Clipplane wird dann beispielsweise wieder automatisch bezüglich des Ansichtspunkts in dem dreidimensionalen Volumenansichtsbild berechnet und entsprechend dort visualisiert. Auf der Clipplane werden bei einem solchen Schnitt mit bekannten Methoden die Grauwertinformationen des jeweils angeschnittenen Organs dargestellt.
  • Bei beiden Visualisierungszielen kann die Clipplane vorzugsweise mit einem interaktiven Element verbunden sein, so dass der Bediener die aktuell dargestellte Clipplane mittels einer graphischen Benutzeroberfläche kippen und verschieben kann.
  • Werden im Schritt V (siehe 1) die gewünschten Volumenansichtsbilder B beispielsweise in Form von Screenshots erzeugt, so können diese Bilder B entweder sofort auf dem Terminal T2 angezeigt werden und/oder in einem Massenspeicher S für eine spätere Befundung hinterlegt werden. Insbesondere können die so hinterlegten Screenshots auch über das Netzwerk N wieder aus dem Speicher S abgefragt und beispielsweise an einer beliebigen Befundungsstation vom Radiologen gesichtet werden.
  • 2 zeigt grob schematisch ein Bildverarbeitungssystem 1, mit dem dieses Verfahren durchführbar ist. Das Bildverarbeitungssystem 1 weist dabei eine Bilddatenschnittstelle 2 auf, über die das Bildverarbeitungssystem Bilddaten BD beispielsweise von einer Rekonstruktionseinrichtung oder aus einem Massenspeicher übernehmen kann, in dem die Bilddaten für einen bestimmten Untersuchungsauftrag zuvor hinterlegt wurden.
  • Das Bildverarbeitungssystem 1 weist außerdem eine Segmentierungseinrichtung 3 auf, in der die erfindungsgemäße Segmentierung der verschiedenen Strukturen, insbesondere Organe, durchgeführt wird.
  • In einer Auswahldatenermittlungseinheit 4, die beispielsweise auch als Benutzerschnittstelle mit Verbindung zu einem Terminal T oder als Schnittstelle zu einem Netzwerk N ausgebildet sein kann, werden die Strukturauswahldaten AD und Zielstrukturauswahldaten ZD zur Festlegung von zu visualisierenden funktionellen Strukturen und der Zielstruktur sowie ggf. weitere für die Bildgebung wie oben beschrieben relevanten Daten ermittelt. In dieser Einheit können auch alle Softwaremodule oder dergleichen realisiert sein, um die notwendigen Daten zu definieren, wie sie im Schritt IV anhand von 1 weiter oben erläutert wurden.
  • Ein zentrales Modul des Bildverarbeitungssystems 1 ist hier eine Bildermittlungseinheit 5, welche auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten AD aus den dreidimensionalen Bilddaten BD ein Volumenansichtsbild B bzw. in der Regel mehrere Volumenansichtsbilder B erzeugt, die dann über eine Ausgabeschnittstelle 6 des Bildverarbeitungssystems 1 an einen Speicher und/oder an eine Bildausgabeeinrichtung, beispielsweise ein Display oder einen Drucker, ausgegeben werden können.
  • Das Bildverarbeitungssystem 1 ist hier in Form eines zusammenhängenden Blocks dargestellt. Grundsätzlich ist es aber auch möglich, dass die Komponenten des Bildverarbeitungssystems 1 auf mehreren lokal getrennten Teilsystemen realisiert sind. Insbesondere ist es möglich, dass die Segmentierungseinrichtung 3 beispielsweise auf einem anderen Rechner als die Auswahldatenermittlungseinheit 4 und die Bildermittlungseinheit 5 realisiert ist. Dies ist insofern sinnvoll, als die Segmentierung relativ viel Rechenkapazität benötigt. Insofern könnte ein spezieller Rechner hierfür reserviert sein, welcher auf Anforderung die Bilddaten BD übernimmt und die Segmentierung vornimmt, bevor eine weitere Analyse der Bilddaten BD erfolgt, beispielsweise in einer Wartezeit, bevor sich überhaupt ein Bediener mit diesen Daten beschäftigt.
  • Für die Bearbeitung werden dann die fertig segmentierten Bilddaten BDS übernommen und die Recheneinheit ist während der weiteren Bildverarbeitung frei, um andere Bilddaten zu segmentieren.
  • Das erfindungsgemäße Verfahren bietet die Möglichkeit, entweder teilautomatisch mit lediglich einfachen, intuitiven Nutzerinteraktionen oder sogar vollautomatisch selektiv Organe von Interesse in einer Volumenansichtsdarstellung ein- oder auszublenden. Das Verfahren erlaubt somit die vollautomatische Erzeugung von Screenshots vordefinierter 3D-Darstellungen mit optimalem Informationsgehalt. Durch Ausnutzung von RIS-Informationen können je nach klinischer Fragestellung bestimmte Szenarien, d. h. Presets von Parametern für die Visualisierung, insbesondere zu visualisierende Organe, ein Zielorgan, Transferfunktionen, bevorzugte Ansichtspositionen etc. durch das System automatisch ausgewählt werden.
  • Besonders vorteilhaft ist hierbei neben der Multi-Struktur-Segmentierung die bevorzugte Möglichkeit, auch den einzelnen Strukturen, insbesondere Organen, definierte individuelle Transferfunktionen und somit eine bestimmte Durchsichtigkeit zuzuordnen. Durch eine lokale Oberflächenansichtsanalyse kann zusätzlich die Eigenverdeckung der interessierenden Struktur minimiert werden.
  • Neben der einfachen Bereitstellung eines optimalen Ausgangspunkts für die Erzeugung von Volumenansichtsbildern, abhängig von gegebenen dreidimensionalen Bilddaten und bestimmten vorgegebenen klinischen Fragestellungen, beispielsweise basierend auf RIS-Informationen, verhindert das Verfahren, dass für wiederkehrende Fragestellungen immer die gleichen Schritte zur Erzeugung von optimalen Volumenansichtsbildern händisch ausgeführt werden müssen. Dadurch wird auch die Akzeptanz für verschiedenste Anwendungen, wie z. B. Interventionsplanungen, erhöht.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei dem vorhergehend detailliert beschriebenen Verfahren und dem Bildverarbeitungssystem lediglich um bevorzugte Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein” bzw. „eine” nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit” oder „Modul” usw. nicht aus, dass diese aus mehreren Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • - ”Hierarchical parsing and semantic navigation of full body CT data” von S. Seifert, A. Barbu, S. K. Zhou, D. Liu, J. Feulner, M. Huber, M. Sühling, A. Cavallaro, D. Comaniciu; Proceedings of the SPIE, Volume 7259, pp. 725902–725902-8 (2009) [0007]
    • - „LiveSync: Deformed Viewing Spheres for Knowledge-Based Navigation” von P. Kohlmann, S. Bruckner, A. Kanitsar und M. E. Gröller in IEEE Transactions on Visualization and Computer Graphics, Volume 13, No. 6, 2007, Seiten 1544 bis 1551 [0026]
    • - P. Kohlmann et al. [0061]
    • - Kohlmann et al. [0072]

Claims (18)

  1. Verfahren zur Erzeugung eines Volumenansichtsbilds (B) auf Basis von mittels eines bildgebenden medizintechnischen Systems (BS) erzeugten dreidimensionalen Bilddaten (BD) vom Inneren eines Körpers mit folgenden Verfahrensschritten: – Segmentierung mehrerer verschiedener funktioneller Strukturen des Körpers in den dreidimensionalen Bilddaten (BD), – Ermittlung von Strukturauswahldaten (AD) zur Festlegung von zu visualisierenden funktionellen Strukturen, – Ermittlung zumindest eines Volumenansichtsbilds (B) aus den dreidimensionalen Bilddaten (BD) auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten (AD), und – Ausgabe des Volumenansichtsbilds (B).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Strukturauswahldaten (AD) Zielstrukturauswahldaten (ZD) zur Festlegung einer Zielstruktur umfassen.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Erfassung von Strukturauswahldaten (AD) einem Bediener mittels einer Benutzerschnittstelle aktivierbare Repräsentationsdarstellungen (RD1, RD2) der segmentierten Strukturen angezeigt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Erfassung von Zielstrukturauswahldaten (ZD) einem Bediener auf Basis der dreidimensionalen Bilddaten (BD) eine Volumendarstellung zumindest der zu visualisierenden funktionellen Strukturen angezeigt wird, in welcher die Zielstruktur mittels einer graphischen Benutzerschnittstelle auswählbar ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass den segmentierten funktionellen Strukturen individuelle Transferfunktionen (TF) zugeordnet werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass in Abhängigkeit von den Strukturauswahldaten (AD) eine automatische Bestimmung eines Ansichtspunktes (AP) erfolgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass eine automatischen Bestimmung eines Ansichtspunktes (AP) unter Verwendung zumindest einer Ansichtssphäre (VS1, VS2, VS3) erfolgt, in welcher ein Ansichtsqualitätswert hinsichtlich zumindest eines ansichtsrelevanten Parameters kodiert ist.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass zur Bestimmung eines Ansichtspunktes (AP) mehrere Ansichtssphären (VS1, VS2, VS3) für unterschiedliche ansichtsrelevante Parameter miteinander kombiniert werden.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die ansichtsrelevanten Parameter zumindest einen der folgenden Parameter umfassen: – eine definierte Vorzugsblickrichtung, – eine Gestalt einer Zielstruktur – eine Sichtbarkeit eines Schwerpunkts oder eines definierten Punktes von Interesse der Zielstruktur.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass bei der automatischen Bestimmung eines Ansichtspunktes (AP) die Sichtbarkeit der Oberfläche (O) der Zielstruktur berücksichtigt wird.
  11. Verfahren, insbesondere mit einem Verfahren nach einem der Ansprüche 7 bis 9, zur Erzeugung eines Volumenansichtsbilds (B) auf eine Zielstruktur auf Basis von mittels eines bildgebenden medizintechnischen Systems (BS) erzeugten dreidimensionalen Bilddaten (BD) vom Inneren eines Körpers, bei dem automatischen ein Ansichtspunktes (AP) bestimmt wird, dadurch gekennzeichnet, dass zunächst ein Start-Ansichtspunkt (SAP) bestimmt wird und dann unter Berücksichtigung der Sichtbarkeit der Oberfläche (O) der Zielstruktur in einer Umgebung um den Start-Ansichtspunkt (SAP) ein Ansichtspunkt (AP) bestimmt wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass in einer Umgebung um den Start-Ansichtspunkt eine Anzahl von Kandidaten-Ansichtspunkten (KBP) festgelegt wird und für jeden Kandidaten-Ansichtspunkt Suchstrahlen (ST) analysiert werden, die von verschiedenen Oberflächenpunkten (OP, OP1, OP2, OP3) in einem definierten Gebiet der Oberfläche (O) der Zielstruktur zu den Kandidaten-Ansichtspunkten (KAP) laufen, und auf Basis eines Ergebnisses dieser Analyse ein Ansichtspunkt (AP) aus den Kandidaten-Ansichtspunkten (KAP) ausgewählt wird.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass ausgehend von einem festgelegten Ansichtspunkt automatisch eine Clipplane festgelegt wird.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass zur Festlegung der Clipplane entlang einer vom Ansichtspunkt zu einem Zielpunkt in der Zielstruktur verlaufenden Verbindungsachse in einem Abstand von einer Zielstrukturoberfläche zum Ansichtspunkt ein Ebenenschnittpunkt festgelegt wird und die Clipplane so festgelegt wird, dass sie orthogonal zur Verbindungsachse ist und der Ebenenschnittpunkt in der Clipplane liegt.
  15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass verschiedenen vordefinierten Szenarien (SZ) Strukturauswahldaten (AD) und/oder individuelle Transferfunktionen (TF) für funktionelle Strukturen und/oder ansichtsrelevanten Parameter zugeordnet sind.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass zumindest ein vordefiniertes Szenario (SZ) automatisch auf Basis von patienten- und/oder untersuchungsspezifischen Daten (ER) ausgewählt wird.
  17. Bildverarbeitungssystem (1) zur Erzeugung eines Volumenansichtsbilds (B) auf Basis von mittels eines bildgebenden medizintechnischen Systems (BS) erzeugten dreidimensionalen Bilddaten (BD) vom Inneren eines Körpers mit folgenden Komponenten: – einer Bilddatenschnittstelle (2) zur Übernahme der dreidimensionalen Bilddaten (BD), – einer Segmentierungseinrichtung (3) zur Segmentierung mehrerer verschiedener funktioneller Strukturen des Körpers in den dreidimensionalen Bilddaten (BD), – einer Auswahldatenermittlungseinheit (4) zur Ermittlung von Strukturauswahldaten (AD) zur Festlegung von zu visualisierenden funktionellen Strukturen, – einer Bildermittlungseinheit (5) zur Ermittlung eines Volumenansichtsbilds (B) aus den dreidimensionalen Bilddaten (BD) auf Basis der segmentierten funktionellen Strukturen und der Strukturauswahldaten (AD), – einer Ausgabeschnittstelle (6) zur Ausgabe des Volumenansichtsbilds (B).
  18. Computerprogrammprodukt, welches direkt in einen Speicher eines Bildverarbeitungssystems (1) ladbar ist, mit Programmcode-Mitteln, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 16 auszuführen, wenn das Programmprodukt auf dem Bildverarbeitungssystem (1) ausgeführt wird.
DE102009035441.7A 2009-07-31 2009-07-31 Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers Expired - Fee Related DE102009035441B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102009035441.7A DE102009035441B4 (de) 2009-07-31 2009-07-31 Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
US12/842,185 US9619925B2 (en) 2009-07-31 2010-07-23 Method and image-processing system for generating a volume-viewing image of the interior of a body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009035441.7A DE102009035441B4 (de) 2009-07-31 2009-07-31 Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers

Publications (2)

Publication Number Publication Date
DE102009035441A1 true DE102009035441A1 (de) 2011-02-03
DE102009035441B4 DE102009035441B4 (de) 2016-11-24

Family

ID=43402596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009035441.7A Expired - Fee Related DE102009035441B4 (de) 2009-07-31 2009-07-31 Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers

Country Status (2)

Country Link
US (1) US9619925B2 (de)
DE (1) DE102009035441B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201798A1 (de) * 2012-02-07 2013-08-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014021301A1 (ja) * 2012-08-02 2014-02-06 株式会社 日立メディコ 三次元画像構成装置及び三次元画像構成方法
JP6026932B2 (ja) * 2013-03-22 2016-11-16 富士フイルム株式会社 医用画像表示制御装置および方法並びにプログラム
JP6433189B2 (ja) * 2014-08-11 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6433190B2 (ja) * 2014-08-11 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
MX2017011316A (es) 2015-03-01 2019-01-21 Aris Md Inc Procedimiento morfológico de realidad aumentada.
EP3223245B1 (de) * 2016-03-24 2024-04-24 Ecole Nationale de l'Aviation Civile Ansichtspunktauswahl in virtueller 3d-umgebung
US20190380659A1 (en) * 2016-05-04 2019-12-19 Rika OHKUMA Future-image prediction device
US10918441B2 (en) * 2017-11-22 2021-02-16 Canon U.S.A., Inc. Devices, systems, and methods for ablation-zone simulation and visualization
US10628690B2 (en) * 2018-05-09 2020-04-21 Ford Global Technologies, Llc Systems and methods for automated detection of trailer properties
JP7107590B2 (ja) * 2020-09-15 2022-07-27 株式会社根本杏林堂 医用画像表示端末および医用画像表示プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010044576A1 (en) * 1994-10-27 2001-11-22 Vining David J. Method and system for producing interactive three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
DE102004027710A1 (de) * 2004-06-07 2006-01-26 Siemens Ag Verfahren zur automatischen Detektion einer Struktur bei bildgebenden medizinischen Verfahren, Computertomografiegerät, Arbeitsstation und Comupterprogrammprodukt
US20070276225A1 (en) * 1996-09-16 2007-11-29 Kaufman Arie E System and method for performing a three-dimensional virtual examination of objects, such as internal organs
DE202008003517U1 (de) * 2008-03-12 2008-09-04 Agfa Healthcare Nv Vorrichtung zur Volumendarstellung medizinischer Datensätze und Datenträger

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5187658A (en) * 1990-01-17 1993-02-16 General Electric Company System and method for segmenting internal structures contained within the interior region of a solid object
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
EP1456805A1 (de) * 2001-11-21 2004-09-15 Viatronix Incorporated Registration von scan-daten, die von verschiedenen patientenpositionen erfasst wurden
US7426292B2 (en) * 2003-08-07 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Method for determining optimal viewpoints for 3D face modeling and face recognition
FR2886433B1 (fr) * 2005-05-30 2007-09-07 Commissariat Energie Atomique Methode de segmentation d'une sequence d'images tridimensionnelles, notamment en pharmaco-imagerie.
US7889898B2 (en) * 2005-09-16 2011-02-15 Siemens Medical Solutions Usa, Inc. System and method for semantic indexing and navigation of volumetric images
DE602007013770D1 (de) * 2006-08-11 2011-05-19 Philips Intellectual Property Auswahl von datensätzen aus 3d-darstellungen zur ansicht
DE102006059383A1 (de) * 2006-12-15 2008-06-19 Siemens Ag Verfahren und Bildbearbeitungssystem zur Erzeugung von Ergebnisbildern eines Untersuchungsobjekts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010044576A1 (en) * 1994-10-27 2001-11-22 Vining David J. Method and system for producing interactive three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US20070276225A1 (en) * 1996-09-16 2007-11-29 Kaufman Arie E System and method for performing a three-dimensional virtual examination of objects, such as internal organs
DE102004027710A1 (de) * 2004-06-07 2006-01-26 Siemens Ag Verfahren zur automatischen Detektion einer Struktur bei bildgebenden medizinischen Verfahren, Computertomografiegerät, Arbeitsstation und Comupterprogrammprodukt
DE202008003517U1 (de) * 2008-03-12 2008-09-04 Agfa Healthcare Nv Vorrichtung zur Volumendarstellung medizinischer Datensätze und Datenträger

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Hierarchical parsing and semantic navigation of full body CT data" von S. Seifert, A. Barbu, S. K. Zhou, D. Liu, J. Feulner, M. Huber, M. Sühling, A. Cavallaro, D. Comaniciu; Proceedings of the SPIE, Volume 7259, pp. 725902-725902-8 (2009)
"LiveSync: Deformed Viewing Spheres for Knowledge-Based Navigation" von P. Kohlmann, S. Bruckner, A. Kanitsar und M. E. Gröller in IEEE Transactions on Visualization and Computer Graphics, Volume 13, No. 6, 2007, Seiten 1544 bis 1551
BEYER,J., u.a.: "High-Quality Multimodal Volume Rendering for ... ". In: IEEE Trans. on Visualization and Computer Graphics. Vol.13 , Nr.6, Nov./Dez. 2007, S.1696-1703 *
KOHLMANN, P., u.a.: "LiveSync: Deformd Viewing Spheres for Knowledge-Based Navigation". In: IEEE Trans. on Visualisation and Computer Graphics. Vol.13, Nr.6, Nov./Dez. 2007, S.1544-1550 *
P. Kohlmann et al.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012201798A1 (de) * 2012-02-07 2013-08-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung

Also Published As

Publication number Publication date
US9619925B2 (en) 2017-04-11
DE102009035441B4 (de) 2016-11-24
US20110026795A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
DE102009035441B4 (de) Verfahren und Bildverarbeitungssystem zur Erzeugung eines Volumenansichtsbilds vom Inneren eines Körpers
DE102015221998B4 (de) Verfahren zur Unterstützung eines Befunders bei der Ortsbeschreibung einer Zielstruktur in einer Brust, Vorrichtung und Computerprogramm
DE112014004211B4 (de) Radiotherapiesystem mit erweiterter graphischer Benutzeroberfläche
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE102006003609B4 (de) Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung
DE102009006148B4 (de) Verfahren, Monitor-Steuermodul, System und Computerprogramm zum Darstellen medizinischer Bilder
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102004063053A1 (de) Verfahren und System zum Visualisieren dreidimensionaler Daten
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE102011003137A1 (de) Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE4117117A1 (de) Dreidimensionale darstellung von raeumlichen strukturen
DE10239646A1 (de) Interaktive Echtzeit-Segmentierung von pulmonalen Knoten mit Steuerparametern
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE10356272B4 (de) Verfahren zur Navigation in 3-dimensionalen Bilddaten
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE112012002671T5 (de) Anzeigen einer Vielzahl von registrierten Bildern
DE102020216306A1 (de) Computerimplementiertes Verfahren zum Betrieb einer medizinischen Bildgebungseinrichtung, Bildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE10255526B4 (de) Erkennung von Gefässassoziierten Pulmonalknoten durch Volumsprojektionsanalyse
DE102021210435A1 (de) Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten
DE102005045602A1 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102011076878A1 (de) Verfahren und Vorrichtung zur effizienten Editierung eines dreidimensionalen Volumens mittels Ray Casting
DE112007002807T5 (de) Verfahren und System zur Gruppierung von Bildern in einem Tomosynthese-Bildgebungssystem
DE102009006765B4 (de) Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit
DE102017203048B3 (de) Verfahren zum Bestimmen eines Projektionsdatensatzes, Projektionsbestimmungssystem, Computerprogrammprodukt und computerlesbares Speichermedium

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee