DE102017209542B4 - Visualisierung von Fasern - Google Patents

Visualisierung von Fasern Download PDF

Info

Publication number
DE102017209542B4
DE102017209542B4 DE102017209542.3A DE102017209542A DE102017209542B4 DE 102017209542 B4 DE102017209542 B4 DE 102017209542B4 DE 102017209542 A DE102017209542 A DE 102017209542A DE 102017209542 B4 DE102017209542 B4 DE 102017209542B4
Authority
DE
Germany
Prior art keywords
information
viewing position
projection
fiber
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017209542.3A
Other languages
English (en)
Other versions
DE102017209542A1 (de
Inventor
Thomas Benner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102017209542.3A priority Critical patent/DE102017209542B4/de
Priority to US16/002,028 priority patent/US10489963B2/en
Publication of DE102017209542A1 publication Critical patent/DE102017209542A1/de
Application granted granted Critical
Publication of DE102017209542B4 publication Critical patent/DE102017209542B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0044Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/339Displays specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Hardware Design (AREA)
  • Cardiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Neurology (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Verfahren zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt (12), wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang ihrer jeweiligen Richtungsinformation zu einer Vielzahl von Fasern (15 bis 18) zusammengefügt sind, wobei das Verfahren die folgenden automatisierten Schritte aufweist:- Bestimmen einer ersten Sichtposition (S1) im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern,- Bestimmen einer ersten anatomischen Information aus dem ersten 3D Datensatz, die von der ersten Sichtposition (S1) sichtbar ist,- Projizieren der bestimmten ersten anatomischen Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition,- Detektieren einer Bewegung weg von der ersten Sichtposition (S1),- Bestimmen einer geführten Bewegung der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung, wobei die geführten Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern (15 bis 18) eingeschränkt ist,- Bestimmen einer zweiten Sichtposition (S2) im Untersuchungsobjekt relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung,- Bestimmen einer zweiten anatomischen Information aus dem ersten 3D Datensatz (10), die von der zweiten Sichtposition sichtbar ist und Projizieren der zweiten anatomischen Information auf eine zweite Projektionsfläche.

Description

  • Die vorliegende Anmeldung betrifft ein Verfahren zur kombinierten Visualisierung von Informationen in einem Untersuchungsobjekt. Die Erfindung betrifft weiterhin die zugehörige Vorrichtung zur kombinierten Visualisierung, ein Computerprogrammprodukt und einen elektronisch lesbaren Datenträger.
  • Bei Bilddaten von Untersuchungsobjekten sind dreidimensionale Volumendatensätze bekannt, die mit bildgebenden Vorrichtungen sowie MR-Anlagen oder CT-Anlagen etc. erzeugt wurden. Bei diesen dreidimensionalen Datensätzen weist jedes Pixel bzw. Voxel einen Wert auf, der als Grauwert oder als Farbwert codiert dargestellt werden kann, beispielsweise als zweidimensionale Schicht, die in dem dreidimensionalen Datensatz liegt. Die Lage der zweidimensionalen Schicht kann hierbei entlang der Hauptachsen des 3D Datensatzes liegen, d.h., transversal, sagittal, oder koronal, es ist jedoch auch eine schräge Orientierung beziehungsweise jede freie Orientierung in dem dreidimensionalen Datensatz möglich.
  • Ein dreidimensionaler Datensatz kann nicht nur skalare Werte beinhalten, sondern auch Vektordaten. Ein Beispiel hierfür sind Diffusionstensordaten, bei dem jedes Voxel einen Tensor aufweist. Diese dreidimensionalen Datensätze mit Vektorinformationen können weiterhin verwendet werden, um die Richtungsinformationen in zumindest einigen Voxeln zu Fasern zu kombinieren. Diese Fasern zeigen dann einen Verlauf der Richtungsinformation an und können bei Anwendung im Gehirn beispielsweise die Verbindungswege der weißen Gehirnsmasse zeigen oder bei Anwendungen im Herzen die Verbindungen der Muskulatur im Herzen. Die Anzahl der Fasern in einem Untersuchungsvolumen kann sehr groß sein, beispielsweise können Millionen von Fasern pro Datensatz vorliegen. Zur Darstellung ist es möglich, einige Fasern zu Faserbündeln zusammenzufassen, sodass dann die Faserbündel dargestellt werden, was die Visualisierung vereinfacht. Diese Faserbündel werden zumeist zusätzlich zur anatomischen Information dargestellt. Wenn ein Anwender sich zur Auswertung dieser Datensätze die Bündel und die zugehörige anatomische Information darstellen will zur Visualisierung einzelner Faser oder Faserbündel, so ist diese Nachverfolgung für den Anwender schwierig, da die Faser ein gekrümmtes Objekt im dreidimensionalen Raum ist und der Anwender wissen will welche umgebende anatomische Information um ein Bündel herum vorliegt. Hierzu muss er dann die Schnittebenen manuell richtig legen, um die Anatomie um eine Faser herum zu erkennen.
  • US 7889899 B2 beschreibt eine Methode zur Darstellung von Diffusionstensordaten mittels einer sphärischen Punktwolke. US 7602180 B2 beschreibt eine Methode zur zweidimensionalen Darstellung von dreidimensionalen Diffusionstensordaten.
    DE 10 2013 213 010 B3 beschreibt ein LIC-basiertes Bildgebungsverfahren für kernspintomographische Diffusionsdaten, die in einem Diffusionsdaten-Vektorfeld mit einem dreidimensionalen Voxel-Raster vorliegen. US 2006/ 0 241 897 A1 beschreibt ein Verfahren zum Faser-Tracking in Magnetresonanzdaten. WO 2003/ 098 252 A1 beschreibt ein Verfahren zur medizinischen Bildgebung von anisotropen oder faserartigen Strukturen.
  • Es ist eine Aufgabe der vorliegenden Erfindung ein Verfahren bereitzustellen, bei dem auf einfache Weise einer Faser gefolgt werden kann und hierbei die umliegende anatomische Information dargestellt wird.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. In den abhängigen Ansprüchen sind weitere Ausführungsformen beschrieben.
  • Gemäß einem ersten Aspekt wird ein Verfahren zur kombinierten Visualisierung von Informationen in einem Untersuchungsobjekt bereitgestellt, wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz vorliegt, der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt. Weiterhin ist ein zweiter dreidimensionaler Datensatz vorgesehen, dessen Voxel im Wesentlichen Richtungsinformationen aufweisen, wobei einige Voxel entlang der jeweiligen Richtungsinformation zu einer Vielzahl von Fasern zusammengefügt sind. Das Verfahren weist hierbei die folgenden automatisierten Schritte auf. Es wird eine erste Sichtposition im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern bestimmt. Ebenso wird eine erste anatomische Information bestimmt aus dem ersten dreidimensionalen Datensatz, die von der ersten Sichtposition sichtbar ist. Anschließend wird die bestimmte erste anatomische Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition projiziert. Wenn nun eine Bewegung weg von der ersten Sichtposition detektiert wird, beispielsweise nach Betätigung eines Eingabeelements durch einen Anwender, wird eine geführte Bewegung entlang der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung bestimmt, wobei die geführte Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern eingeschränkt ist. In Abhängigkeit von der geführten Bewegung wird eine zweite Sichtposition im Untersuchungsobjekt relativ zu der ausgewählten Faser bestimmt und es wird eine zweite anatomische Information aus dem ersten dreidimensionalen Datensatz bestimmt, die von der zweiten Sichtposition sichtbar ist, und die zweite anatomische Information wird auf eine zweite Projektionsfläche projiziert.
  • Durch das oben beschriebene Verfahren wird erreicht, dass bei einer Bewegung weg von der ersten Sichtposition automatisch eine Bewegung entlang von einer der Fasern vorliegt, sodass die Bewegung in eine geführte Bewegung entlang einer Faser überführt wird. Zusätzlich wird automatisch jeweils die anatomische Information für die erste Sichtposition und die zweite Sichtposition berechnet, sodass beispielsweise ein zeitaufwändiges und kompliziertes manuelles Anpassen der Bewegung an den Faserverlauf und die Auswahl der Projektionsflächen entfällt.
  • Beispielsweise kann die Bewegung weg von der ersten Sichtposition auf einer Interaktion eines Anwenders mit einer Eingabeeinheit beruhen, wobei in Abhängigkeit von der Interaktion ein virtueller Betrachter von der ersten Sichtposition entlang der ausgewählten Faser zur zweiten Sichtposition bewegt wird. Hierbei kann für die erste und zweite Sichtposition jeweils eine Position relativ zur ausgewählten Faser und eine Sichtrichtung relativ zu der ausgewählten Faser bestimmt werden. Für den virtuellen Betrachter, der sich entlang der ausgewählten Faser bewegt, kann somit die Lage und die Sichtrichtung relativ zu der Faser bestimmt werden.
  • Hierbei kann eine bestimmte Voreinstellung für die Lage und Suchrichtung verwendet werden, wobei diese dann durch eine Benutzereingabe verändert werden kann.
  • Vorzugsweise wird die Projektionsfläche in Abhängigkeit von der Sichtposition im Untersuchungsobjekt berechnet, wobei zumindest die erste Projektionsfläche an der ersten Sichtposition und die zweite Projektionsfläche an der zweiten Sichtposition berechnet wird. Dies bedeutet, dass die Projektionsflächen sich in Abhängigkeit von der Sichtposition ändern und sich mit der Sichtposition mitbewegen. Selbstverständlich können auch für die Positionen zwischen der ersten Sichtposition und zweiten Sichtposition jeweils Projektionsflächen berechnet werden für die Projektion der jeweiligen Anatomie auf die Projektionsfläche. Um den Rechenaufwand zu vermindern ist es jedoch auch möglich, die Projektionsfläche nur für die Anfangsposition, die erste Position und für die Endposition, die zweite Sichtposition zu berechnen.
  • Die Projektionsflächen können eine Projektionsebene aufweisen, auf welche die anatomische Information jeweils projiziert wird. Diese Projektionsebene wird dann zumindest für die erste und für die zweite Sichtposition bestimmt. Es können jedoch auch mehr Projektionsflächen wie beispielsweise zwei oder drei Projektionsebenen oder -flächen berechnet werden, oder eine einzige Fläche, auf die dann die gesammelte anatomische Information, die von der jeweiligen Sichtposition sichtbar ist, projiziert wird. Bei der Verwendung von Projektionsebenen kann beispielsweise die erste Projektionsebene senkrecht zur Richtung der ausgewählten Faser bestimmt werden, wobei die zweite Projektionsebene derart bestimmt wird, dass sie senkrecht auf die erste Positionsebene verläuft. Für die Bestimmung der genauen Lagen der zweiten Projektionsebene kann weiterhin berücksichtigt werden die Lage einer Hauptachse des zweiten dreidimensionalen Datensatzes, die Lage einer anatomischen Achse im zweiten dreidimensionalen Datensatz oder die Krümmung der ausgewählten Faser. Durch die Lage der ersten Projektionsebene ist die Lage der zweiten Projektionsebene noch nicht vollständig festgelegt, wenn man davon ausgeht, dass die beiden Projektionsebenen senkrecht zu einander liegen sollen. Die oben genannten Punkte können dann verwendet werden, um die Lage der zweiten Projektionsebene relativ zu ersten Projektionsebene festzulegen.
  • Die Erfindung ist jedoch nicht auf zwei oder mehrere Projektionsebenen beschränkt, die aufeinander senkrecht stehen. Es kann jede andere Projektionsfläche wie beispielsweise ein Zylinder rund um die Faser verwendet werden, auf den dann die um die Faser liegende Anatomieinformation projiziert wird.
  • Weiterhin können für die Projektionsflächen weitere Parameter bestimmt werden, wie beispielsweise ein Transparenzwert, der angibt, welche anatomische Information die von der jeweiligen Sichtposition hinter der jeweiligen Projektionsfläche liegt, aus der ersten beziehungsweise zweiten Sichtposition sichtbar ist. Es ist möglich, dass die bestimmten oder berechneten Projektionsflächen wie beispielsweise die Projektionsebenen vollkommen intransparent sind, sodass dahinter keine anatomische Information dargestellt wird, es ist jedoch auch denkbar, dass die jeweilige Projektionsfläche semi-transparent ist, sodass teilweise noch hinter der Projektionsfläche liegende anatomische Information dargestellt wird.
  • Ein Voxel kann auch mehr als eine einzige Richtungsinformation aufweisen, sodass mehr als eine Faser durch ein Voxel verlaufen. Wenn eine Bewegung weg von der ersten Sichtposition detektiert wird, kann bei Voxel mit mehreren Fasern die Faser ausgewählt werden, die näher in der Richtung liegt, in der die Bewegung weg von der ersten Sichtrichtung erfolgt ist. Falls die Richtungsinformation im Voxel eine Haupt- und zumindest eine Nebenrichtung hat, kann der Faser entlang der Hauptrichtung gefolgt werden.
  • Die Erfindung betrifft weiterhin die Vorrichtung welche das oben beschriebene Verfahren durchführt, wobei die Vorrichtung eine Steuereinheit und eine Speichereinheit aufweist, wobei die Speichereinheit von der Steuereinheit ausführbare Steuerinformationen speichert und die Vorrichtung ausgebildet ist bei Ausführungen der Steuerinformationen in der Steuereinheit das oben beschriebene Verfahren durchzuführen. Ebenso ist ein Computerprogrammprodukt mit Programmmitteln vorgesehen, die direkt in die Speichereinheit der Steuereinheit ladbar sind, um das oben beschriebene Verfahren auszuführen, wenn die Programmmittel in der Steuereinrichtung ausgeführt werden. Weiterhin ist ein elektronisch lesbarer Datenträger mit darauf gespeicherten elektronisch lesbaren Steuerinformationen vorgesehen, die derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in der Steuereinheit der Vorrichtung zur kombinierten Visualisierung von Informationen das Verfahren ausführen wie oben beschrieben oder nachfolgend im Detail beschrieben.
  • Die oben dargelegten Merkmale und die nachfolgend beschriebenen Merkmale können nicht nur in den entsprechenden explizit dargestellten Kombinationen verwendet werden, sondern auch in anderen Kombinationen, sofern es nicht explizit anders erwähnt ist.
  • Die Erfindung wird nachfolgend unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert.
    • 1 zeigt schematisch ein Untersuchungsobjekt mit kombinierter Darstellung der anatomischen Information und der Richtungsinformation.
    • 2 zeigt schematisch wie bei Bewegung entlang einer Faser die anatomische Information auf Projektionsflächen projiziert wird.
    • 3 zeigt schematisch wie bei einer Richtungsinformation in verschiedenen Voxel jeweils für zwei Sichtpositionen zwei Schichtebenen berechnet werden, die als Projektionsflächen für die Projektion der anatomischen Information dienen.
    • 4 zeigt schematisch ein Flussdiagramm mit den Schritten, die bei einem Verfahren zur kombinierten Visualisierung von Informationen gemäß der Erfindung durchgeführt werden.
    • 5 zeigt schematisch das Flussdiagramm einer weiteren Ausführungsform der Erfindung, bei der Ebenen als Projektionsflächen verwendet werden.
    • 6 zeigt schematisch eine Ausgestaltung einer Vorrichtung mit der die in den 4 und 5 dargestellten Verfahrensschritte durchgeführt werden können.
  • Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Weiterhin sind die Figuren schematische Darstellungen verschiedener Ausführungsformen der Erfindung. Die in den Figuren dargestellten Elemente sind hierbei nicht notwendigerweise maßstabsgetreu dargestellt, und die dargestellten Elemente sind vielmehr derart wiedergegeben, dass ihre Funktionen und ihr Zweck für den Fachmann verständlich werden. Eventuell in den Figuren dargestellte Verbindungen zwischen funktionellen Einheiten oder sonstigen Elementen können auch aus indirekten Verbindungen implementiert sein, wobei eine Verbindung drahtlos oder drahtgebunden sein kann. Funktionelle Einheiten können als Hardware, Software oder einer Kombination aus Hardware und Software implementiert sein.
  • In 1 ist schematisch ein erster dreidimensionaler Datensatz 10 dargestellt, der im Wesentlichen anatomische Informationen enthält, sowie ein zweiter dreidimensionaler Datensatz 11, der im Wesentlichen Richtungsinformation enthält. Die Datensätze 10 und 11 können, beispielsweise MR-Datensätze sein, wobei die in den Voxeln des Datensatzes 11 enthaltene Richtungsinformation beispielsweise eine Diffusionsrichtung oder ein Diffusionstensor sein kann. Damit können für jedes Voxel eine Richtungsinformation oder mehrere Richtungsinformationen vorhanden sein. Diese beiden Datensätze können wie in 1 unten dargestellt kombiniert werden zur Darstellung eines Untersuchungsobjekts 12, wobei neben der dargestellten anatomischen Information noch verschiedene Fasern 15, 16, 17 oder 18 dargestellt sind. Bei den Fasern kann es sich um einzelne Fasern handeln oder um Faserbündel, wobei eine Faser definiert ist durch eine Aneinanderreihung der Richtungsinformation der einzelnen Voxel. Die Faser ist somit eine zusammengesetzte beziehungsweise aneinandergereihte Richtungsinformation, die in einem Voxel vorhanden ist. Wenn es sich um einen Tensor handelt, kann die Richtungsinformation eine Haupt- und eine oder mehrere Nebenrichtungen beinhalten. Ein Voxel kann eine Faser für jede Hauptrichtung und für einige oder alle der Nebenrichtungen aufweisen, sodass ein Voxel auch mehrere Fasern aufweisen kann.
  • Nachfolgend wird nun ein Verfahren beschrieben, wie es auf einfache Weise möglich ist, einzelnen Faserverläufen zu folgen und dabei die anatomische Information in Abhängigkeit von der gewählten Position auf einer der Fasern darzustellen. Hierfür wird in dem kombinierten Datensatz mit der anatomischen Information und der Richtungsinformation eine Startbeziehungsweise eine erste Sichtposition entlang von einer der Fasern bestimmt. Dies ist beispielsweise möglich durch Auswahl einer der Fasern und eines Punktes auf einer Faser durch einen Benutzer.
  • Abhängig von der ersten Sichtposition relativ zu der ausgewählten Faser kann nun die erste anatomischen Information aus dem ersten 3D Datensatz bestimmt werden, die von der ersten Sichtposition sichtbar ist. Dies ist schematisch in 2 dargestellt, wobei es sich bei dem Untersuchungsobjekt um ein Gehirn handelt. Die von einer ersten Sichtposition S1 sichtbare anatomische Information wird hierbei auf zwei Projektionsflächen projiziert, nämlich die Projektionsebene 21 und die Projektionsebene 22, die zueinander senkrecht stehen. Die Information auf den Schnitt/Projektionsebenen entspricht typischerweise dem Grauwert der anatomischen Information (3D Datensatz), der an den Punkten der Projektionsebene geschnitten wird. Dies können einfache Grauwerte aus einem z.B. T1-gewichteten Bild sein, oder (semi-)quantitative Werte (z.B. ADC, T1, etc.) oder z.B. codierte Werte einer Segmentation von Hirnstrukturen. Die Form der „Projektionsflächen“ ist frei wählbar, d.h. eine oder mehrere Ebenen, andere Formen, wie z.B. Zylinder, Paraboloid, etc. mit pro Pixel konfigurierbaren Einstellungen, wie z.B. Transparenz. Auch eine Beschränkung auf einen bestimmten Abstandsbereich von der Faser, d.h. ein Kreis oder eine Ellipse sind möglich.
  • In 3 ist nun schematisch für eine Faser 15 dargestellt, wie sie in den einzelnen Voxeln 30, 31, 32 und 33 verläuft. In dem dargestellten Beispiel wird angenommen, dass die erste Sichtposition am Punkt S1 liegt. Für diese Sichtposition kann dann beispielsweise eine Ebene 22 berechnet werden, die senkrecht zu der Faserrichtung liegt. Zusätzlich kann eine zweite Ebene 21 berechnet werden, die wiederum senkrecht zur Ebene 22 liegt. Zur vollständigen Festlegung der Ebene 21 kann weiterhin der Rotationswinkel der beiden Ebenen relativ zueinander bestimmt werden, der beispielsweise von der Hauptachse des 3D Volumens abhängt oder der anatomischen Achse des dargestellten Objekts, oder in Abhängigkeit von einem festgelegten Gravitationszentrum bestimmt wird oder in Abhängigkeit von der lokalen Krümmung der Faser. Wird nun eine Bewegung durch den Anwender beziehungsweise durch die Person detektiert, sei es durch Detektion einer Mausbewegung oder eines Drehrades, durch Detektion einer Position auf einem berührungsempfindlichen Bildschirm, durch Detektion einer Geste oder durch Detektion eines Steuerungsbefehls, so wird diese Bewegung in eine Bewegung entlang der ausgewählten Faser umgerechnet. Wie weit sich hierbei die Sichtposition von der ersten Sichtposition S1 zur zweiten Sichtposition S2 bewegt, kann hierbei von der detektierten Bewegung abhängen, beispielsweise von der Stärke oder der Länge der Interaktion. In dem Sichtpunkt S2 wird dann wiederum eine Projektionsebenen 22' und eine Projektionsebene 21' berechnet nach den gleichen Kriterien wie bei der Berechnung der Ebenen 21 und 22. Die von der Sichtposition S2 sichtbare anatomische Information wird dann auf die beiden Ebenen 21' und 22' projiziert. Falls mehr als eine Richtungsinformation in einem Voxel vorhanden ist, kann in Abhängigkeit von der detektierten Bewegung die Bewegung in eine geführte Bewegung entlang der Faser umgewandelt werden, die der detektierten Bewegung am ehesten entspricht. Verzweigt sich beispielsweise eine Faser im benachbarten Voxel in eine nach links oder nach rechts verlaufende Faser beziehungsweise eine nach oben oder unten verlaufende Faser, so kann in Abhängigkeit von der detektierten Bewegung der ausgewählten Richtung gefolgt werden.
  • In 4 werden einige wesentliche Schritte des Verfahrens zusammengefasst. Das Verfahren startet im Schritt S40 und in einem Schritt S41 wird eine erste Sichtposition im Untersuchungsobjekt relativ zu einer ausgewählten Faser bestimmt. Anschließend wird eine erste anatomische Information bestimmt in einem Schritt S42, die von der ersten Sichtposition sichtbar ist und in einem Schritt S43 wird diese anatomische Information schließlich auf die erste Projektionsfläche projiziert, wobei die Projektionsflächen wie in 3 beschrieben bestimmt werden können. Selbstverständlich sind die Projektionsflächen nicht auf Projektionsebenen beschränkt. Es sind andere Projektionsflächen wie beispielsweise zylindrische Projektionsflächen um die Faser herum oder kugelförmige Projektionsflächen um die Sichtposition denkbar. In einem Schritt S44 wird überprüft, ob eine Bewegung detektiert wird, beispielsweise durch Betätigung eines Bedienelements. Wenn dies der Fall ist, wird die detektierte Bewegung in eine geführte Bewegung entlang einer der Fasern überführt in einem Schritt S45. In einem Schritt S46 wird eine zweite Sichtposition relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung bestimmt, und in einem Schritt S47 wird die zweite anatomische Information, die von der zweiten Sichtposition sichtbar ist, bestimmt und auf die zweite Projektionsfläche projiziert.
  • In 5 ist ein weiteres Verfahren zur Bestimmung der kombinierten Visualisierung der anatomischen Information und der Richtungsinformation dargestellt. Das Verfahren startet im Schritt S51 und in einem Schritt S52 wird die Faser oder das Faserbündel ausgewählt, auf der die erste Sichtposition liegen soll. Anschließend wird in einem Schritt S52 die erste Sichtposition auf der Faser festgelegt. Hierbei kann die virtuelle Betrachterposition beziehungsweise Sichtposition derart festgelegt werden, dass die Lage relativ zur Faser und die Blickrichtung relativ zur Faser festgelegt wird. Die Sichtposition kann hierbei direkt auf der Faser liegen oder in einem bestimmten Abstand relativ zur Faser, wobei die Blickrichtung entlang der Faser gerichtet sein kann oder auf einen bestimmten Punkt relativ zur Faser (Schritt S53). Im Schritt S54 wird dann die Projektionsfläche für die erste Sichtposition bestimmt, beispielsweise die Lage einer Ebene E1 relativ zur Faser, beispielsweise eine Ebene die senkrecht zur Faser verläuft in dem jeweiligen Voxel. In einem Schritt S55 kann dann eine zweite Projektionsebene bestimmt werden, die beispielsweise senkrecht zur ersten Projektionsebene verläuft und in Abhängigkeit von weiteren Informationen wie der anatomischen Achse des Untersuchungsobjekts oder der Hauptachse des 3D Volumens etc. gewählt wird. Mit Kenntnis der Projektionsebenen 21 und 22 kann in Schritt S56 eine dritte Projektionsebene berechnet werden, wobei in diesem Fall drei Projektionsebenen verwendet werden zur Projektion der anatomischen Information. In einem Schritt S57 können schließlich die berechneten Ebenen dargestellt werden, wobei zusätzliche Attribute wie die Transparenz der einzelnen Ebenen bestimmt worden sind. In einem Schritt S58 wird überprüft, ob eine Bewegung der ersten Sichtposition weg von der ersten Sichtposition detektiert wird. Wenn dies der Fall ist, werden die Schritte der Bestimmung der Sichtposition bis zur Darstellung der bestimmten Projektionsebenen wiederholt bis keine Bewegung mehr stattfindet und das Verfahren in einem Schritt S59 endet.
  • Bei dem oben beschriebenen Verfahren ist es möglich, eine Rotation des 3D Volumens automatisch durchzuführen, beispielsweise in Abhängigkeit von der relativen Sichtposition und dem Winkel zu einem Zielpunkt, beispielsweise kann die Sichtrichtung entlang der Faser gewählt werden oder eine Sichtrichtung senkrecht zu einer der Ebenen.
  • Bei dem in 5 dargestellten Beispiel wurden drei Schichtebenen berechnet. Selbstverständlich kann die Projektion auch auf zwei Ebenen oder mehr als drei Ebenen erfolgen. Weiterhin ist es möglich die Rotation der Schichten anzupassen mithilfe einer weiteren Eingabe durch eine Bedienperson. Ebenso müssen die einzelnen Projektionsebenen nicht senkrecht zueinander stehen, es sind auch andere relative Orientierungen zueinander oder zu der ausgewählten Faser möglich. Bei den dreidimensionalen Daten mit Richtungsinformation kann die Richtungsinformation auf Diffusionsrichtungen beruhen, es sind jedoch auch Blutflussrichtungen denkbar. Die Sichtrichtung und -position relativ zu einer ausgewählten Faser kann auch durch eine Eingabe geändert sein und muss nicht fest sein.
  • 6 zeigt schematisch eine Vorrichtung zur kombinierten Visualisierung, mit der die oben beschriebenen Verfahrensschritte durchgeführt werden können. Die Vorrichtung 60 kann eine Eingabeeinheit 61 aufweisen, mit der eine Bedienperson eine Anfangsposition auf einer Faser, sowie eventuell eine Lage relativ zur Faser und einen Blickwinkel relativ zur Faser auswählen kann. Die Eingabeeinheit 61 ist weiter vorgesehen zur Bewegung des virtuellen Benutzers von der ersten Sichtposition zur zweiten Sichtposition.
  • Die Vorrichtung 60 kann weitere Schnittstellen aufweisen zur Kommunikation mit anderen Einrichtungen oder zum Laden der Datensätze 10 und 11.
  • Die Vorrichtung 60 weist weiterhin eine Steuer- oder Recheneinheit 62 auf, die für den Betrieb der Vorrichtung 60 verantwortlich ist. Die Steuereinheit 62 weist einen oder mehrere Prozessoren auf und kann Befehle ausführen, die auf einer Speichereinheit 63 gespeichert sind. Die Speichereinheit kann weiterhin die Programmmittel oder Programmmodule speichern, die von der Prozessoreinheit ausgeführt werden können, um das oben beschriebene Verfahren beziehungsweise die oben beschriebenen Funktionalitäten auszuführen. Auf einer Anzeigeeinheit 64 können dann die gewünschten Informationen wie der kombinierte Datensatz dargestellt werden. Selbstverständlich kann die Vorrichtung 60 weitere funktionelle Einheiten aufweisen, die jedoch aus Übersichtlichkeitsgründen nicht dargestellt sind.
  • Es ist auch denkbar, die bestimmte visuelle Information nicht nur auf einem Bildschirm darzustellen, sondern auch in einer 3D Brille. Anstelle von einem Satz von Projektionsebenen ist es auch möglich sonstige flächige Funktionen wie beispielsweise eine Parabel zu wählen, wobei der Scheitelpunkt in der Sichtposition liegt.
  • Das oben beschriebene Verfahren ermöglicht eine einfache Darstellung der anatomischen Information entlang der Fasern. Es kann auf eine mühsame händische Auswahl der einzelnen Ebenen an den einzelnen Sichtpositionen verzichtet werden und durch eine einfache Bewegung ist eine Bewegung entlang einer der Fasern möglich.

Claims (13)

  1. Verfahren zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt (12), wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang ihrer jeweiligen Richtungsinformation zu einer Vielzahl von Fasern (15 bis 18) zusammengefügt sind, wobei das Verfahren die folgenden automatisierten Schritte aufweist: - Bestimmen einer ersten Sichtposition (S1) im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern, - Bestimmen einer ersten anatomischen Information aus dem ersten 3D Datensatz, die von der ersten Sichtposition (S1) sichtbar ist, - Projizieren der bestimmten ersten anatomischen Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition, - Detektieren einer Bewegung weg von der ersten Sichtposition (S1), - Bestimmen einer geführten Bewegung der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung, wobei die geführten Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern (15 bis 18) eingeschränkt ist, - Bestimmen einer zweiten Sichtposition (S2) im Untersuchungsobjekt relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung, - Bestimmen einer zweiten anatomischen Information aus dem ersten 3D Datensatz (10), die von der zweiten Sichtposition sichtbar ist und Projizieren der zweiten anatomischen Information auf eine zweite Projektionsfläche.
  2. Verfahren nach Anspruch 1, wobei die Bewegung weg von der ersten Sichtposition (S1) auf einer Interaktion eines Anwenders mit einer Eingabeeinheit (61) beruht, wobei in Abhängigkeit von der Interaktion ein virtueller Betrachter von der ersten Sichtposition (S1) entlang der ausgewählten Faser zur zweiten Sichtposition (S2) bewegt wird.
  3. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Projektionsfläche in Abhängigkeit von der Sichtposition im Untersuchungsobjekt berechnet wird, wobei zumindest die erste Projektionsfläche für die erste Sichtposition und die zweite Projektionsfläche für die zweite Sichtposition berechnet wird.
  4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Bestimmen der ersten und zweiten Sichtposition ein Bestimmen einer Position relativ zu der ausgewählten Faser und das Bestimmen einer Sichtrichtung relativ zu der ausgewählten Faser beinhaltet.
  5. Verfahren nach einem der Ansprüche 3 oder 4, wobei die erste und zweite Projektionsfläche jeweils zumindest eine Projektionsebene (21, 22) aufweist, auf welche die anatomische Information projiziert wird, wobei die zumindest eine Projektionsebene zumindest für die erste und für die zweite Sichtposition bestimmt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Projektionsfläche zumindest zwei Projektebenen aufweist, wobei eine erste der zumindest zwei Projektionsebenen (21, 22) derart bestimmt wird, dass diese senkrecht zu der ausgewählten Faser angeordnet ist, wobei eine zweite der zumindest zwei Projektionsebenen (21, 22) derart bestimmt wird, dass sie senkrecht auf die erste Projektionsebene verläuft.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass eine Lage der zweiten Projektionsebene (21) relativ zur ersten Projektionsebene (22) weiterhin unter Berücksichtigung von zumindest einer der folgenden Informationen bestimmt wird: - einer Lage einer Hauptachse des zweiten dreidimensionalen Datensatzes, - einer Lage einer anatomischen Achse im zweiten dreidimensionalen Datensatz, - einer Krümmung der ausgewählten Faser.
  8. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für die erste und zweite Projektionsfläche weiterhin ein Transparenzwert bestimmt wird, der angibt, welche der anatomischen Informationen, die von der jeweiligen Sichtposition hinter der jeweiligen Projektionsfläche liegen, aus der ersten beziehungsweise zweiten Sichtposition sichtbar sind.
  9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für ein Voxel mehr als eine Richtungsinformation vorliegt und mehrere Fasern durch ein Voxel verlaufen.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei Detektion der Bewegung weg von der ersten Sichtposition die Faser in dem Voxel ausgewählt wird, die näher in der Richtung liegt, in der die Bewegung weg von der ersten Sichtposition erfolgt ist.
  11. Vorrichtung (60) zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt, wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang der zumindest einen Richtungsinformation zu einer Vielzahl von Fasern zusammengefügt sind, wobei die Vorrichtung (60) eine Steuereinheit (62) und eine Speichereinheit (63) aufweist, wobei die Speichereinheit von der Steuereinheit (62) ausführbare Steuerinformationen speichert, wobei die Vorrichtung ausgebildet ist, bei Ausführung der Steuerinformationen in der Steuereinheit ein Verfahren nach einem der Ansprüche 1 bis 10 durchzuführen.
  12. Computerprogrammprodukt, welches Programmmittel umfasst und direkt in eine Speichereinheit einer programmierbaren Steuereinheit einer Vorrichtung zur kombinierten Visualisierung von Information ladbar ist, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 9 auszuführen, wenn die Programmmittel in der Steuereinrichtung ausgeführt werden.
  13. Elektronisch lesbarer Datenträger mit darauf gespeicherten elektronisch lesbaren Steuerinformationen, welche derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in einer Steuereinheit einer Vorrichtung zur kombinierten Visualisierung von Information das Verfahren nach einem der Ansprüche 1 bis 9 durchführen.
DE102017209542.3A 2017-06-07 2017-06-07 Visualisierung von Fasern Active DE102017209542B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017209542.3A DE102017209542B4 (de) 2017-06-07 2017-06-07 Visualisierung von Fasern
US16/002,028 US10489963B2 (en) 2017-06-07 2018-06-07 Method and computer for visualization of fibers in medical images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017209542.3A DE102017209542B4 (de) 2017-06-07 2017-06-07 Visualisierung von Fasern

Publications (2)

Publication Number Publication Date
DE102017209542A1 DE102017209542A1 (de) 2018-12-13
DE102017209542B4 true DE102017209542B4 (de) 2020-09-10

Family

ID=64332602

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017209542.3A Active DE102017209542B4 (de) 2017-06-07 2017-06-07 Visualisierung von Fasern

Country Status (2)

Country Link
US (1) US10489963B2 (de)
DE (1) DE102017209542B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685480B2 (en) * 2018-02-26 2020-06-16 VRcaffeine LLC Rendering volumes using apple graduations in multiple dimensions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098252A1 (en) * 2002-05-15 2003-11-27 Koninklijke Philips Electronics N.V. Diffusion tensor magnetic resonance imaging including fiber rendering using hyperstreamlines
US20060241897A1 (en) * 2003-04-24 2006-10-26 Hoogenraad Frank G C Fibre tracking magnetic resonance imaging
DE102013213010B3 (de) * 2013-07-03 2014-10-16 Fachhochschule Stralsund Bildgebungsverfahren für kernspintomographische Diffusionsdaten, Computerprogrammprodukt und Bildgebungsvorrichtung

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889899B2 (en) 2006-05-05 2011-02-15 Siemens Medical Solutions Usa, Inc. Directional statistics visualization tool
US8170305B2 (en) * 2006-10-19 2012-05-01 Brown University Quantitative tract-of-interest metrics for white matter integrity based on diffusion tensor MRI data
US7602180B2 (en) 2006-11-02 2009-10-13 Siemens Aktiengesellschaft System and method for fast texture-based tensor field visualization for DT-MRI
JP5072343B2 (ja) * 2006-12-19 2012-11-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 磁気共鳴イメージング装置,磁気共鳴イメージング方法,拡散テンソルカラーマップ画像生成装置,拡散テンソルカラーマップ画像生成方法
WO2014121058A1 (en) * 2013-01-31 2014-08-07 The General Hospital Corporation Systems and methods for objective tractographic processing using features of grid structures of the brain
US9483878B2 (en) * 2013-11-27 2016-11-01 Disney Enterprises, Inc. Contextual editing using variable offset surfaces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098252A1 (en) * 2002-05-15 2003-11-27 Koninklijke Philips Electronics N.V. Diffusion tensor magnetic resonance imaging including fiber rendering using hyperstreamlines
US20060241897A1 (en) * 2003-04-24 2006-10-26 Hoogenraad Frank G C Fibre tracking magnetic resonance imaging
DE102013213010B3 (de) * 2013-07-03 2014-10-16 Fachhochschule Stralsund Bildgebungsverfahren für kernspintomographische Diffusionsdaten, Computerprogrammprodukt und Bildgebungsvorrichtung

Also Published As

Publication number Publication date
DE102017209542A1 (de) 2018-12-13
US20180357815A1 (en) 2018-12-13
US10489963B2 (en) 2019-11-26

Similar Documents

Publication Publication Date Title
EP1251462B1 (de) Verfahren zum Segmentieren einer in einem Objekt enthaltenen dreidimensionalen Struktur, insbesondere für die medizinische Bildanalyse
DE10357203B4 (de) Verfahren und Steuereinrichtung zum Betrieb eines Magnetresonanztomographie-Geräts sowie Magnetresonanztomographie-Gerät
DE10357206B4 (de) Verfahren und Bildbearbeitungssystem zur Segmentierung von Schnittbilddaten
DE102004043694B4 (de) Verfahren zur Segmentierung anatomischer Strukturen aus 3D-Bilddaten unter Nutzung topologischer Information
DE102008028023A1 (de) Verfahren zur Darstellung mehrerer Bilddatensätze und Benutzerinterface zur Darstellung mehrerer Bilddatensätze
DE102009014764B4 (de) Verfahren zur Visualisierung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen
DE10357205A1 (de) Verfahren zur Erzeugung von Ergebnis-Bildern eines Untersuchungsobjekts
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102009043868A1 (de) Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes
DE102005035929A1 (de) Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens
DE10338145B4 (de) Verfahren zur Darstellung von 3D Bilddaten
DE102006014902B4 (de) Bildverarbeitungseinrichtung zur erweiterten Darstellung von dreidimensionalen Bilddatensätzen
DE102008028945A1 (de) Verfahren und Visualisierungsmodul zur Visualisierung von Unebenheiten der Innen-Oberfläche eines Hohlorgans, Bildbearbeitungseinrichtung und Tomographiesystem
DE102005045602A1 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102017209542B4 (de) Visualisierung von Fasern
DE102008025535B4 (de) Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102007020060B4 (de) Verteilte Berechnung von Bildern volumetrischer Objekte mittels Ray Casting
DE102008021926A1 (de) Erstellung und Präsentation von patientenindividuellen Panoramadarstellungen
DE10160206A1 (de) Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen
DE102017203048B3 (de) Verfahren zum Bestimmen eines Projektionsdatensatzes, Projektionsbestimmungssystem, Computerprogrammprodukt und computerlesbares Speichermedium
DE102011079380A1 (de) Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen
DE102009006765A1 (de) Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit
DE102012217089A1 (de) Schichtdarstellung von Volumendaten
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE