DE102017209542B4 - Visualisierung von Fasern - Google Patents
Visualisierung von Fasern Download PDFInfo
- Publication number
- DE102017209542B4 DE102017209542B4 DE102017209542.3A DE102017209542A DE102017209542B4 DE 102017209542 B4 DE102017209542 B4 DE 102017209542B4 DE 102017209542 A DE102017209542 A DE 102017209542A DE 102017209542 B4 DE102017209542 B4 DE 102017209542B4
- Authority
- DE
- Germany
- Prior art keywords
- information
- viewing position
- projection
- fiber
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000835 fiber Substances 0.000 title claims abstract description 103
- 238000012800 visualization Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000000007 visual effect Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 16
- 230000003993 interaction Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000009792 diffusion process Methods 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0044—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/339—Displays specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4887—Locating particular structures in or on the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Computer Hardware Design (AREA)
- Cardiology (AREA)
- High Energy & Nuclear Physics (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Neurology (AREA)
- Computer Graphics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Processing Or Creating Images (AREA)
Abstract
Verfahren zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt (12), wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang ihrer jeweiligen Richtungsinformation zu einer Vielzahl von Fasern (15 bis 18) zusammengefügt sind, wobei das Verfahren die folgenden automatisierten Schritte aufweist:- Bestimmen einer ersten Sichtposition (S1) im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern,- Bestimmen einer ersten anatomischen Information aus dem ersten 3D Datensatz, die von der ersten Sichtposition (S1) sichtbar ist,- Projizieren der bestimmten ersten anatomischen Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition,- Detektieren einer Bewegung weg von der ersten Sichtposition (S1),- Bestimmen einer geführten Bewegung der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung, wobei die geführten Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern (15 bis 18) eingeschränkt ist,- Bestimmen einer zweiten Sichtposition (S2) im Untersuchungsobjekt relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung,- Bestimmen einer zweiten anatomischen Information aus dem ersten 3D Datensatz (10), die von der zweiten Sichtposition sichtbar ist und Projizieren der zweiten anatomischen Information auf eine zweite Projektionsfläche.
Description
- Die vorliegende Anmeldung betrifft ein Verfahren zur kombinierten Visualisierung von Informationen in einem Untersuchungsobjekt. Die Erfindung betrifft weiterhin die zugehörige Vorrichtung zur kombinierten Visualisierung, ein Computerprogrammprodukt und einen elektronisch lesbaren Datenträger.
- Bei Bilddaten von Untersuchungsobjekten sind dreidimensionale Volumendatensätze bekannt, die mit bildgebenden Vorrichtungen sowie MR-Anlagen oder CT-Anlagen etc. erzeugt wurden. Bei diesen dreidimensionalen Datensätzen weist jedes Pixel bzw. Voxel einen Wert auf, der als Grauwert oder als Farbwert codiert dargestellt werden kann, beispielsweise als zweidimensionale Schicht, die in dem dreidimensionalen Datensatz liegt. Die Lage der zweidimensionalen Schicht kann hierbei entlang der Hauptachsen des 3D Datensatzes liegen, d.h., transversal, sagittal, oder koronal, es ist jedoch auch eine schräge Orientierung beziehungsweise jede freie Orientierung in dem dreidimensionalen Datensatz möglich.
- Ein dreidimensionaler Datensatz kann nicht nur skalare Werte beinhalten, sondern auch Vektordaten. Ein Beispiel hierfür sind Diffusionstensordaten, bei dem jedes Voxel einen Tensor aufweist. Diese dreidimensionalen Datensätze mit Vektorinformationen können weiterhin verwendet werden, um die Richtungsinformationen in zumindest einigen Voxeln zu Fasern zu kombinieren. Diese Fasern zeigen dann einen Verlauf der Richtungsinformation an und können bei Anwendung im Gehirn beispielsweise die Verbindungswege der weißen Gehirnsmasse zeigen oder bei Anwendungen im Herzen die Verbindungen der Muskulatur im Herzen. Die Anzahl der Fasern in einem Untersuchungsvolumen kann sehr groß sein, beispielsweise können Millionen von Fasern pro Datensatz vorliegen. Zur Darstellung ist es möglich, einige Fasern zu Faserbündeln zusammenzufassen, sodass dann die Faserbündel dargestellt werden, was die Visualisierung vereinfacht. Diese Faserbündel werden zumeist zusätzlich zur anatomischen Information dargestellt. Wenn ein Anwender sich zur Auswertung dieser Datensätze die Bündel und die zugehörige anatomische Information darstellen will zur Visualisierung einzelner Faser oder Faserbündel, so ist diese Nachverfolgung für den Anwender schwierig, da die Faser ein gekrümmtes Objekt im dreidimensionalen Raum ist und der Anwender wissen will welche umgebende anatomische Information um ein Bündel herum vorliegt. Hierzu muss er dann die Schnittebenen manuell richtig legen, um die Anatomie um eine Faser herum zu erkennen.
-
US 7889899 B2 beschreibt eine Methode zur Darstellung von Diffusionstensordaten mittels einer sphärischen Punktwolke.US 7602180 B2 beschreibt eine Methode zur zweidimensionalen Darstellung von dreidimensionalen Diffusionstensordaten.
DE 10 2013 213 010 B3 beschreibt ein LIC-basiertes Bildgebungsverfahren für kernspintomographische Diffusionsdaten, die in einem Diffusionsdaten-Vektorfeld mit einem dreidimensionalen Voxel-Raster vorliegen.US 2006/ 0 241 897 A1 beschreibt ein Verfahren zum Faser-Tracking in Magnetresonanzdaten.WO 2003/ 098 252 A1 beschreibt ein Verfahren zur medizinischen Bildgebung von anisotropen oder faserartigen Strukturen. - Es ist eine Aufgabe der vorliegenden Erfindung ein Verfahren bereitzustellen, bei dem auf einfache Weise einer Faser gefolgt werden kann und hierbei die umliegende anatomische Information dargestellt wird.
- Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. In den abhängigen Ansprüchen sind weitere Ausführungsformen beschrieben.
- Gemäß einem ersten Aspekt wird ein Verfahren zur kombinierten Visualisierung von Informationen in einem Untersuchungsobjekt bereitgestellt, wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz vorliegt, der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt. Weiterhin ist ein zweiter dreidimensionaler Datensatz vorgesehen, dessen Voxel im Wesentlichen Richtungsinformationen aufweisen, wobei einige Voxel entlang der jeweiligen Richtungsinformation zu einer Vielzahl von Fasern zusammengefügt sind. Das Verfahren weist hierbei die folgenden automatisierten Schritte auf. Es wird eine erste Sichtposition im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern bestimmt. Ebenso wird eine erste anatomische Information bestimmt aus dem ersten dreidimensionalen Datensatz, die von der ersten Sichtposition sichtbar ist. Anschließend wird die bestimmte erste anatomische Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition projiziert. Wenn nun eine Bewegung weg von der ersten Sichtposition detektiert wird, beispielsweise nach Betätigung eines Eingabeelements durch einen Anwender, wird eine geführte Bewegung entlang der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung bestimmt, wobei die geführte Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern eingeschränkt ist. In Abhängigkeit von der geführten Bewegung wird eine zweite Sichtposition im Untersuchungsobjekt relativ zu der ausgewählten Faser bestimmt und es wird eine zweite anatomische Information aus dem ersten dreidimensionalen Datensatz bestimmt, die von der zweiten Sichtposition sichtbar ist, und die zweite anatomische Information wird auf eine zweite Projektionsfläche projiziert.
- Durch das oben beschriebene Verfahren wird erreicht, dass bei einer Bewegung weg von der ersten Sichtposition automatisch eine Bewegung entlang von einer der Fasern vorliegt, sodass die Bewegung in eine geführte Bewegung entlang einer Faser überführt wird. Zusätzlich wird automatisch jeweils die anatomische Information für die erste Sichtposition und die zweite Sichtposition berechnet, sodass beispielsweise ein zeitaufwändiges und kompliziertes manuelles Anpassen der Bewegung an den Faserverlauf und die Auswahl der Projektionsflächen entfällt.
- Beispielsweise kann die Bewegung weg von der ersten Sichtposition auf einer Interaktion eines Anwenders mit einer Eingabeeinheit beruhen, wobei in Abhängigkeit von der Interaktion ein virtueller Betrachter von der ersten Sichtposition entlang der ausgewählten Faser zur zweiten Sichtposition bewegt wird. Hierbei kann für die erste und zweite Sichtposition jeweils eine Position relativ zur ausgewählten Faser und eine Sichtrichtung relativ zu der ausgewählten Faser bestimmt werden. Für den virtuellen Betrachter, der sich entlang der ausgewählten Faser bewegt, kann somit die Lage und die Sichtrichtung relativ zu der Faser bestimmt werden.
- Hierbei kann eine bestimmte Voreinstellung für die Lage und Suchrichtung verwendet werden, wobei diese dann durch eine Benutzereingabe verändert werden kann.
- Vorzugsweise wird die Projektionsfläche in Abhängigkeit von der Sichtposition im Untersuchungsobjekt berechnet, wobei zumindest die erste Projektionsfläche an der ersten Sichtposition und die zweite Projektionsfläche an der zweiten Sichtposition berechnet wird. Dies bedeutet, dass die Projektionsflächen sich in Abhängigkeit von der Sichtposition ändern und sich mit der Sichtposition mitbewegen. Selbstverständlich können auch für die Positionen zwischen der ersten Sichtposition und zweiten Sichtposition jeweils Projektionsflächen berechnet werden für die Projektion der jeweiligen Anatomie auf die Projektionsfläche. Um den Rechenaufwand zu vermindern ist es jedoch auch möglich, die Projektionsfläche nur für die Anfangsposition, die erste Position und für die Endposition, die zweite Sichtposition zu berechnen.
- Die Projektionsflächen können eine Projektionsebene aufweisen, auf welche die anatomische Information jeweils projiziert wird. Diese Projektionsebene wird dann zumindest für die erste und für die zweite Sichtposition bestimmt. Es können jedoch auch mehr Projektionsflächen wie beispielsweise zwei oder drei Projektionsebenen oder -flächen berechnet werden, oder eine einzige Fläche, auf die dann die gesammelte anatomische Information, die von der jeweiligen Sichtposition sichtbar ist, projiziert wird. Bei der Verwendung von Projektionsebenen kann beispielsweise die erste Projektionsebene senkrecht zur Richtung der ausgewählten Faser bestimmt werden, wobei die zweite Projektionsebene derart bestimmt wird, dass sie senkrecht auf die erste Positionsebene verläuft. Für die Bestimmung der genauen Lagen der zweiten Projektionsebene kann weiterhin berücksichtigt werden die Lage einer Hauptachse des zweiten dreidimensionalen Datensatzes, die Lage einer anatomischen Achse im zweiten dreidimensionalen Datensatz oder die Krümmung der ausgewählten Faser. Durch die Lage der ersten Projektionsebene ist die Lage der zweiten Projektionsebene noch nicht vollständig festgelegt, wenn man davon ausgeht, dass die beiden Projektionsebenen senkrecht zu einander liegen sollen. Die oben genannten Punkte können dann verwendet werden, um die Lage der zweiten Projektionsebene relativ zu ersten Projektionsebene festzulegen.
- Die Erfindung ist jedoch nicht auf zwei oder mehrere Projektionsebenen beschränkt, die aufeinander senkrecht stehen. Es kann jede andere Projektionsfläche wie beispielsweise ein Zylinder rund um die Faser verwendet werden, auf den dann die um die Faser liegende Anatomieinformation projiziert wird.
- Weiterhin können für die Projektionsflächen weitere Parameter bestimmt werden, wie beispielsweise ein Transparenzwert, der angibt, welche anatomische Information die von der jeweiligen Sichtposition hinter der jeweiligen Projektionsfläche liegt, aus der ersten beziehungsweise zweiten Sichtposition sichtbar ist. Es ist möglich, dass die bestimmten oder berechneten Projektionsflächen wie beispielsweise die Projektionsebenen vollkommen intransparent sind, sodass dahinter keine anatomische Information dargestellt wird, es ist jedoch auch denkbar, dass die jeweilige Projektionsfläche semi-transparent ist, sodass teilweise noch hinter der Projektionsfläche liegende anatomische Information dargestellt wird.
- Ein Voxel kann auch mehr als eine einzige Richtungsinformation aufweisen, sodass mehr als eine Faser durch ein Voxel verlaufen. Wenn eine Bewegung weg von der ersten Sichtposition detektiert wird, kann bei Voxel mit mehreren Fasern die Faser ausgewählt werden, die näher in der Richtung liegt, in der die Bewegung weg von der ersten Sichtrichtung erfolgt ist. Falls die Richtungsinformation im Voxel eine Haupt- und zumindest eine Nebenrichtung hat, kann der Faser entlang der Hauptrichtung gefolgt werden.
- Die Erfindung betrifft weiterhin die Vorrichtung welche das oben beschriebene Verfahren durchführt, wobei die Vorrichtung eine Steuereinheit und eine Speichereinheit aufweist, wobei die Speichereinheit von der Steuereinheit ausführbare Steuerinformationen speichert und die Vorrichtung ausgebildet ist bei Ausführungen der Steuerinformationen in der Steuereinheit das oben beschriebene Verfahren durchzuführen. Ebenso ist ein Computerprogrammprodukt mit Programmmitteln vorgesehen, die direkt in die Speichereinheit der Steuereinheit ladbar sind, um das oben beschriebene Verfahren auszuführen, wenn die Programmmittel in der Steuereinrichtung ausgeführt werden. Weiterhin ist ein elektronisch lesbarer Datenträger mit darauf gespeicherten elektronisch lesbaren Steuerinformationen vorgesehen, die derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in der Steuereinheit der Vorrichtung zur kombinierten Visualisierung von Informationen das Verfahren ausführen wie oben beschrieben oder nachfolgend im Detail beschrieben.
- Die oben dargelegten Merkmale und die nachfolgend beschriebenen Merkmale können nicht nur in den entsprechenden explizit dargestellten Kombinationen verwendet werden, sondern auch in anderen Kombinationen, sofern es nicht explizit anders erwähnt ist.
- Die Erfindung wird nachfolgend unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert.
-
1 zeigt schematisch ein Untersuchungsobjekt mit kombinierter Darstellung der anatomischen Information und der Richtungsinformation. -
2 zeigt schematisch wie bei Bewegung entlang einer Faser die anatomische Information auf Projektionsflächen projiziert wird. -
3 zeigt schematisch wie bei einer Richtungsinformation in verschiedenen Voxel jeweils für zwei Sichtpositionen zwei Schichtebenen berechnet werden, die als Projektionsflächen für die Projektion der anatomischen Information dienen. -
4 zeigt schematisch ein Flussdiagramm mit den Schritten, die bei einem Verfahren zur kombinierten Visualisierung von Informationen gemäß der Erfindung durchgeführt werden. -
5 zeigt schematisch das Flussdiagramm einer weiteren Ausführungsform der Erfindung, bei der Ebenen als Projektionsflächen verwendet werden. -
6 zeigt schematisch eine Ausgestaltung einer Vorrichtung mit der die in den4 und5 dargestellten Verfahrensschritte durchgeführt werden können. - Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Weiterhin sind die Figuren schematische Darstellungen verschiedener Ausführungsformen der Erfindung. Die in den Figuren dargestellten Elemente sind hierbei nicht notwendigerweise maßstabsgetreu dargestellt, und die dargestellten Elemente sind vielmehr derart wiedergegeben, dass ihre Funktionen und ihr Zweck für den Fachmann verständlich werden. Eventuell in den Figuren dargestellte Verbindungen zwischen funktionellen Einheiten oder sonstigen Elementen können auch aus indirekten Verbindungen implementiert sein, wobei eine Verbindung drahtlos oder drahtgebunden sein kann. Funktionelle Einheiten können als Hardware, Software oder einer Kombination aus Hardware und Software implementiert sein.
- In
1 ist schematisch ein erster dreidimensionaler Datensatz10 dargestellt, der im Wesentlichen anatomische Informationen enthält, sowie ein zweiter dreidimensionaler Datensatz11 , der im Wesentlichen Richtungsinformation enthält. Die Datensätze10 und11 können, beispielsweise MR-Datensätze sein, wobei die in den Voxeln des Datensatzes11 enthaltene Richtungsinformation beispielsweise eine Diffusionsrichtung oder ein Diffusionstensor sein kann. Damit können für jedes Voxel eine Richtungsinformation oder mehrere Richtungsinformationen vorhanden sein. Diese beiden Datensätze können wie in1 unten dargestellt kombiniert werden zur Darstellung eines Untersuchungsobjekts12 , wobei neben der dargestellten anatomischen Information noch verschiedene Fasern15 ,16 ,17 oder18 dargestellt sind. Bei den Fasern kann es sich um einzelne Fasern handeln oder um Faserbündel, wobei eine Faser definiert ist durch eine Aneinanderreihung der Richtungsinformation der einzelnen Voxel. Die Faser ist somit eine zusammengesetzte beziehungsweise aneinandergereihte Richtungsinformation, die in einem Voxel vorhanden ist. Wenn es sich um einen Tensor handelt, kann die Richtungsinformation eine Haupt- und eine oder mehrere Nebenrichtungen beinhalten. Ein Voxel kann eine Faser für jede Hauptrichtung und für einige oder alle der Nebenrichtungen aufweisen, sodass ein Voxel auch mehrere Fasern aufweisen kann. - Nachfolgend wird nun ein Verfahren beschrieben, wie es auf einfache Weise möglich ist, einzelnen Faserverläufen zu folgen und dabei die anatomische Information in Abhängigkeit von der gewählten Position auf einer der Fasern darzustellen. Hierfür wird in dem kombinierten Datensatz mit der anatomischen Information und der Richtungsinformation eine Startbeziehungsweise eine erste Sichtposition entlang von einer der Fasern bestimmt. Dies ist beispielsweise möglich durch Auswahl einer der Fasern und eines Punktes auf einer Faser durch einen Benutzer.
- Abhängig von der ersten Sichtposition relativ zu der ausgewählten Faser kann nun die erste anatomischen Information aus dem ersten 3D Datensatz bestimmt werden, die von der ersten Sichtposition sichtbar ist. Dies ist schematisch in
2 dargestellt, wobei es sich bei dem Untersuchungsobjekt um ein Gehirn handelt. Die von einer ersten SichtpositionS1 sichtbare anatomische Information wird hierbei auf zwei Projektionsflächen projiziert, nämlich die Projektionsebene21 und die Projektionsebene22 , die zueinander senkrecht stehen. Die Information auf den Schnitt/Projektionsebenen entspricht typischerweise dem Grauwert der anatomischen Information (3D Datensatz), der an den Punkten der Projektionsebene geschnitten wird. Dies können einfache Grauwerte aus einem z.B. T1-gewichteten Bild sein, oder (semi-)quantitative Werte (z.B. ADC, T1, etc.) oder z.B. codierte Werte einer Segmentation von Hirnstrukturen. Die Form der „Projektionsflächen“ ist frei wählbar, d.h. eine oder mehrere Ebenen, andere Formen, wie z.B. Zylinder, Paraboloid, etc. mit pro Pixel konfigurierbaren Einstellungen, wie z.B. Transparenz. Auch eine Beschränkung auf einen bestimmten Abstandsbereich von der Faser, d.h. ein Kreis oder eine Ellipse sind möglich. - In
3 ist nun schematisch für eine Faser15 dargestellt, wie sie in den einzelnen Voxeln30 ,31 ,32 und33 verläuft. In dem dargestellten Beispiel wird angenommen, dass die erste Sichtposition am PunktS1 liegt. Für diese Sichtposition kann dann beispielsweise eine Ebene22 berechnet werden, die senkrecht zu der Faserrichtung liegt. Zusätzlich kann eine zweite Ebene21 berechnet werden, die wiederum senkrecht zur Ebene22 liegt. Zur vollständigen Festlegung der Ebene21 kann weiterhin der Rotationswinkel der beiden Ebenen relativ zueinander bestimmt werden, der beispielsweise von der Hauptachse des 3D Volumens abhängt oder der anatomischen Achse des dargestellten Objekts, oder in Abhängigkeit von einem festgelegten Gravitationszentrum bestimmt wird oder in Abhängigkeit von der lokalen Krümmung der Faser. Wird nun eine Bewegung durch den Anwender beziehungsweise durch die Person detektiert, sei es durch Detektion einer Mausbewegung oder eines Drehrades, durch Detektion einer Position auf einem berührungsempfindlichen Bildschirm, durch Detektion einer Geste oder durch Detektion eines Steuerungsbefehls, so wird diese Bewegung in eine Bewegung entlang der ausgewählten Faser umgerechnet. Wie weit sich hierbei die Sichtposition von der ersten SichtpositionS1 zur zweiten SichtpositionS2 bewegt, kann hierbei von der detektierten Bewegung abhängen, beispielsweise von der Stärke oder der Länge der Interaktion. In dem SichtpunktS2 wird dann wiederum eine Projektionsebenen22' und eine Projektionsebene21' berechnet nach den gleichen Kriterien wie bei der Berechnung der Ebenen21 und22 . Die von der SichtpositionS2 sichtbare anatomische Information wird dann auf die beiden Ebenen21' und22' projiziert. Falls mehr als eine Richtungsinformation in einem Voxel vorhanden ist, kann in Abhängigkeit von der detektierten Bewegung die Bewegung in eine geführte Bewegung entlang der Faser umgewandelt werden, die der detektierten Bewegung am ehesten entspricht. Verzweigt sich beispielsweise eine Faser im benachbarten Voxel in eine nach links oder nach rechts verlaufende Faser beziehungsweise eine nach oben oder unten verlaufende Faser, so kann in Abhängigkeit von der detektierten Bewegung der ausgewählten Richtung gefolgt werden. - In
4 werden einige wesentliche Schritte des Verfahrens zusammengefasst. Das Verfahren startet im SchrittS40 und in einem SchrittS41 wird eine erste Sichtposition im Untersuchungsobjekt relativ zu einer ausgewählten Faser bestimmt. Anschließend wird eine erste anatomische Information bestimmt in einem SchrittS42 , die von der ersten Sichtposition sichtbar ist und in einem SchrittS43 wird diese anatomische Information schließlich auf die erste Projektionsfläche projiziert, wobei die Projektionsflächen wie in3 beschrieben bestimmt werden können. Selbstverständlich sind die Projektionsflächen nicht auf Projektionsebenen beschränkt. Es sind andere Projektionsflächen wie beispielsweise zylindrische Projektionsflächen um die Faser herum oder kugelförmige Projektionsflächen um die Sichtposition denkbar. In einem SchrittS44 wird überprüft, ob eine Bewegung detektiert wird, beispielsweise durch Betätigung eines Bedienelements. Wenn dies der Fall ist, wird die detektierte Bewegung in eine geführte Bewegung entlang einer der Fasern überführt in einem SchrittS45 . In einem SchrittS46 wird eine zweite Sichtposition relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung bestimmt, und in einem SchrittS47 wird die zweite anatomische Information, die von der zweiten Sichtposition sichtbar ist, bestimmt und auf die zweite Projektionsfläche projiziert. - In
5 ist ein weiteres Verfahren zur Bestimmung der kombinierten Visualisierung der anatomischen Information und der Richtungsinformation dargestellt. Das Verfahren startet im SchrittS51 und in einem SchrittS52 wird die Faser oder das Faserbündel ausgewählt, auf der die erste Sichtposition liegen soll. Anschließend wird in einem SchrittS52 die erste Sichtposition auf der Faser festgelegt. Hierbei kann die virtuelle Betrachterposition beziehungsweise Sichtposition derart festgelegt werden, dass die Lage relativ zur Faser und die Blickrichtung relativ zur Faser festgelegt wird. Die Sichtposition kann hierbei direkt auf der Faser liegen oder in einem bestimmten Abstand relativ zur Faser, wobei die Blickrichtung entlang der Faser gerichtet sein kann oder auf einen bestimmten Punkt relativ zur Faser (SchrittS53 ). Im SchrittS54 wird dann die Projektionsfläche für die erste Sichtposition bestimmt, beispielsweise die Lage einer EbeneE1 relativ zur Faser, beispielsweise eine Ebene die senkrecht zur Faser verläuft in dem jeweiligen Voxel. In einem SchrittS55 kann dann eine zweite Projektionsebene bestimmt werden, die beispielsweise senkrecht zur ersten Projektionsebene verläuft und in Abhängigkeit von weiteren Informationen wie der anatomischen Achse des Untersuchungsobjekts oder der Hauptachse des 3D Volumens etc. gewählt wird. Mit Kenntnis der Projektionsebenen21 und22 kann in SchrittS56 eine dritte Projektionsebene berechnet werden, wobei in diesem Fall drei Projektionsebenen verwendet werden zur Projektion der anatomischen Information. In einem SchrittS57 können schließlich die berechneten Ebenen dargestellt werden, wobei zusätzliche Attribute wie die Transparenz der einzelnen Ebenen bestimmt worden sind. In einem SchrittS58 wird überprüft, ob eine Bewegung der ersten Sichtposition weg von der ersten Sichtposition detektiert wird. Wenn dies der Fall ist, werden die Schritte der Bestimmung der Sichtposition bis zur Darstellung der bestimmten Projektionsebenen wiederholt bis keine Bewegung mehr stattfindet und das Verfahren in einem SchrittS59 endet. - Bei dem oben beschriebenen Verfahren ist es möglich, eine Rotation des 3D Volumens automatisch durchzuführen, beispielsweise in Abhängigkeit von der relativen Sichtposition und dem Winkel zu einem Zielpunkt, beispielsweise kann die Sichtrichtung entlang der Faser gewählt werden oder eine Sichtrichtung senkrecht zu einer der Ebenen.
- Bei dem in
5 dargestellten Beispiel wurden drei Schichtebenen berechnet. Selbstverständlich kann die Projektion auch auf zwei Ebenen oder mehr als drei Ebenen erfolgen. Weiterhin ist es möglich die Rotation der Schichten anzupassen mithilfe einer weiteren Eingabe durch eine Bedienperson. Ebenso müssen die einzelnen Projektionsebenen nicht senkrecht zueinander stehen, es sind auch andere relative Orientierungen zueinander oder zu der ausgewählten Faser möglich. Bei den dreidimensionalen Daten mit Richtungsinformation kann die Richtungsinformation auf Diffusionsrichtungen beruhen, es sind jedoch auch Blutflussrichtungen denkbar. Die Sichtrichtung und -position relativ zu einer ausgewählten Faser kann auch durch eine Eingabe geändert sein und muss nicht fest sein. -
6 zeigt schematisch eine Vorrichtung zur kombinierten Visualisierung, mit der die oben beschriebenen Verfahrensschritte durchgeführt werden können. Die Vorrichtung60 kann eine Eingabeeinheit61 aufweisen, mit der eine Bedienperson eine Anfangsposition auf einer Faser, sowie eventuell eine Lage relativ zur Faser und einen Blickwinkel relativ zur Faser auswählen kann. Die Eingabeeinheit61 ist weiter vorgesehen zur Bewegung des virtuellen Benutzers von der ersten Sichtposition zur zweiten Sichtposition. - Die Vorrichtung
60 kann weitere Schnittstellen aufweisen zur Kommunikation mit anderen Einrichtungen oder zum Laden der Datensätze10 und11 . - Die Vorrichtung
60 weist weiterhin eine Steuer- oder Recheneinheit62 auf, die für den Betrieb der Vorrichtung60 verantwortlich ist. Die Steuereinheit62 weist einen oder mehrere Prozessoren auf und kann Befehle ausführen, die auf einer Speichereinheit63 gespeichert sind. Die Speichereinheit kann weiterhin die Programmmittel oder Programmmodule speichern, die von der Prozessoreinheit ausgeführt werden können, um das oben beschriebene Verfahren beziehungsweise die oben beschriebenen Funktionalitäten auszuführen. Auf einer Anzeigeeinheit64 können dann die gewünschten Informationen wie der kombinierte Datensatz dargestellt werden. Selbstverständlich kann die Vorrichtung60 weitere funktionelle Einheiten aufweisen, die jedoch aus Übersichtlichkeitsgründen nicht dargestellt sind. - Es ist auch denkbar, die bestimmte visuelle Information nicht nur auf einem Bildschirm darzustellen, sondern auch in einer 3D Brille. Anstelle von einem Satz von Projektionsebenen ist es auch möglich sonstige flächige Funktionen wie beispielsweise eine Parabel zu wählen, wobei der Scheitelpunkt in der Sichtposition liegt.
- Das oben beschriebene Verfahren ermöglicht eine einfache Darstellung der anatomischen Information entlang der Fasern. Es kann auf eine mühsame händische Auswahl der einzelnen Ebenen an den einzelnen Sichtpositionen verzichtet werden und durch eine einfache Bewegung ist eine Bewegung entlang einer der Fasern möglich.
Claims (13)
- Verfahren zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt (12), wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang ihrer jeweiligen Richtungsinformation zu einer Vielzahl von Fasern (15 bis 18) zusammengefügt sind, wobei das Verfahren die folgenden automatisierten Schritte aufweist: - Bestimmen einer ersten Sichtposition (S1) im Untersuchungsobjekt relativ zu einer ausgewählten Faser aus der Vielzahl von Fasern, - Bestimmen einer ersten anatomischen Information aus dem ersten 3D Datensatz, die von der ersten Sichtposition (S1) sichtbar ist, - Projizieren der bestimmten ersten anatomischen Information auf eine erste Projektionsfläche in Abhängigkeit von der bestimmten ersten Sichtposition, - Detektieren einer Bewegung weg von der ersten Sichtposition (S1), - Bestimmen einer geführten Bewegung der ausgewählten Faser in Abhängigkeit von der detektierten Bewegung, wobei die geführten Bewegung auf eine Bewegung entlang von einer der Vielzahl von Fasern (15 bis 18) eingeschränkt ist, - Bestimmen einer zweiten Sichtposition (S2) im Untersuchungsobjekt relativ zu der ausgewählten Faser in Abhängigkeit von der geführten Bewegung, - Bestimmen einer zweiten anatomischen Information aus dem ersten 3D Datensatz (10), die von der zweiten Sichtposition sichtbar ist und Projizieren der zweiten anatomischen Information auf eine zweite Projektionsfläche.
- Verfahren nach
Anspruch 1 , wobei die Bewegung weg von der ersten Sichtposition (S1) auf einer Interaktion eines Anwenders mit einer Eingabeeinheit (61) beruht, wobei in Abhängigkeit von der Interaktion ein virtueller Betrachter von der ersten Sichtposition (S1) entlang der ausgewählten Faser zur zweiten Sichtposition (S2) bewegt wird. - Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Projektionsfläche in Abhängigkeit von der Sichtposition im Untersuchungsobjekt berechnet wird, wobei zumindest die erste Projektionsfläche für die erste Sichtposition und die zweite Projektionsfläche für die zweite Sichtposition berechnet wird.
- Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Bestimmen der ersten und zweiten Sichtposition ein Bestimmen einer Position relativ zu der ausgewählten Faser und das Bestimmen einer Sichtrichtung relativ zu der ausgewählten Faser beinhaltet.
- Verfahren nach einem der
Ansprüche 3 oder4 , wobei die erste und zweite Projektionsfläche jeweils zumindest eine Projektionsebene (21, 22) aufweist, auf welche die anatomische Information projiziert wird, wobei die zumindest eine Projektionsebene zumindest für die erste und für die zweite Sichtposition bestimmt wird. - Verfahren nach
Anspruch 5 , dadurch gekennzeichnet, dass die Projektionsfläche zumindest zwei Projektebenen aufweist, wobei eine erste der zumindest zwei Projektionsebenen (21, 22) derart bestimmt wird, dass diese senkrecht zu der ausgewählten Faser angeordnet ist, wobei eine zweite der zumindest zwei Projektionsebenen (21, 22) derart bestimmt wird, dass sie senkrecht auf die erste Projektionsebene verläuft. - Verfahren nach
Anspruch 6 , dadurch gekennzeichnet, dass eine Lage der zweiten Projektionsebene (21) relativ zur ersten Projektionsebene (22) weiterhin unter Berücksichtigung von zumindest einer der folgenden Informationen bestimmt wird: - einer Lage einer Hauptachse des zweiten dreidimensionalen Datensatzes, - einer Lage einer anatomischen Achse im zweiten dreidimensionalen Datensatz, - einer Krümmung der ausgewählten Faser. - Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für die erste und zweite Projektionsfläche weiterhin ein Transparenzwert bestimmt wird, der angibt, welche der anatomischen Informationen, die von der jeweiligen Sichtposition hinter der jeweiligen Projektionsfläche liegen, aus der ersten beziehungsweise zweiten Sichtposition sichtbar sind.
- Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für ein Voxel mehr als eine Richtungsinformation vorliegt und mehrere Fasern durch ein Voxel verlaufen.
- Verfahren nach
Anspruch 9 , dadurch gekennzeichnet, dass bei Detektion der Bewegung weg von der ersten Sichtposition die Faser in dem Voxel ausgewählt wird, die näher in der Richtung liegt, in der die Bewegung weg von der ersten Sichtposition erfolgt ist. - Vorrichtung (60) zur kombinierten Visualisierung von Information in einem Untersuchungsobjekt, wobei von dem Untersuchungsobjekt ein erster dreidimensionaler Datensatz (10), der im Wesentlichen anatomische Informationen des Untersuchungsobjekts zeigt, und ein zweiter dreidimensionaler Datensatz (11) vorliegt, dessen Voxel im Wesentlichen zumindest eine Richtungsinformation aufweisen, wobei einige Voxel entlang der zumindest einen Richtungsinformation zu einer Vielzahl von Fasern zusammengefügt sind, wobei die Vorrichtung (60) eine Steuereinheit (62) und eine Speichereinheit (63) aufweist, wobei die Speichereinheit von der Steuereinheit (62) ausführbare Steuerinformationen speichert, wobei die Vorrichtung ausgebildet ist, bei Ausführung der Steuerinformationen in der Steuereinheit ein Verfahren nach einem der
Ansprüche 1 bis10 durchzuführen. - Computerprogrammprodukt, welches Programmmittel umfasst und direkt in eine Speichereinheit einer programmierbaren Steuereinheit einer Vorrichtung zur kombinierten Visualisierung von Information ladbar ist, um alle Schritte des Verfahrens nach einem der
Ansprüche 1 bis9 auszuführen, wenn die Programmmittel in der Steuereinrichtung ausgeführt werden. - Elektronisch lesbarer Datenträger mit darauf gespeicherten elektronisch lesbaren Steuerinformationen, welche derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in einer Steuereinheit einer Vorrichtung zur kombinierten Visualisierung von Information das Verfahren nach einem der
Ansprüche 1 bis9 durchführen.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017209542.3A DE102017209542B4 (de) | 2017-06-07 | 2017-06-07 | Visualisierung von Fasern |
US16/002,028 US10489963B2 (en) | 2017-06-07 | 2018-06-07 | Method and computer for visualization of fibers in medical images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017209542.3A DE102017209542B4 (de) | 2017-06-07 | 2017-06-07 | Visualisierung von Fasern |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017209542A1 DE102017209542A1 (de) | 2018-12-13 |
DE102017209542B4 true DE102017209542B4 (de) | 2020-09-10 |
Family
ID=64332602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017209542.3A Active DE102017209542B4 (de) | 2017-06-07 | 2017-06-07 | Visualisierung von Fasern |
Country Status (2)
Country | Link |
---|---|
US (1) | US10489963B2 (de) |
DE (1) | DE102017209542B4 (de) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019165380A1 (en) * | 2018-02-26 | 2019-08-29 | VRcaffeine LLC | Rendering volumes using angle gradations in multiple dimensions |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003098252A1 (en) * | 2002-05-15 | 2003-11-27 | Koninklijke Philips Electronics N.V. | Diffusion tensor magnetic resonance imaging including fiber rendering using hyperstreamlines |
US20060241897A1 (en) * | 2003-04-24 | 2006-10-26 | Hoogenraad Frank G C | Fibre tracking magnetic resonance imaging |
DE102013213010B3 (de) * | 2013-07-03 | 2014-10-16 | Fachhochschule Stralsund | Bildgebungsverfahren für kernspintomographische Diffusionsdaten, Computerprogrammprodukt und Bildgebungsvorrichtung |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7889899B2 (en) | 2006-05-05 | 2011-02-15 | Siemens Medical Solutions Usa, Inc. | Directional statistics visualization tool |
US8170305B2 (en) * | 2006-10-19 | 2012-05-01 | Brown University | Quantitative tract-of-interest metrics for white matter integrity based on diffusion tensor MRI data |
US7602180B2 (en) | 2006-11-02 | 2009-10-13 | Siemens Aktiengesellschaft | System and method for fast texture-based tensor field visualization for DT-MRI |
JP5072343B2 (ja) * | 2006-12-19 | 2012-11-14 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 磁気共鳴イメージング装置,磁気共鳴イメージング方法,拡散テンソルカラーマップ画像生成装置,拡散テンソルカラーマップ画像生成方法 |
WO2014121058A1 (en) * | 2013-01-31 | 2014-08-07 | The General Hospital Corporation | Systems and methods for objective tractographic processing using features of grid structures of the brain |
US9483878B2 (en) * | 2013-11-27 | 2016-11-01 | Disney Enterprises, Inc. | Contextual editing using variable offset surfaces |
-
2017
- 2017-06-07 DE DE102017209542.3A patent/DE102017209542B4/de active Active
-
2018
- 2018-06-07 US US16/002,028 patent/US10489963B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003098252A1 (en) * | 2002-05-15 | 2003-11-27 | Koninklijke Philips Electronics N.V. | Diffusion tensor magnetic resonance imaging including fiber rendering using hyperstreamlines |
US20060241897A1 (en) * | 2003-04-24 | 2006-10-26 | Hoogenraad Frank G C | Fibre tracking magnetic resonance imaging |
DE102013213010B3 (de) * | 2013-07-03 | 2014-10-16 | Fachhochschule Stralsund | Bildgebungsverfahren für kernspintomographische Diffusionsdaten, Computerprogrammprodukt und Bildgebungsvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
US20180357815A1 (en) | 2018-12-13 |
DE102017209542A1 (de) | 2018-12-13 |
US10489963B2 (en) | 2019-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1251462B1 (de) | Verfahren zum Segmentieren einer in einem Objekt enthaltenen dreidimensionalen Struktur, insbesondere für die medizinische Bildanalyse | |
DE10357203B4 (de) | Verfahren und Steuereinrichtung zum Betrieb eines Magnetresonanztomographie-Geräts sowie Magnetresonanztomographie-Gerät | |
DE10357206B4 (de) | Verfahren und Bildbearbeitungssystem zur Segmentierung von Schnittbilddaten | |
DE102004043694B4 (de) | Verfahren zur Segmentierung anatomischer Strukturen aus 3D-Bilddaten unter Nutzung topologischer Information | |
DE102008028023A1 (de) | Verfahren zur Darstellung mehrerer Bilddatensätze und Benutzerinterface zur Darstellung mehrerer Bilddatensätze | |
DE102009014764B4 (de) | Verfahren zur Visualisierung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen | |
DE10357205A1 (de) | Verfahren zur Erzeugung von Ergebnis-Bildern eines Untersuchungsobjekts | |
DE10120649A1 (de) | Verfahren und Vorrichtung zum Anzeigen dreidimensionaler Daten als Kombination dreier Schnittbilder, Speichermedium auf welchem ein computerlesbares Programm zum Ausführen des Verfahrens gespeichert ist sowie computerlesbares Programm zum Ausführen des Verfahrens | |
DE102017214447B4 (de) | Planare Visualisierung von anatomischen Strukturen | |
DE102009043868A1 (de) | Halbautomatische Registrierung von Daten auf der Basis eines hyrarchischen Netzes | |
DE102005035929A1 (de) | Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens | |
DE10338145B4 (de) | Verfahren zur Darstellung von 3D Bilddaten | |
DE102008028945A1 (de) | Verfahren und Visualisierungsmodul zur Visualisierung von Unebenheiten der Innen-Oberfläche eines Hohlorgans, Bildbearbeitungseinrichtung und Tomographiesystem | |
DE102006014902A1 (de) | Bildverarbeitungseinrichtung zur erweiterten Darstellung von dreidimensionalen Bilddatensätzen | |
DE102017209542B4 (de) | Visualisierung von Fasern | |
DE102008025535B4 (de) | Verfahren zur Sichtung tubulärer anatomischer Strukturen, insbesondere Gefäßstrukturen, in medizinischen 3D-Bildaufnahmen | |
DE102009006765B4 (de) | Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit | |
DE102019212929A1 (de) | Registrieren eines 2D Bildes mit einem 3D Bild | |
DE102007020060B4 (de) | Verteilte Berechnung von Bildern volumetrischer Objekte mittels Ray Casting | |
DE102008021926A1 (de) | Erstellung und Präsentation von patientenindividuellen Panoramadarstellungen | |
DE10160206A1 (de) | Verfahren und Vorrichtung zur Erstellung einer isolierten Darstellung von Körperstrukturen | |
DE102017203048B3 (de) | Verfahren zum Bestimmen eines Projektionsdatensatzes, Projektionsbestimmungssystem, Computerprogrammprodukt und computerlesbares Speichermedium | |
DE102011079380A1 (de) | Verfahren, Computerprogramm und System zur computergestützten Auswertung von Bilddatensätzen | |
DE102012217089A1 (de) | Schichtdarstellung von Volumendaten | |
DE102019217576B4 (de) | Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHINEERS AG, DE Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE |