DE102014223658A1 - Method for determining a result image, computer program, machine-readable data carrier and imaging device - Google Patents

Method for determining a result image, computer program, machine-readable data carrier and imaging device Download PDF

Info

Publication number
DE102014223658A1
DE102014223658A1 DE102014223658.4A DE102014223658A DE102014223658A1 DE 102014223658 A1 DE102014223658 A1 DE 102014223658A1 DE 102014223658 A DE102014223658 A DE 102014223658A DE 102014223658 A1 DE102014223658 A1 DE 102014223658A1
Authority
DE
Germany
Prior art keywords
dependent
images
color
information
result image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014223658.4A
Other languages
German (de)
Inventor
Hendrik Ditt
Ernst Klotz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102014223658.4A priority Critical patent/DE102014223658A1/en
Priority to US14/938,905 priority patent/US9984477B2/en
Priority to CN201510797429.2A priority patent/CN105615906B/en
Publication of DE102014223658A1 publication Critical patent/DE102014223658A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/507Clinical applications involving determination of haemodynamic parameters, e.g. perfusion CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/412Dynamic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)

Abstract

Die Erfindung beruht auf der Aufnahme mehrerer Bilder eines Untersuchungsbereiches zu unterschiedlichen Zeitpunkten. Weiterhin werden anatomische Informationen sowie Flussinformationen aus den Bildern abgeleitet. Insbesondere können die anatomischen Informationen den Verlauf von Gefäßen oder die Struktur durchflossenen Gewebes betreffen. Die Erfinder haben nun erkannt, dass die zeitliche Komponente der Flussinformation vorteilhaft mit der anatomischen Information in einem Ergebnisbild kombiniert werden kann, wobei eine intensitätsabhängige Fensterung Bildelementen des Ergebnisbildes einen Grauwert entsprechend der anatomischen Informationen zuweist, wobei eine zeitabhängige Fensterung den Bildelementen des Ergebnisbildes einen Farbwert entsprechend der Flussinformationen zuweist, und wobei die Grauwerte und die Farbwerte unabhängig voneinander zugewiesen werden. Der Vorteil der Erfindung liegt darin begründet, dass eine intensitätsabhängige Fensterung mit einer zeitabhängigen Fensterung kombiniert wird, so dass Farbwerte und Grauwerte unabhängig voneinander sind. Damit können die anatomischen Informationen sowie die Flussinformationen unverfälscht in dem Ergebnisbild dargestellt werden.The invention is based on the recording of multiple images of an examination area at different times. Furthermore, anatomical information as well as flow information are derived from the images. In particular, the anatomical information may relate to the course of vessels or tissue through which the structure flows. The inventors have now recognized that the temporal component of the flow information can advantageously be combined with the anatomical information in a result image, wherein an intensity-dependent fenestration assigns a grayscale value corresponding to the anatomical information to image elements of the resulting image, wherein a time-dependent fenestration corresponding to the pixels of the resulting image a color value assigns the flow information and assigns the gray levels and color values independently. The advantage of the invention lies in the fact that an intensity-dependent windowing is combined with a time-dependent windowing so that color values and gray values are independent of one another. Thus, the anatomical information as well as the flow information can be displayed in the result image without distortion.

Description

Bildgebende Geräte wie ein Röntgengerät oder ein tomographisches Gerät ermöglichen es Bildern eines Untersuchungsbereiches zu unterschiedlichen Zeitpunkten aufzunehmen. Durch den Vergleich der Bilder ist es möglich Informationen mit einer zeitlichen Komponente aus diesen Bildern abzuleiten. Die Bilder stellen meist ein Volumen dar und können mehrere vorgebbare Schichten des Untersuchungsbereiches umfassen. Wird der Untersuchungsbereich von einem Stoff durchflossen, können auch Flussinformationen aus den Bildern abgeleitet werden. So ermöglichen moderne, bildgebende Geräte Störungen des Blutflusses in Organen, beispielsweise dem Herzen oder dem Gehirn, zu identifizieren. Zu den wichtigsten Methoden zur bildgebenden Messung des Blutflusses gehören die Angiographie sowie das tomographische Perfusions-Scanning. Imaging devices such as an X-ray machine or a tomographic device allow to record images of an examination area at different times. By comparing the images, it is possible to derive information with a temporal component from these images. The images usually represent a volume and can comprise a plurality of predeterminable layers of the examination region. If the examination area is traversed by a substance, flow information can also be derived from the images. Thus, modern imaging devices allow for the identification of blood flow disturbances in organs such as the heart or brain. The most important methods for the imaging measurement of blood flow include angiography and tomographic perfusion scanning.

Zur Auswertung der Bilder müssen also sowohl anatomische Informationen als auch Flussinformationen ausgewertet werden. Die anatomischen Informationen betreffen die anatomische Struktur des Untersuchungsbereiches und weisen damit eine räumliche Komponente auf. Die Flussinformationen betreffen die Dynamik eines in dem Untersuchungsbereich fließenden Stoffes und weisen damit sowohl eine räumliche als auch eine zeitliche Komponente auf. Die Darstellung von räumlichen und zeitlichen Informationen einer bildgebenden Messung erfolgt typischer Weise, indem für je einen Zeitpunkt ein Bildstapel mit mehreren Schichten erstellt wird. Dann können die räumlichen und zeitlichen Informationen dargestellt werden, indem einzelne Schichten oder Projektionen der Bildstapel als zeitlich sequentielle Folge ausgegeben werden. Damit kann die zeitliche Entwicklung eines in dem Untersuchungsbereich fließenden Stoffes beurteilt werden. Dies ist aber zeitaufwändig und vor allem schlecht zur Dokumentation geeignet. To evaluate the images, therefore, both anatomical information and flow information must be evaluated. The anatomical information relates to the anatomical structure of the examination area and thus have a spatial component. The flow information relates to the dynamics of a substance flowing in the examination area and thus has both a spatial and a temporal component. The representation of spatial and temporal information of an imaging measurement is typically done by creating a multi-layered image stack for each time point. Then, the spatial and temporal information can be displayed by outputting individual layers or projections of the image stacks as a temporally sequential sequence. Thus, the temporal evolution of a flowing in the study area substance can be assessed. However, this is time consuming and, above all, poorly suited for documentation.

Um die Verarbeitung von räumlichen und zeitlichen Informationen zu vereinfachen wird in der Patentschrift US6650928 B1 vorgeschlagen, tomographische Bilder in farbkodierte Karten umzuwandeln. Beispielsweise werden zwei Bilder von Gehirnstrukturen überlagert. Dabei wird ein anatomisches Bild mit einem farbigen, parametrischen Bild überlagert. Die Transparenz des überlagerten Bildes kann so angepasst werden, dass die anatomische Struktur mehr oder weniger sichtbar ist. Nachteilig an dieser Technik ist, dass eine gute Sichtbarkeit der anatomischen Information die Sichtbarkeit der parametrischen Information stört. To simplify the processing of spatial and temporal information is described in the patent US6650928 B1 proposed to convert tomographic images into color-coded maps. For example, two images of brain structures are superimposed. An anatomical image is overlaid with a colored, parametric image. The transparency of the superimposed image can be adjusted so that the anatomical structure is more or less visible. A disadvantage of this technique is that good visibility of the anatomical information interferes with the visibility of the parametric information.

Vor diesem Hintergrund ist es Aufgabe der Erfindung anzugeben, wie eine Flussinformation mit einer zeitlichen Komponente vorteilhaft mit einer anatomischen Information kombiniert werden kann. Against this background, it is an object of the invention to specify how a flow information with a temporal component can advantageously be combined with anatomical information.

Diese Aufgabe wird gelöst durch ein Verfahren nach Anspruch 1, durch ein Computerprogramm nach Anspruch 10, durch einen maschinenlesbaren Datenträger nach Anspruch 11 sowie durch ein bildgebendes Gerät nach Anspruch 12. This object is achieved by a method according to claim 1, by a computer program according to claim 10, by a machine-readable data carrier according to claim 11 and by an imaging device according to claim 12.

Nachstehend wird die erfindungsgemäße Lösung der Aufgabe in Bezug auf das beanspruchte Gerät als auch in Bezug auf das beanspruchte Verfahren beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auch auf die anderen beanspruchten Gegenstände zu übertragen und umgekehrt. Mit anderen Worten können die gegenständlichen Ansprüche (die beispielsweise auf ein Gerät gerichtet sind) auch mit den Merkmalen, die in Zusammenhang mit einem Verfahren beschrieben oder beansprucht sind, weitergebildet sein. Die entsprechenden funktionalen Merkmale des Verfahrens werden dabei durch entsprechende gegenständliche Module ausgebildet. In the following, the solution according to the invention of the object will be described with reference to the claimed device as well as with reference to the claimed method. Features, advantages or alternative embodiments mentioned herein are also to be applied to the other claimed subject matter and vice versa. In other words, the subject claims (which are directed, for example, to a device) may also be developed with the features described or claimed in connection with a method. The corresponding functional features of the method are formed by corresponding physical modules.

Die Erfindung beruht auf der Aufnahme mehrerer Bilder eines Untersuchungsbereiches zu unterschiedlichen Zeitpunkten. Weiterhin werden anatomische Informationen sowie Flussinformationen aus den Bildern abgeleitet. Insbesondere können die anatomischen Informationen den Verlauf von Gefäßen oder die Struktur durchflossenen Gewebes betreffen. Die Erfinder haben nun erkannt, dass die zeitliche Komponente der Flussinformation vorteilhaft mit der anatomischen Information in einem Ergebnisbild kombiniert werden kann, wobei eine intensitätsabhängige Fensterung Bildelementen des Ergebnisbildes einen Grauwert entsprechend der anatomischen Informationen zuweist, wobei eine zeitabhängige Fensterung den Bildelementen des Ergebnisbildes einen Farbwert entsprechend der Flussinformationen zuweist, und wobei die Grauwerte und die Farbwerte unabhängig voneinander zugewiesen werden. The invention is based on the recording of multiple images of an examination area at different times. Furthermore, anatomical information as well as flow information are derived from the images. In particular, the anatomical information may relate to the course of vessels or tissue through which the structure flows. The inventors have now recognized that the temporal component of the flow information can advantageously be combined with the anatomical information in a result image, wherein an intensity-dependent fenestration assigns a grayscale value corresponding to the anatomical information to image elements of the resulting image, wherein a time-dependent fenestration corresponding to the pixels of the resulting image a color value assigns the flow information and assigns the gray levels and color values independently.

Der Vorteil der Erfindung liegt darin begründet, dass eine intensitätsabhängige Fensterung mit einer zeitabhängigen Fensterung kombiniert wird, so dass Farbwerte und Grauwerte unabhängig voneinander sind. Denn dadurch beeinflusst die intensitätsabhängige Fensterung nicht die zeitabhängige Fensterung. Damit können die anatomischen Informationen sowie die Flussinformationen unverfälscht in dem Ergebnisbild dargestellt werden. Bei der Aufnahme der Bilder handelt es sich um eine physikalische Messung und bei den daraus abgeleiteten anatomischen Informationen sowie den Flussinformationen handelt es sich um einer physischen Struktur entsprechende Messergebnisse. Die Erfindung hat also den technischen Effekt, dass einer physikalischen Messung entsprechende Messergebnisse ohne die Gefahr einer Verfälschung in einem Ergebnisbild miteinander kombiniert werden können. Das Erfindungsgemäße Ergebnisbild weist also einen besonders hohen Informationsgehalt auf. The advantage of the invention lies in the fact that an intensity-dependent windowing is combined with a time-dependent windowing so that color values and gray values are independent of one another. Because this does not affect the intensity-dependent windowing time-dependent fenestration. Thus, the anatomical information as well as the flow information can be displayed in the result image without distortion. Imaging the images is a physical measurement, and the anatomical information and flow information derived from it are physical Structure corresponding measurement results. Thus, the invention has the technical effect that corresponding measurement results corresponding to a physical measurement can be combined with one another without the risk of falsification in a result image. The result image according to the invention therefore has a particularly high information content.

Die anatomischen Informationen können dabei als aus wenigstens einem der Bilder abgeleitete räumliche Intensitätsverteilung ausgebildet sein. Weiterhin können die Flussinformationen als aus den Bildern abgeleitete Verteilung von Flusswerten ausgebildet sein. Bei den Flusswerten handelt es sich beispielweise um einen Parameter, welcher einen physikalischen Prozess, insbesondere eine Bewegung, charakterisiert. The anatomical information can be designed as a spatial intensity distribution derived from at least one of the images. Furthermore, the flow information can be designed as a distribution of flow values derived from the images. The flow values are, for example, a parameter which characterizes a physical process, in particular a movement.

Die Flussinformationen werden typischer Weise basierend auf einer Veränderung der Verteilung von Intensitätswerten der zu unterschiedlichen Zeitpunkten aufgenommenen Bilder abgeleitet. Dabei können die Flussinformationen so bestimmt werden, dass für jedes Bildelement des Ergebnisbildes ein eigener Wert, insbesondere ein Flusswert, bestimmt wird. The flow information is typically derived based on a change in the distribution of intensity values of the images taken at different times. In this case, the flow information can be determined such that a separate value, in particular a flow value, is determined for each picture element of the result image.

Handelt es sich bei dem Untersuchungsbereich um einen Körperteil oder ein Organ eines Patienten, dann können die Flussinformationen patientenspezifisch abgeleitet werden. Dann weist das Ergebnisbild einen besonders hohen diagnostischen Wert auf. If the examination area is a body part or an organ of a patient, then the flow information can be derived for a specific patient. Then the result image has a particularly high diagnostic value.

Die unabhängige Zuweisung von Grauwerten und Farbwerten kann insbesondere die unabhängige Zuweisung von Grauwerten und Farbtönen umfassen, da der Farbton besonders gut geeignet ist als eine von dem Grauwert unabhängige Information wahrgenommen zu werden. Weiterhin kann die unabhängige Zuweisung derart erfolgen, dass der Farbwert, insbesondere der Farbton, orthogonal zu dem Grauwert ist. In diesem Fall basiert die zeitabhängige Fensterung auf einem Farbraum, in dem der Farbwert, insbesondere der Farbton, und der Grauwert orthogonal zueinander sind. The independent assignment of gray values and color values may in particular comprise the independent assignment of gray values and color tones, since the color tone is particularly well suited to being perceived as information independent of the gray value. Furthermore, the independent assignment can be made such that the color value, in particular the hue, is orthogonal to the gray value. In this case, the time-dependent windowing is based on a color space in which the color value, in particular the color tone, and the gray value are orthogonal to one another.

Gemäß einem weiteren Aspekt der Erfindung wird die Aufnahme wenigstens eines Teils der Bilder durch Kontrastmittel unterstützt. Damit umfassen die Flussinformationen auch Informationen über die Anflutung von Kontrastmittel, insbesondere in einem Blutgefäß. Dann können die Bilder in Form von Angiographie-Bildern oder tomographischen Perfusionsbildern aufgenommen werden, so dass besonders einfach Flussinformationen betreffend den Blutfluss in dem Untersuchungsbereich abgeleitet werden können. According to a further aspect of the invention, the recording of at least a part of the images is supported by contrast media. Thus, the flow information also includes information about the flooding of contrast media, especially in a blood vessel. The images can then be recorded in the form of angiographic images or tomographic perfusion images, so that it is particularly easy to derive flow information relating to the blood flow in the examination region.

Gemäß einem weiteren Aspekt der Erfindung werden die anatomischen Informationen abgeleitet, indem eine erste Projektion über eine Mehrzahl der zu unterschiedlichen Zeitpunkten aufgenommenen Bilder hinweg erfolgt. Die erste Projektion erfolgt also wenigstens entlang der Zeitachse. So werden bei der ersten Ableitung der anatomischen Information besonders viele Messpunkte berücksichtigt. Somit ist der Informationsgehalt des Ergebnisbildes besonders hoch. Weiterhin wird dadurch die Zuverlässigkeit bei einer weitergehenden Analyse auf Basis des Ergebnisbildes erhöht. According to another aspect of the invention, the anatomical information is derived by performing a first projection over a plurality of the images taken at different times. The first projection thus takes place at least along the time axis. Thus, the first derivation of the anatomical information takes into account a particularly large number of measuring points. Thus, the information content of the result image is particularly high. Furthermore, the reliability is increased in a further analysis based on the result image.

Gemäß einem weiteren Aspekt der Erfindung werden die Flussinformationen basierend auf einem physikalischen Modell abgeleitet. Beispielsweise kann das physikalische Modell die Ausbreitung von Blut in einem Blutgefäß oder die Ausbreitung von Blut in einem Gewebe beschreiben. Insbesondere kann das Gewebe stark kapillarisiert sein. Weiterhin kann das physikalische Modell auch die Ausbreitung eines Stoffes durch Diffusion beschreiben. Dieser Aspekt der Erfindung erlaubt es die Flussinformationen besonders genau zu bestimmen. According to another aspect of the invention, the flow information is derived based on a physical model. For example, the physical model may describe the spread of blood in a blood vessel or the spread of blood in a tissue. In particular, the tissue can be strongly capillarized. Furthermore, the physical model can also describe the diffusion of a substance by diffusion. This aspect of the invention allows the flow information to be determined with particular accuracy.

Zusätzlich zu dem Farbwert weist eine Farbe die Eigenschaften einer Helligkeit sowie einer Farbsättigung auf. Eine Farbe kann dabei in verschiedenen Farbräumen wie beispielsweise dem Rot-Grün-Blau (kurz: RGB) Farbraum, dem l·a·b Farbraum, der CIE Normtafel oder dem HSV Farbraum (Akronym für die englischsprachigen Begriffe Hue, Saturation, Value) dargestellt werden. Die Achsen, welche einen Farbraum aufspannen, können allgemein auch als Kanäle eines Farbraums bezeichnet werden. Bei der zeitlichen Fensterung kann insbesondere ein Farbton direkt einer Flussinformation entsprechen. Um sicher zu stellen, dass der Informationsgehalt des Ergebnisbildes besonders hoch ist und sowohl die anatomischen Informationen als auch die Flussinformationen unverfälscht wiedergegeben werden, ist es weiterhin möglich Anforderungen an die Helligkeit oder die Farbsättigung zu stellen. In addition to the color value, a color has the properties of a brightness as well as a color saturation. A color can be displayed in different color spaces such as the red-green-blue (RGB) color space, the l.a.b color space, the CIE standard table or the HSV color space (acronym for the English terms Hue, Saturation, Value) become. The axes that span a color space may also be generally referred to as channels of a color space. In the temporal fenestration, in particular, a hue may directly correspond to a flow information. In order to ensure that the information content of the result image is particularly high and both the anatomical information and the flow information are reproduced without distortion, it is still possible to make demands on the brightness or color saturation.

Gemäß einem weiteren Aspekt der Erfindung erfolgt die zeitabhängige Fensterung derart, dass eine maximale Helligkeit der Farbwerte für die Bildelemente gleich ist. Da die Helligkeit einem Grauwert entspricht, ist damit auch der maximale Grauwert für die Bildelemente gleich. Damit ist ausgeschlossen, dass Bildelemente, denen unterschiedliche Farbwerte und gleiche Grauwerte zugewiesen werden, effektiv doch unterschiedliche Helligkeiten bzw. Grauwerte aufweisen. Insbesondere kann damit die intensitätsabhängige Fensterung effektiv linear erfolgen, also auch unter Berücksichtigung der zeitabhängigen Fensterung. According to a further aspect of the invention, the time-dependent windowing takes place such that a maximum brightness of the color values for the picture elements is the same. Since the brightness corresponds to a gray value, the maximum gray value for the picture elements is the same. This effectively eliminates the fact that pixels assigned different color values and gray values are effective have different brightnesses or gray values. In particular, the intensity-dependent fenestration can thus effectively be linear, that is also taking into account the time-dependent fenestration.

Gemäß einem weiteren Aspekt der Erfindung erfolgt die zeitabhängige Fensterung derart, dass eine maximale Farbsättigung für die Bildelemente gleich ist. Beispielsweise lässt sich die Farbsättigung in der CIE Normtafel als relativer Abstand vom Neutralpunkt bestimmen. Im HSV Farbraum wird die Farbsättigung als eine der drei aufspannenden Achsen betrachtet. Ist nun die maximale Farbsättigung für die Bildelemente gleich, dann verändert die Zuweisung der Grauwerte die entsprechenden Farbwerte in ähnlicher und regelmäßiger Art und Weise. According to a further aspect of the invention, the time-dependent windowing takes place such that a maximum color saturation for the picture elements is the same. For example, the color saturation in the CIE norm table can be determined as a relative distance from the neutral point. In HSV color space, color saturation is considered one of the three spanning axes. If the maximum color saturation for the picture elements is the same, then the assignment of the gray values changes the corresponding color values in a similar and regular manner.

Gemäß einem weiteren Aspekt der Erfindung ist die Grauwertskala für die intensitätsabhängige Fensterung und/oder die Farbskala für die zeitabhängige Fensterung vorgebbar. Dadurch wird die Erfindung besonders flexibel gestaltet. Beispielsweise kann die maximale Helligkeit der Farbwerte oder die maximale Farbsättigung vorgegeben werden. Insbesondere können die Grauwertskala und/oder die Farbskala von einem Benutzer auswählbar sein, beispielsweise durch eine graphische Benutzeroberfläche. According to a further aspect of the invention, the gray value scale for the intensity-dependent fenestration and / or the color scale for the time-dependent fenestration can be predetermined. As a result, the invention is made particularly flexible. For example, the maximum brightness of the color values or the maximum color saturation can be specified. In particular, the gray level scale and / or the color scale may be selectable by a user, for example by a graphical user interface.

Gemäß einem weiteren Aspekt der Erfindung erfolgt die graphische Ausgabe des Ergebnisbildes auf einer Anzeigeeinheit, wobei ein Ausschnitt des Ergebnisbildes auswählbar ist, wobei die Grauwertskala und/oder die Farbskala von dem ausgewählten Ausschnitt abhängig sind. Beispielsweise kann die Grauwertskala den für den Ausschnitt abgeleiteten anatomischen Informationen oder die Farbskala den für den Ausschnitt abgeleiteten Flussinformationen angepasst werden. Dadurch wird der Kontrast des Ausschnittes erhöht und eine weitergehende Analyse dieses Ausschnittes wird erleichtert. According to a further aspect of the invention, the graphical output of the result image is performed on a display unit, wherein a section of the result image is selectable, wherein the gray scale and / or the color scale of the selected section are dependent. For example, the gray value scale can be adapted to the anatomical information derived for the section or the color scale to the flow information derived for the section. This increases the contrast of the section and facilitates further analysis of this section.

Bei den Bildern kann es sich grundsätzlich sowohl um zweidimensionale Projektionen als auch um aus tomographischen Aufnahmen berechneten Bildstapel mit mehreren Schichten handeln. Ein solcher zu einem Zeitpunkt aufgenommener Bildstapel kann auch als räumlich dreidimensionales Bild bezeichnet werden. Die Schnittebenen zur Berechnung der einzelnen Schichten des Bildstapels sind grundsätzlich beliebig wählbar. Nun können die aufgenommenen Bilder und das Ergebnisbild die gleiche räumliche Dimensionierung aufweisen. Die aufgenommenen Bilder und das Ergebnisbild können aber auch eine unterschiedliche räumliche Dimensionierung aufweisen. Bei einem besonders wichtigen Aspekt der Erfindung handelt es sich bei den Bildern jeweils um räumlich dreidimensionale Bilder, wobei die anatomischen Informationen sowie die Flussinformationen jeweils räumlich dreidimensional ausgebildet sind, und wobei es sich bei dem Ergebnisbild um ein räumlich zweidimensionales Bild handelt. Gemäß diesem Aspekt der Erfindung erfolgt die intensitätsabhängige Fensterung derart, dass den Bildelementen die Grauwerte entsprechend den entlang einer Raumrichtung projizierten anatomischen Informationen zugewiesen werden, wobei die zeitabhängige Fensterung derart erfolgt, dass den Bildelementen die Farbwerte entsprechend den entlang der Raumrichtung projizierten Blutflussinformationen zugewiesen werden. Die Raumrichtung kann frei wählbar sein, sie kann aber auch durch eine Vorzugsachse des Untersuchungsbereiches vorgegeben sein. Insbesondere kann es sich bei der Raumrichtung um eine Körperachse des Patienten handeln, beispielsweise senkrecht zur Sagittalebene, senkrecht zur Frontalebene oder senkrecht zur Transversalebene. Dadurch werden besonders viele räumliche und zeitliche Informationen in dem Ergebnisbild kombiniert. In principle, the images can be both two-dimensional projections and tomographic images with several layers. Such a picture stack recorded at one time can also be referred to as a spatially three-dimensional picture. The cutting planes for calculating the individual layers of the image stack can basically be selected as desired. Now the recorded images and the result image can have the same spatial dimensioning. However, the recorded images and the result image can also have a different spatial dimensioning. In a particularly important aspect of the invention, the images are each spatially three-dimensional images, wherein the anatomical information and the flow information are spatially three-dimensional in each case, and wherein the result image is a spatially two-dimensional image. According to this aspect of the invention, the intensity-dependent fenestration is performed by assigning the grayscale values corresponding to the anatomical information projected along a spatial direction to the pixels, wherein the time-dependent fenestration is performed by assigning the color values to the pixels in accordance with the blood flow information projected along the spatial direction. The spatial direction can be freely selectable, but it can also be predetermined by a preferred axis of the examination region. In particular, the spatial direction may be a body axis of the patient, for example perpendicular to the sagittal plane, perpendicular to the frontal plane or perpendicular to the transverse plane. As a result, a particularly large amount of spatial and temporal information is combined in the result image.

Weiterhin betrifft die Erfindung ein Computerprogramm mit Programmcode zur Durchführung aller Verfahrensschritte nach einem der zuvor genannten Aspekte der Erfindung, wenn das Computerprogramm in dem Computer ausgeführt wird. Dadurch ist das Verfahren reproduzierbar und wenig fehleranfällig auf unterschiedlichen Computern durchführbar. Furthermore, the invention relates to a computer program with program code for performing all method steps according to one of the aforementioned aspects of the invention, when the computer program is executed in the computer. As a result, the method is reproducible and less susceptible to error on different computers feasible.

Weiterhin betrifft die Erfindung einen maschinenlesbarer Datenträger, auf dem das zuvor beschriebene Computerprogramm gespeichert ist. Furthermore, the invention relates to a machine-readable data carrier on which the computer program described above is stored.

Weiterhin betrifft die Erfindung ein bildgebendes Gerät mit einem Computer zur Steuerung des bildgebenden Geräts, wobei der Computer durch das Senden von Befehlen an das bildgebende Gerät bewirkt, dass das bildgebende Gerät ein Verfahren nach einem der zuvor genannten Aspekte der Erfindung ausführt. Furthermore, the invention relates to an imaging device having a computer for controlling the imaging device, wherein the computer, by sending commands to the imaging device, causes the imaging device to perform a method according to one of the aforementioned aspects of the invention.

Weiterhin kann der Computer derart zur Steuerung des bildgebenden Gerätes ausgebildet sein, dass der Computer durch das Senden von Befehlen an das bildgebende Gerät bewirkt, dass das tomographische Gerät ein erfindungsgemäßes Verfahren durchführt. Furthermore, the computer may be designed to control the imaging device such that the computer, by sending commands to the imaging device, causes the tomographic device to perform a method according to the invention.

Bei einem bildgebenden Gerät kann es sich um einen Magnetresonanztomographie-Gerät handeln. In diesem Fall umfasst die Strahlung ein hochfrequentes Wechselfeld im Radiofrequenzbereich. Bei der Strahlungsquelle handelt es sich in diesem Fall um wenigstens eine Spule zur Erzeugung des hochfrequenten Wechselfeldes. Bei dem Strahlungsdetektor handelt es sich bei der Magnetresonanztomographie um wenigstens eine Spule zur Detektion hochfrequenter Strahlung. An imaging device may be a magnetic resonance imaging device. In this case, the radiation comprises a high-frequency alternating field in the radio frequency range. In the Radiation source is in this case at least one coil for generating the high-frequency alternating field. In the case of the radiation detector, the magnetic resonance tomography is at least one coil for the detection of high-frequency radiation.

Weiterhin kann es sich bei dem bildgebenden Gerät um ein Röntgengerät handeln, welches zur Aufnahme einer Vielzahl von Röntgenprojektionen aus unterschiedlichen Projektionswinkeln ausgelegt ist. Beispielsweise handelt es sich bei einem solchen Röntgengerät um einen Computertomographie-Gerät mit einem ringförmigen Drehrahmen oder um ein C-Bogen-Röntgengerät. Die Aufnahmen können während einer, insbesondere kontinuierlichen, Rotationsbewegung einer Aufnahmeeinheit mit einer Röntgenquelle und einem mit der Röntgenquelle zusammenwirkenden Röntgendetektor erzeugt werden. Bei der Röntgenquelle kann es sich insbesondere um eine Röntgenröhre mit Drehanode handeln. Bei dem Röntgendetektor für ein Computertomographie-Gerät handelt es sich beispielsweise um einen Zeilendetektor mit mehreren Zeilen. Bei einem Röntgendetektor für ein C-Bogen-Röntgengerät handelt es sich beispielsweise um einen Flachdetektor. Der Röntgendetektor kann sowohl energieauflösend als auch zählend ausgebildet sein. Furthermore, the imaging device may be an X-ray device which is designed to receive a plurality of X-ray projections from different projection angles. By way of example, such an X-ray machine is a computer tomography device with an annular rotating frame or a C-arm X-ray device. The images can be generated during an, in particular continuous, rotational movement of a recording unit with an X-ray source and an X-ray detector cooperating with the X-ray source. The X-ray source may in particular be an X-ray tube with a rotary anode. The X-ray detector for a computed tomography device is, for example, a line detector with a plurality of lines. An X-ray detector for a C-arm X-ray apparatus is, for example, a flat detector. The X-ray detector can be designed to be both energy-resolving and counting.

Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsbeispiele näher beschrieben und erläutert. In the following the invention will be described and explained in more detail with reference to the embodiments illustrated in the figures.

Es zeigen: Show it:

1 ein bildgebendes Gerät, 1 an imaging device,

2 schematisch ein Ergebnisbild mit einzelnen Bildelementen, 2 schematically a result image with individual pixels,

3 schematisch ein Ergebnisbild mit unterschiedlichen Bereichen, 3 schematically a result image with different areas,

4 ein Flussdiagramm eines erfindungsgemäßen Verfahrens. 4 a flowchart of a method according to the invention.

1 zeigt ein bildgebendes Gerät am Beispiel eines Computertomographie-Gerätes. Das hier gezeigte Computertomographie-Gerät verfügt über eine Aufnahmeeinheit 17, umfassend eine Strahlungsquelle 8 in Form einer Röntgenquelle sowie einen Strahlungsdetektor 9 in Form eines Röntgendetektors. Die Aufnahmeeinheit 17 rotiert während der Aufnahme von Röntgenprojektionen um eine Systemachse 5, und die Röntgenquelle emittiert während der Aufnahme Strahlen 2 in Form von Röntgenstrahlen. Bei der Röntgenquelle handelt es sich in dem hier gezeigten Beispiel um eine Röntgenröhre. Bei dem Röntgendetektor handelt es sich in dem hier gezeigten Beispiel um einen Zeilendetektor mit mehreren Zeilen. 1 shows an imaging device using the example of a computed tomography device. The computed tomography device shown here has a recording unit 17 comprising a radiation source 8th in the form of an X-ray source and a radiation detector 9 in the form of an x-ray detector. The recording unit 17 rotates while recording x-ray projections around a system axis 5 , and the X-ray source emits rays during recording 2 in the form of x-rays. The X-ray source is an X-ray tube in the example shown here. In the example shown here, the X-ray detector is a line detector with a plurality of lines.

In dem hier gezeigten Beispiel liegt ein Patient 3 bei der Aufnahme von Projektionen auf einer Patientenliege 6. Die Patientenliege 6 ist so mit einem Liegensockel 4 verbunden, dass er die Patientenliege 6 mit dem Patienten 3 trägt. Die Patientenliege 6 ist dazu ausgelegt den Patienten 3 entlang einer Aufnahmerichtung durch die Öffnung 10 der Aufnahmeeinheit 17 zu bewegen. Die Aufnahmerichtung ist in der Regel durch die Systemachse 5 gegeben, um die die Aufnahmeeinheit 17 bei der Aufnahme von Röntgenprojektionen rotiert. Bei einer Spiral-Aufnahme wird die Patientenliege 6 kontinuierlich durch die Öffnung 10 bewegt, während die Aufnahmeeinheit 17 um den Patienten 3 rotiert und Röntgenprojektionen aufnimmt. Damit beschreiben die Röntgenstrahlen auf der Oberfläche des Patienten 3 eine Spirale. In the example shown here is a patient 3 when recording projections on a patient couch 6 , The patient bed 6 is like that with a reclining base 4 connected that he is the patient bed 6 with the patient 3 wearing. The patient bed 6 is designed for the patient 3 along a take-up direction through the opening 10 the recording unit 17 to move. The recording direction is usually through the system axis 5 given to the recording unit 17 rotated when taking X-ray projections. In a spiral recording is the patient bed 6 continuously through the opening 10 moves while the recording unit 17 around the patient 3 rotated and recorded X-ray projections. This describes the x-rays on the surface of the patient 3 a spiral.

Zusätzlich kann ein tomographisches Gerät auch über einen Kontrastmittelinjektor zur Injektion von Kontrastmittel in den Blutkreislauf des Patienten 3 verfügen. Dadurch können die Bilder mittels eines Kontrastmittels derart aufgenommen werden, dass in dem Untersuchungsbereich liegende Strukturen, insbesondere Blutgefäße, mit einem erhöhten Kontrast dargestellt werden können. Weiterhin besteht mit dem Kontrastmittelinjektor auch die Möglichkeit angiographische Aufnahmen zu tätigen oder ein Perfusions-Scanning durchzuführen. Unter Kontrastmittel werden allgemein solche Mittel verstanden, welche die Darstellung von Strukturen und Funktionen des Körpers bei bildgebenden Verfahren verbessern. Im Rahmen der hier vorliegenden Anmeldung sind unter Kontrastmitteln sowohl konventionelle Kontrastmittel wie beispielsweise Jod oder Gadolinium als auch Tracer wie beispielsweise 18F, 11C, 15O oder 13N zu verstehen. Additionally, a tomographic device may also have a contrast agent injector for injecting contrast agent into the patient's bloodstream 3 feature. As a result, the images can be recorded by means of a contrast agent such that structures lying in the examination region, in particular blood vessels, can be displayed with an increased contrast. Furthermore, with the contrast agent injector it is also possible to make angiographic recordings or perform perfusion scanning. Contrast agents are generally understood to mean those agents which improve the representation of structures and functions of the body in imaging processes. In the context of the present application, contrast agents are to be understood as meaning both conventional contrast agents such as iodine or gadolinium and tracers such as, for example, 18 F, 11 C, 15 O or 13 N.

Das hier gezeigte bildgebende Gerät verfügt über einen Computer 12, welcher mit einer Anzeigeeinheit 11 sowie einer Eingabeeinheit 7 verbunden ist. Bei der Anzeigeeinheit 11 kann es sich beispielsweise um einen LCD-, Plasma- oder OLED-Bildschirm handeln. Es kann sich weiterhin um einen berührungsempfindlichen Bildschirm handelt, welcher auch als Eingabeeinheit 7 ausgebildet ist. Ein solcher berührungsempfindlicher Bildschirm kann in das bildgebende Gerät integriert sein oder als Teil eines mobilen Geräts ausgebildet sein. Die Anzeigeeinheit 11 ist zur erfindungsgemäßen graphischen Ausgabe OUT des Ergebnisbildes geeignet. Bei der Eingabeeinheit 7 handelt es sich beispielsweise um eine Tastatur, eine Maus, einen sogenannten „Touch-Screen“ oder auch um ein Mikrofon zur Spracheingabe. Die Eingabeeinheit 7 eignet sich auch dazu ein Ausschnitt des auf der Anzeigeeinheit 11 ausgegebenen Ergebnisbildes auszuwählen. The imaging device shown here has a computer 12 , which with a display unit 11 and an input unit 7 connected is. At the display unit 11 it can be for example an LCD, plasma or OLED screen. It can also be a touch-sensitive screen, which also serves as an input unit 7 is trained. Such a touch-sensitive screen may be integrated into the imaging device or formed as part of a mobile device. The display unit 11 is suitable for the graphic output OUT according to the invention of the result image. At the input unit 7 For example, it is a keyboard, a mouse, a so-called "touch screen" or even a microphone for voice input. The input unit 7 Also suitable for this is a section of the on the display unit 11 to select the output result image.

Der Computer 12 weist zur Rekonstruktion eines Bildes aus Rohdaten eine Rekonstruktionseinheit 14 auf. Beispielsweise kann die Rekonstruktionseinheit 14 ein tomographisches Bild in Form eines Bildstapels mit mehreren Schichten rekonstruieren. Weiterhin kann das bildgebende Gerät über eine Recheneinheit 15 verfügen. Die Recheneinheit 15 kann mit einem computerlesbaren Datenträger 13 zusammenwirken, insbesondere um durch ein Computerprogramm mit Programmcode ein erfindungsgemäßes Verfahren durchzuführen. Weiterhin kann das Computerprogramm auf dem maschinenlesbaren Trägers abrufbar gespeichert sein. Insbesondere kann es sich bei dem maschinenlesbaren Träger um eine CD, DVD, Blu-Ray Disc, einen Memory-Stick oder eine Festplatte handeln. Sowohl die Recheneinheit 15 als auch die Rekonstruktionseinheit 14 können in Form von Hard- oder in Form von Software ausgebildet sein. Beispielsweise ist die Recheneinheit 15 oder die Rekonstruktionseinheit 14 als ein sogenanntes FPGA (Akronym für das englischsprachige "Field Programmable Gate Array") ausgebildet oder umfasst eine arithmetische Logikeinheit. The computer 12 has a reconstruction unit to reconstruct an image from raw data 14 on. For example, the reconstruction unit 14 reconstruct a tomographic image in the form of a multi-layered image stack. Furthermore, the imaging device via a computing unit 15 feature. The arithmetic unit 15 can with a computer readable disk 13 cooperate, in particular to perform a method according to the invention by a computer program with program code. Furthermore, the computer program can be stored on the machine-readable carrier retrievable. In particular, the machine-readable carrier can be a CD, DVD, Blu-ray Disc, a memory stick or a hard disk. Both the arithmetic unit 15 as well as the reconstruction unit 14 may be in the form of hardware or in the form of software. For example, the arithmetic unit 15 or the reconstruction unit 14 as a so-called FPGA (Acronym for the Field Programmable Gate Array) or comprises an arithmetic logic unit.

In der hier gezeigten Ausführungsform ist auf dem Speicher des Computers 12 wenigstens ein Computerprogramm gespeichert, welches alle Verfahrensschritte des erfindungsgemäßen Verfahrens durchführt, wenn das Computerprogramm auf dem Computer 12 ausgeführt wird. Das Computerprogramm zur Ausführung der Verfahrensschritte des erfindungsgemäßen Verfahrens umfasst Programmcode. Weiterhin kann das Computerprogramm als ausführbare Datei ausgebildet sein und/oder auf einem anderen Rechensystem als dem Computer 12 gespeichert sein. Beispielsweise kann das bildgebende Gerät so ausgelegt sein, dass der Computer 12 das Computerprogramm zum Ausführen des erfindungsgemäßen Verfahrens über ein Intranet oder über das Internet in seinen internen Arbeitsspeicher lädt. In the embodiment shown here is on the memory of the computer 12 stored at least one computer program, which performs all the steps of the method according to the invention, when the computer program on the computer 12 is performed. The computer program for carrying out the method steps of the method according to the invention comprises program code. Furthermore, the computer program may be embodied as an executable file and / or on a computing system other than the computer 12 be saved. For example, the imaging device may be configured such that the computer 12 the computer program for carrying out the method according to the invention via an intranet or via the Internet in its internal memory loads.

2 zeigt schematisch ein Ergebnisbild mit einzelnen Bildelementen. In dem hier gezeigten Beispiel stellen die Kreise jeweils ein Bildelement 16 des Ergebnisbildes dar. Bei den Bildelementen 16 kann es sich sowohl um Pixel als auch um Voxel handeln. Pixel bezeichnen dabei Bildelemente 16 eines räumlich zweidimensionalen Bildes, Voxel bezeichnen die Bildelemente 16 eines räumlich dreidimensionalen Bildes. Die Bilder zur Bestimmen des Ergebnisbildes können mit einem in 1 beschriebenen tomographischen Gerät aufgenommen worden sein und auf der Anzeigeeinheit 11 graphisch ausgegeben werden. 2 schematically shows a result image with individual pixels. In the example shown here, the circles each represent one picture element 16 of the result image. With the picture elements 16 they can be both pixels and voxels. Pixels designate picture elements 16 of a spatially two-dimensional image, voxels denote the picture elements 16 a spatially three-dimensional image. The images for determining the result image may be printed with an in 1 be recorded tomographic device and on the display unit 11 graphically output.

Die Füllung der einzelnen Kreise gibt den Grauwert an, welcher durch eine intensitätsabhängige Fensterung einem Bildelement 16 zugewiesen wird. Dieser Grauwert entspricht in dem erfindungsgemäßen Verfahren auch der Helligkeit 19, welcher der Farbwert eines bestimmten Ergebnisbildes annimmt. Damit nimmt die Helligkeit 19 in dem hier gezeigten Ergebnisbild von links nach rechts ab. Außerdem sind die Bildelemente 16 einer Spalte alle gleich hell. Die Richtungen der mit den Kreisen verbundenen Pfeile 20 geben jeweils den Farbwert an. Beispielsweise basiert die Farbskala für die zeitabhängige Fensterung auf der Regenbogenskala. Dann kann ein nach rechts orientierter Pfeil 20 einem Rotton entsprechen, ein nach unten orientierter Pfeil 20 einem Grünton und ein nach links orientierter Pfeil 20 einem Blauton. In dem hier gezeigten Beispiel wird also von oben nach unten eine Regenbogenskala abgetastet. In dem hier gezeigten Beispiel ist die maximale Helligkeit für alle Farbwerte gleich. Die maximale Helligkeit wird in diesem Beispiel durch einen weiß gefüllten Kreis angegeben. Die Längen der Pfeile 20 geben an, wie stark die Farbsättigung jeweils ist. Ein längerer Pfeil 20 entspricht einer stärkeren Farbsättigung. In dem hier gezeigten Beispiel ist die Farbskala so gewählt, dass ein direkter Zusammenhang zwischen der Farbsättigung und der Helligkeit 19 besteht, zumindest für die Bildelemente 19, denen ein bunter Farbton zugewiesen wird. Die Entsättigung erfolgt von links nach rechts, wobei die Entsättigung durch einen steigenden Anteil von schwarz erfolgt. Ein weiß gefüllter Kreis entspricht also einem Bildelement 6, dem eine maximale Sättigung zugewiesen worden ist. Ein weiß gefüllter Kreis entspricht hingegen einem Bildelement 16, dem eine minimale Sättigung zugewiesen worden ist, so dass das entsprechende Bildelement 16 schwarz erscheint. Die Farbsättigung lässt sich also in bestimmten Ausführungsformen der Erfindung als Funktion der Helligkeit 19 oder des zugewiesenen Grauwertes bestimmen. In dem hier gezeigten Beispiel findet eine vollständige Entsättigung bei einer normierten Helligkeit 19 größer Null statt. In einem anderen, hier nicht gezeigten Beispiel erfolgt die Entsättigung durch einen steigenden Anteil von weiß. The filling of the individual circles indicates the gray value, which by an intensity-dependent fenestration a pixel 16 is assigned. This gray value also corresponds to the brightness in the method according to the invention 19 which takes the color value of a particular result image. This decreases the brightness 19 in the result image shown here from left to right. In addition, the picture elements 16 one column all the same light. The directions of the arrows connected to the circles 20 indicate the color value in each case. For example, the color scale for the time-dependent windowing is based on the rainbow scale. Then a right-oriented arrow can 20 correspond to a shade of red, a downwardly oriented arrow 20 a green tone and a left-oriented arrow 20 a blue shade. In the example shown here, a rainbow scale is thus scanned from top to bottom. In the example shown here, the maximum brightness is the same for all color values. The maximum brightness is indicated in this example by a white filled circle. The lengths of the arrows 20 indicate how strong the color saturation is. A longer arrow 20 corresponds to a stronger color saturation. In the example shown here, the color gamut is chosen so that a direct relationship between the color saturation and the brightness 19 exists, at least for the picture elements 19 which is assigned a colorful coloring. The desaturation takes place from left to right, the desaturation being effected by an increasing proportion of black. A white filled circle thus corresponds to a picture element 6 to which maximum saturation has been assigned. A white filled circle corresponds to a picture element 16 to which a minimum saturation has been assigned so that the corresponding picture element 16 black appears. The color saturation can thus be in certain embodiments of the invention as a function of brightness 19 or the assigned gray value. In the example shown here, a complete desaturation takes place at a normalized brightness 19 greater zero instead. In another example, not shown here, the desaturation takes place by an increasing proportion of white.

Die intensitätsabhängige Fensterung erfolgt entsprechend den anatomischen Informationen. Die anatomischen Informationen können insbesondere durch eine Intensitätsverteilung beschrieben werden. Die anatomischen Informationen und damit auch eine Intensitätsverteilung können mit bekannten Methoden der Bildverarbeitung aus wenigstens einem der aufgenommenen Bilder abgeleitet werden. Beispielsweise umfasst das erste Ableiten der anatomischen Informationen eine Filterung oder Segmentierung wenigstens eines der aufgenommenen Bilder. Weiterhin können die anatomischen Informationen in einem aus einer tomographischen Aufnahme rekonstruierten Schichtbild eines Untersuchungsbereiches durch die Verteilung von Intensitätswerten in Einheiten von Hounsfield beschrieben werden. Die intensitätsabhängige Fensterung kann durch den unten stehenden Ausdruck für I(c) beschrieben werden, wobei c die Intensität in Einheiten von Hounsfield angibt und c_max sowie c_min jeweils die maximale und die minimale Intensität in Einheiten von Hounsfield innerhalb der Intensitätsverteilung. I bezeichnet den zuzuweisenden Grauwert, I_max und I_min bezeichnen jeweils den maximalen sowie den minimalen Grauwert, welcher bei der intensitätsabhängigen Fensterung einem Bildelement 16 zugewiesen werden kann. So kann I_min = 0 und I_max = 255 betragen.

Figure DE102014223658A1_0002
The intensity-dependent fenestration is done according to the anatomical information. The anatomical information can be described in particular by an intensity distribution. The anatomical information and thus also an intensity distribution can be derived with known methods of image processing from at least one of the recorded images. For example, the first derivation of the anatomical information comprises a filtering or segmentation of at least one of the taken pictures. Furthermore, the anatomical information in a slice image of an examination area reconstructed from a tomographic image can be described by the distribution of intensity values in units of Hounsfield. The intensity-dependent fenestration can be described by the expression below for I (c), where c indicates the intensity in units of Hounsfield and c_max and c_min respectively the maximum and the minimum intensity in units of Hounsfield within the intensity distribution. I denotes the grayscale value to be assigned, I_max and I_min respectively denote the maximum and the minimum gray value, which in the case of intensity-dependent fenestration is a picture element 16 can be assigned. So I_min = 0 and I_max = 255.
Figure DE102014223658A1_0002

Die zeitabhängige Fensterung erfolgt entsprechend einer Flussinformation. Die Flussinformation wird aus den Bildern abgeleitet, insbesondere können die Flussinformationen aus Veränderungen von einer Verteilung von Intensitätswerten zwischen zu verschiedenen Zeitpunkten aufgenommenen Bildern abgeleitet werden. In diesem Sinne weist die Flussinformation eine zeitliche Komponente auf. Beispielsweise kann es sich bei den Flussinformationen um eine den Blutfluss betreffende Information handeln. Insbesondere kann es sich dabei um das Blutvolumen, die mittlere Durchflusszeit durch ein Volumen innerhalb des Untersuchungsbereiches sowie um die Verzögerungszeit bis zur maximalen Anflutung eines Kontrastmittels in dem Untersuchungsbereich handeln. Die Flussinformation kann in verschiedenen Ausführungsformen der Erfindung sowohl einen gerichteten als auch einen ungerichteten Fluss betreffen. In einer Ausführungsform der Erfindung handelt es sich bei der Flussinformation um Diffusionsparameter in dem Untersuchungsbereich. Die Diffusionsparameter beziehen sich typischer Weise auf die Diffusion von Wasser und können insbesondere basierend auf der Diffusions-Tensor-Bildgebung abgeleitet werden. The time-dependent windowing takes place according to a flow information. The flow information is derived from the images, in particular the flow information can be derived from changes in a distribution of intensity values between images taken at different times. In this sense, the flow information has a temporal component. For example, the flow information may be blood information related information. In particular, these may be the blood volume, the mean flow time through a volume within the examination area, and the delay time to the maximum influx of a contrast agent in the examination area. The flow information in various embodiments of the invention may relate to both directional and non-directional flow. In one embodiment of the invention, the flow information is diffusion parameters in the examination area. The diffusion parameters are typically related to the diffusion of water and, in particular, can be derived based on diffusion tensor imaging.

Die Flussinformation kann direkt einen zeitlichen Wert betreffen, oder die Flussinformation ist aufgrund eines zeitabhängigen Phänomens abgeleitet worden. So werden Geschwindigkeiten oder Diffusionsparameter aus einem zeitabhängigen Phänomen abgeleitet, nämlich aus einer Bewegung. Die Flussinformationen können natürlich auch eine räumliche Komponente aufweisen, indem sie einer räumlichen Verteilung entsprechen. Die zeitabhängige Fensterung bewirkt eine Skalierung der Flussinformationen basierend auf der zeitabhängigen Komponente. So kann die zeitabhängige Fensterung durch den unten stehenden Ausdruck für L(t) beschrieben werden, wobei t eine Durchflusszeit angibt und t_max sowie t_min jeweils die maximale und die minimale Durchflusszeit angeben. L bezeichnet den zuzuweisenden Farbwert, L_max und L_min bezeichnen jeweils den maximalen sowie den minimalen Farbwert innerhalb einer Farbskala, welcher bei der intensitätsabhängigen Fensterung einem Bildelement 16 zugewiesen werden kann.

Figure DE102014223658A1_0003
The flow information may directly relate to a time value, or the flow information has been derived due to a time-dependent phenomenon. Thus, velocities or diffusion parameters are derived from a time-dependent phenomenon, namely, a motion. Of course, the flow information may also have a spatial component by corresponding to a spatial distribution. The time-dependent windowing causes a scaling of the flow information based on the time-dependent component. Thus, the time-dependent windowing can be described by the expression below for L (t), where t indicates a flow time and t_max and t_min respectively indicate the maximum and the minimum flow time. L denotes the color value to be assigned, L_max and L_min each denote the maximum and the minimum color value within a color gamut, which in the case of intensity-dependent fenestration is a pixel 16 can be assigned.
Figure DE102014223658A1_0003

Weiterhin können bei der zeitlichen Fensterung diejenigen Bildelemente 16 markiert werden, denen keine valide Flussinformation zugewiesen werden kann. Beispielsweise kann keine valide Flussinformation vorliegen, wenn in dem jeweiligen Bildelement 16 das Rauschen einen Grenzwert übersteigt. Die Markierung kann derart erfolgen, dass denjenigen Bildelementen 16, denen keine valide Flussinformation zugewiesen werden kann, kein Farbwert oder der Farbwert „weiß“ zugewiesen wird. In einem solchen Fall kann L = 0 gewählt werden. In diesem Sinne kann die zeitabhängige Fensterung eine Maskierung umfassen. Furthermore, in temporal fenestration those pixels can 16 be marked, to which no valid flow information can be assigned. For example, there can be no valid flow information if in the respective picture element 16 the noise exceeds a limit. The marking can be made such that those pixels 16 which can not be assigned valid flow information, no color value or "white" color value assigned. In such a case L = 0 can be selected. In this sense, the time-dependent fenestration may include masking.

Allgemein gilt, dass ein Farbwert zugewiesen werden kann, indem einem Bildelement 16 wenigstens ein Wert eines Kanals eines Farbraums zugewiesen wird. Beispielsweise kann der Farbwert zugewiesen werden, indem dem Kanal Hue im HSV Farbraum ein Wert zugewiesen wird. Auch kann der Farbwert zugewiesen werden, indem den Kanälen Rot, Grün, Blau des RGB Farbraums jeweils ein Wert zugewiesen wird. In verschiedenen Ausführungsformen der Erfindung umfasst die zeitabhängige Fensterung, dass einem Bildelement 16 für jeden Kanal eines Farbraumes ein Wert zugewiesen wird. Weiterhin können die Farbwerte auch in einer normierten Form beschrieben werden. Wird ohne Beschränkung der Allgemeinheit der RGB Farbraum gewählt, so ist der normierte Farbwert gegeben durch:

Figure DE102014223658A1_0004
In general, a color value can be assigned by placing a picture element 16 at least one value of a channel of a color space is assigned. For example, the color value can be assigned by assigning a value to the channel Hue in the HSV color space. Also, the color value can be assigned by assigning a value to each of the red, green, and blue channels of the RGB color space. In various embodiments of the invention, the time-dependent fenestration comprises that of a pixel 16 for each channel of a color space a value is assigned. Furthermore, the color values can also be described in a normalized form. If the RGB color space is selected without limiting the generality, the normalized color value is given by:
Figure DE102014223658A1_0004

Dabei bezeichnet FW_norm(i) den normierten Farbwert. r_i, g_i und b_i bezeichnen die Werte der Kanäle Rot, Grün und Blau. i gibt dabei den Index des Farbraums an, beispielsweise kann i zwischen 0 und 255 bei einem Farbraum mit 255 Farbtönen liegen. Die Funktion max(r_i, g_i, b_i) gibt den maximalen Wert der drei Kanäle für den Index i an. In einer Ausführungsform der Erfindung erfolgt die zeitabhängige Fensterung derart, dass die maximale Helligkeit 19 der Farbwerte für die Bildelemente 16 gleich ist. Die Helligkeit 19 ist im RGB Farbraum durch H(i) = r_i + g_i + b_i gegeben, wobei H die Helligkeit 19 bezeichnet. Nun kann also die Farbskala so gewählt werden, dass die maximale Helligkeit 19 für alle zugewiesenen Farbwerte gleich ist. Insbesondere kann die maximale normierte Helligkeit 19 der Farbwerte für die Bildelemente 16 gleich sein. Die normierte, maximale Helligkeit der Farbwerte ist im RGB Farbraum gegeben durch folgenden Ausdruck:

Figure DE102014223658A1_0005
Where FW_norm (i) denotes the normalized color value. r_i, g_i and b_i denote the values of the red, green and blue channels. i indicates the index of the color space, for example i can lie between 0 and 255 in a color space with 255 color tones. The function max (r_i, g_i, b_i) specifies the maximum value of the three channels for the index i. In one embodiment of the invention, the time-dependent windowing is performed such that the maximum brightness 19 the color values for the picture elements 16 is equal to. The brightness 19 is given in the RGB color space by H (i) = r_i + g_i + b_i, where H is the brightness 19 designated. So now the color scale can be chosen so that the maximum brightness 19 is the same for all assigned color values. In particular, the maximum normalized brightness 19 the color values for the picture elements 16 be equal. The normalized, maximum brightness of the color values is given in the RGB color space by the following expression:
Figure DE102014223658A1_0005

L_max bezeichnet dabei die normierte, maximale Helligkeit, welche in unterschiedlichen Ausführungsformen der Erfindung unterschiedliche Werte annehmen kann. Beispielsweise kann die Bedingung L_max = 1 oder L_max = 0,5 erfüllt sein. L_max designates the standardized, maximum brightness, which can assume different values in different embodiments of the invention. For example, the condition L_max = 1 or L_max = 0.5 may be satisfied.

Nun können die intensitätsabhängige und die Zeitabhängige Fensterung miteinander kombiniert werden. In dem Beispiel des RGB Farbraums ist die kombinierte Fensterung dann gegeben durch folgenden Ausdruck:

Figure DE102014223658A1_0006
Now the intensity-dependent and the time-dependent windowing can be combined. In the example of the RGB color space, the combined windowing is then given by the following expression:
Figure DE102014223658A1_0006

In diesem Fall geben l und m die zweidimensionale Position des betreffenden Bildelements 16 in dem Ergebnisbild dar, welches l Zeilen und m Spalten umfasst. t_l, m bezeichnet in diesem Beispiel die Flussinformation in Form einer Durchflusszeit, welche einem Bildelement 16 zugeordnet ist. MC_l, m bezeichnen die Verteilung der anatomischen Information, welche beispielsweise durch eine Projektion der maximalen Intensität über die Zeitpunkte der aufgenommenen Bilder hinweg ermittelt wird. * bezeichnet eine Multiplikation. Bei dem Ausdruck {1, 1, 1} handelt es sich um dein Einheitsvektor im RGB Farbraum. In weiteren Ausführungsformen der Erfindung kann der Einheitsvektor des jeweils verwendeten Farbraums Verwendung finden. In this case, l and m indicate the two-dimensional position of the pixel in question 16 in the result image, which includes l rows and m columns. t_l, m in this example denotes the flow information in the form of a flow time, which is a pixel 16 assigned. MC_l, m designate the distribution of the anatomical information, which is determined, for example, by a projection of the maximum intensity over the times of the recorded images. * denotes a multiplication. The expression {1, 1, 1} is your unit vector in the RGB color space. In further embodiments of the invention, the unit vector of the respectively used color space can be used.

Der Grauwert I kann also von der Verteilung der anatomischen Informationen abhängig sein. Der Farbraum kann, wie beispielhaft hier beschrieben, so konstruiert sein, dass

  • – der Grauwert für Bildelemente des Ergebnisbildes, denen kein Farbwert, insbesondere kein bunter Farbwert, zugewiesen wird, mit dem Einheitsvektor des Farbraumes multipliziert wird,
  • – der Grauwert für Bildelemente des Ergebnisbildes, denen ein Farbwert, insbesondere ein bunter Farbwert, zugewiesen wird, mit dem jeweils zugewiesenen, normierten Farbwert multipliziert wird.
The gray value I can thus be dependent on the distribution of the anatomical information. The color space may, as exemplarily described here, be constructed so that
  • The gray value for picture elements of the result image, to which no color value, in particular no colored color value, is assigned, is multiplied by the unit vector of the color space,
  • - The gray value for pixels of the result image to which a color value, in particular a colorful color value assigned, is multiplied by the respectively assigned, normalized color value.

Daher sind Grauwert und Farbwert in einem solchen Farbraum unabhängig voneinander. Der Farbraum kann also so konstruiert sein, dass Grauwert und Farbwert orthogonal zueinander sind. Weiterhin kann der Farbraum so konstruiert sein, dass er nicht die Farbwerte „weiß“ und „schwarz“ umfasst, sondern lediglich bunte Farben. Therefore, gray value and color value in such a color space are independent of each other. The color space can thus be constructed so that the gray value and color value are orthogonal to one another. Furthermore, the color space can be designed so that it does not include the color values "white" and "black", but only colorful colors.

3 zeigt schematisch ein Ergebnisbild mit unterschiedlichen Bereichen. In dem hier gezeigten Beispiel handelt es sich bei dem schematisch dargestellten Ergebnisbild um ein zweidimensionales Bild eines Gehirns eines Patienten 3. Dabei handelt es sich um eine Projektion des Gehirns entlang der langen Körperachse des Patienten 3, so dass die Frontseite in 3 nach oben zeigt. 3 ist stark schematisiert und zeigt keine anatomischen Details. Der erste Bereich 21 des Ergebnisbildes ist dadurch gekennzeichnet, dass den in dem ersten Bereich 21 liegenden Bildelementen 16 jeweils kein Farbwert zugewiesen wird oder der Farbwert gleich Null ist. Beispielsweise kann der erste Bereich 21 weiterhin dadurch gekennzeichnet sein, dass die Flussinformation, insbesondere deren zeitliche Komponente, nicht mit einer festgelegten Genauigkeit bestimmt werden kann. Es kann also sinnvoll sein, bestimmten Bildelementen 16 bei der zeitabhängigen Fensterung keinen Farbwert zuzuweisen, wenn der zu erwartende Fehler des Farbwertes einen Grenzwert überschreitet. So kann der zu erwartende Fehler aufgrund eines hohen Rauschniveaus in den aufgenommenen Bildern hoch sein. In dem hier gezeigten Beispiel liegen in dem ersten Bereich 21 keine großen Blutgefäße, so dass bei mit Kontrastmittel aufgenommenen Bildern die in den Bildern messbare Intensität zu gering ist, um die zeitliche Information mit hoher Genauigkeit abzuleiten. Im zweiten Bereich 22 hingegen wird den Bildelementen 16 jeweils durch die zeitabhängige Fensterung ein Farbwert zugewiesen. Denn in dem zweiten Bereich 22 ist der zu erwartende Fehler eines Farbwertes kleiner als ein Grenzwert ist. In dem hier gezeigten Beispiel liegen in dem zweiten Bereich 22 große Blutgefäße, so dass bei mit Kontrastmittel aufgenommenen Bildern die in den Bildern messbare Intensität groß genug ist, um die zeitliche Information mit hoher Genauigkeit abzuleiten. Der Übersichtlichkeit halber wird der zweite Bereich 22 in 3 schraffiert dargestellt und der erste Bereich 21 wird in 3 in einem einheitlichen Grauwert dargestellt. In 3 werden die unterschiedlichen Farbwerte in dem zweiten Bereich 22 durch die Orientierung der Schraffierung angegeben. Die Helligkeit des jeweiligen Farbwerts wird durch die Dichte der Schraffierung dargestellt. Bei den Flussinformationen handelt es sich in dem hier gezeigten Beispiel um die Ankunftszeit eines Kontrastmittels. 3 schematically shows a result image with different areas. In the example shown here, the result image shown schematically is a two-dimensional image of a brain of a patient 3 , It is a projection of the brain along the patient's long body axis 3 so that the front in 3 pointing upwards. 3 is highly schematic and shows no anatomical details. The first area 21 of the result image is characterized in that in the first area 21 lying picture elements 16 no color value is assigned or the color value is zero. For example, the first area 21 Furthermore, be characterized in that the flow information, in particular its temporal component, can not be determined with a specified accuracy. So it may make sense to use certain picture elements 16 in the time-dependent windowing do not assign a color value if the expected color value error exceeds a limit. Thus, the expected error can be high due to a high noise level in the recorded images. In the example shown here are in the first area 21 no large blood vessels, so that in contrast images recorded in the images measurable intensity is too low to derive the temporal information with high accuracy. In the second area 22 however, the picture elements becomes 16 each assigned a color value by the time-dependent windowing. Because in the second area 22 the expected error of a color value is smaller than a limit value. In the example shown here are in the second area 22 large blood vessels, so that in contrast images recorded in the images measurable intensity is large enough to derive the temporal information with high accuracy. For clarity, the second area 22 in 3 hatched and the first area 21 is in 3 represented in a uniform gray value. In 3 the different color values become in the second area 22 indicated by the orientation of the hatching. The brightness of the respective color value is represented by the density of the hatching. The flow information in the example shown here is the arrival time of a contrast medium.

4 zeigt ein Flussdiagramm eines erfindungsgemäßen Verfahrens. Die Aufnahme REC mehrerer Bilder eines Untersuchungsbereiches zu unterschiedlichen Zeitpunkten erfolgt durch ein bildgebendes Gerät. Dabei können die Bilder mit einem identischen oder einem variablen zeitlichen Abstand aufgenommen werden. Insbesondere zum Ableiten von Perfusionsparametern ist es von Vorteil, wenn eine Vielzahl von Bildern mit einem identischen zeitlichen Abstand aufgenommen wird. Das erste Ableiten D-1 von anatomischen Informationen aus wenigstens einem der Bilder sowie das zweite Ableiten D-2 von Flussinformationen aus den Bildern kann durch einen Computer 12 unterstützt werden und automatisch erfolgen. Weiterhin umfasst das hier dargestellte Verfahren den Schritt des Bestimmens IMG eines Ergebnisbildes, wobei eine intensitätsabhängige Fensterung Bildelementen 16 des Ergebnisbildes Grauwerte entsprechend der anatomischen Informationen zuweist, wobei eine zeitabhängige Fensterung den Bildelementen 16 Farbwerte entsprechend den Flussinformationen zuweist, und wobei die Grauwerte und die Farbwerte unabhängig voneinander zugewiesen werden. Weiterhin umfasst das hier gezeigte Verfahren den Schritt der graphischen Ausgabe OUT des Ergebnisbildes auf einer Anzeigeeinheit 11, wobei ein Ausschnitt des Ergebnisbildes auswählbar ist, wobei die Grauwertskala und/oder die Farbskala von dem ausgewählten Ausschnitt abhängig sind. 4 shows a flowchart of a method according to the invention. The recording REC of multiple images of an examination area at different times is done by an imaging device. The images can be recorded with an identical or a variable time interval. In particular for deriving perfusion parameters, it is advantageous if a multiplicity of images are recorded with an identical time interval. The first deriving D-1 of anatomical information from at least one of the images as well as the second deriving D-2 of flow information from the images may be done by a computer 12 be supported and done automatically. Furthermore, the method illustrated here comprises the step of determining IMG of a result image, wherein an intensity-dependent fenestration comprises picture elements 16 assigns gray values corresponding to the anatomical information of the result image, wherein a time-dependent fenestration of the pixels 16 Assigns color values according to the flow information, and the gray values and color values are assigned independently. Furthermore, the method shown here comprises the step of the graphic output OUT of the result image on a display unit 11 , wherein a section of the result image is selectable, wherein the gray scale and / or the color scale of the selected section are dependent.

In einer weiteren Ausführungsform der Erfindung werden die Flussinformationen basierend auf einem physikalischen Modell abgeleitet. Die Flussinformationen können insbesondere so abgeleitet werden, dass für jedes Bildelement des Ergebnisbildes basierend auf dem physikalischen Modell ein Wert, insbesondere ein Flusswert, bestimmt wird. Ein solches Modell kann insbesondere den Fluss eines Stoffes modellieren und dabei auch Eigenschaften des Stoffes sowie eine den fließenden Stoff begrenzende Struktur berücksichtigen. Beispielsweise kann das Modell den Blutfluss in einem Blutgefäß oder in einem von Blutgefäßen durchdrungenem Gewebe modellieren. Weiterhin können die Flussinformationen derart basierend auf einem physikalischen Modell abgeleitet werden, dass das Modell an die Veränderung der Verteilung von Intensitätswerten angepasst wird. Die Anpassung kann insbesondere durch eine Interpolation von zu unterschiedlichen Zeitpunkten aufgenommenen Intensitätswerten erfolgen. Dabei kann ein Parameter an die Veränderung der Verteilung von Intensitätswerten angepasst werden, insbesondere ein Parameter, welcher einen physikalischen Prozess charakterisiert. Weiterhin kann die Veränderung der Verteilung von Intensitätswerten interpoliert werden. In a further embodiment of the invention, the flow information is derived based on a physical model. The flow information can in particular be derived such that a value, in particular a flow value, is determined for each picture element of the result image based on the physical model. In particular, such a model can model the flow of a substance, taking into account properties of the substance as well as a structure that limits the flowing substance. For example, the model can model the blood flow in a blood vessel or in a tissue penetrated by blood vessels. Furthermore, the flow information may be derived based on a physical model such that the model is adapted to the change in the distribution of intensity values. The adaptation can be carried out in particular by interpolation of intensity values recorded at different times. In this case, a parameter can be adapted to the change in the distribution of intensity values, in particular a parameter which characterizes a physical process. Furthermore, the change in the distribution of intensity values can be interpolated.

Weiterhin können die Flussinformation derart basierend auf einem physikalischen Modell abgeleitet werden, dass eine Simulation durchgeführt wird. Beispielsweise handelt es sich um eine numerische Simulation, welche weiterhin als Flusssimulation ausgebildet sein kann. Eine solche Flusssimulation kann insbesondere in Form einer sogenannten CFD Simulation ausgebildet sein (CFD ist das Akronym für das den englischen Ausdruck Computational Fluid Dynamics). Die Flusssimulation kann weiterhin auf einem oder mehreren anatomischen Parametern beruhen, welche aus wenigstens einem der zu unterschiedlichen Zeitpunkten aufgenommenen Bilder abgeleitet werden. Bei dem anatomischen Parameter kann es sich beispielsweise um den Durchmesser eines Blutgefäßes handeln. Dadurch lassen sich die Flussinformationen einerseits besonders genau und andererseits doch patientenspezifisch ableiten. Furthermore, the flow information may be derived based on a physical model such that a simulation is performed. For example, it is a numerical simulation, which may continue to be designed as a flow simulation. Such a flow simulation can be designed in particular in the form of a so-called CFD simulation (CFD is the acronym for the English term Computational Fluid Dynamics). The flow simulation may further be based on one or more anatomical parameters derived from at least one of the images acquired at different times. The anatomical parameter may be, for example, the diameter of a blood vessel. As a result, the flow information can be derived on the one hand particularly accurately and, on the other hand, on a patient-specific basis.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 6650928 B1 [0003] US 6650928 B1 [0003]

Claims (12)

Verfahren zum Bestimmen eines Ergebnisbildes, umfassend: – Aufnahme (REC) mehrerer Bilder eines Untersuchungsbereichs zu unterschiedlichen Zeitpunkten, – Erstes Ableiten (D-1) von anatomischen Informationen aus wenigstens einem der Bilder, – Zweites Ableiten (D-2) von Flussinformationen aus den Bildern, – Bestimmen (IMG) eines Ergebnisbildes, wobei eine intensitätsabhängige Fensterung Bildelementen (16) des Ergebnisbildes Grauwerte entsprechend der anatomischen Informationen zuweist, wobei eine zeitabhängige Fensterung den Bildelementen (16) Farbwerte entsprechend den Flussinformationen zuweist, und wobei die Grauwerte und die Farbwerte unabhängig voneinander zugewiesen werden. A method for determining a result image, comprising: - recording (REC) a plurality of images of an examination area at different times, - first deriving (D-1) anatomical information from at least one of the images, - secondly deriving (D-2) flow information from the Images, - determining (IMG) a result image, wherein an intensity-dependent fenestration of pixels ( 16 ) assigns gray values corresponding to the anatomical information to the result image, whereby a time-dependent fenestration of the pixels ( 16 ) Assigns color values according to the flow information, and gray values and color values are assigned independently. Verfahren nach Anspruch 1, wobei die Aufnahme wenigstens eines Teils der Bilder durch Kontrastmittel unterstützt wird. The method of claim 1, wherein the inclusion of at least a portion of the images is assisted by contrast agents. Verfahren nach Anspruch 1 oder 2, wobei die anatomischen Informationen abgeleitet werden, indem eine erste Projektion über eine Mehrzahl der zu unterschiedlichen Zeitpunkten aufgenommenen Bilder hinweg erfolgt. The method of claim 1 or 2, wherein the anatomical information is derived by performing a first projection over a plurality of the images taken at different times. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Flussinformationen basierend auf einem physikalischen Modell abgeleitet werden. Method according to one of claims 1 to 3, wherein the flow information is derived based on a physical model. Verfahren nach einem der Ansprüche 1 bis 4, wobei die zeitabhängige Fensterung derart erfolgt, dass eine maximale Helligkeit der Farbwerte für die Bildelemente (16) gleich ist. Method according to one of claims 1 to 4, wherein the time-dependent windowing is performed such that a maximum brightness of the color values for the picture elements ( 16 ) is equal to. Verfahren nach einem der Ansprüche 1 bis 5, wobei die zeitabhängige Fensterung derart erfolgt, dass eine maximale Farbsättigung für die Bildelemente (16) gleich ist. Method according to one of claims 1 to 5, wherein the time-dependent windowing is performed such that a maximum color saturation for the picture elements ( 16 ) is equal to. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Grauwertskala für die intensitätsabhängige Fensterung und/oder die Farbskala für die zeitabhängige Fensterung vorgebbar sind.  Method according to one of claims 1 to 6, wherein the gray value scale for the intensity-dependent fenestration and / or the color gamut for the time-dependent fenestration can be predetermined. Verfahren nach einem der Ansprüche 1 bis 7, weiterhin umfassend: – graphische Ausgabe (OUT) des Ergebnisbildes auf einer Anzeigeeinheit (11), wobei ein Ausschnitt des Ergebnisbildes auswählbar ist, wobei die Grauwertskala und/oder die Farbskala von dem ausgewählten Ausschnitt abhängig sind. Method according to one of claims 1 to 7, further comprising: - graphic output (OUT) of the result image on a display unit ( 11 ), wherein a section of the result image is selectable, wherein the gray scale and / or the color scale of the selected section are dependent. Verfahren nach einem der Ansprüche 1 bis 8, wobei es sich bei den Bildern jeweils um räumlich dreidimensionale Bilder handelt, wobei die anatomischen Informationen sowie die Flussinformationen jeweils räumlich dreidimensional ausgebildet sind, wobei es sich bei dem Ergebnisbild um ein räumlich zweidimensionales Bild handelt, wobei die intensitätsabhängige Fensterung derart erfolgt, dass den Bildelementen (16) die Grauwerte entsprechend den entlang einer Raumrichtung projizierten anatomischen Informationen zugewiesen werden, wobei die zeitabhängige Fensterung derart erfolgt, dass den Bildelementen (16) die Farbwerte entsprechend den entlang der Raumrichtung projizierten Flussinformationen zugewiesen werden. Method according to one of claims 1 to 8, wherein the images are each spatially three-dimensional images, wherein the anatomical information and the flow information are each formed spatially three-dimensional, wherein the result image is a spatially two-dimensional image, wherein the intensity-dependent fenestration is performed such that the picture elements ( 16 ) the gray values are assigned in accordance with the anatomical information projected along a spatial direction, the time-dependent fenestration being performed such that the picture elements ( 16 ) the color values are assigned according to the flow information projected along the spatial direction. Computerprogramm mit Programmcode zur Durchführung aller Verfahrensschritte nach einem der Ansprüche 1 bis 9, wenn das Computerprogramm in dem Computer (12) ausgeführt wird. Computer program with program code for carrying out all method steps according to one of claims 1 to 9, when the computer program in the computer ( 12 ) is performed. Maschinenlesbarer Datenträger (13), auf dem das Computerprogramm nach Anspruch 10 gespeichert ist. Machine-readable data carrier ( 13 ) on which the computer program according to claim 10 is stored. Bildgebendes Gerät mit einem Computer (12) zur Steuerung des bildgebenden Geräts, wobei der Computer (12) durch das Senden von Befehlen an das bildgebende Gerät bewirkt, dass das bildgebende Gerät ein Verfahren nach einem der Ansprüche 1 bis 9 ausführt.Imaging device with a computer ( 12 ) for controlling the imaging device, wherein the computer ( 12 ) by sending commands to the imaging device causes the imaging device to perform a method according to any one of claims 1 to 9.
DE102014223658.4A 2014-11-20 2014-11-20 Method for determining a result image, computer program, machine-readable data carrier and imaging device Pending DE102014223658A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014223658.4A DE102014223658A1 (en) 2014-11-20 2014-11-20 Method for determining a result image, computer program, machine-readable data carrier and imaging device
US14/938,905 US9984477B2 (en) 2014-11-20 2015-11-12 Method for determining a resultant image, computer program, machine-readable data carrier and imaging device
CN201510797429.2A CN105615906B (en) 2014-11-20 2015-11-18 For determining method, computer program, machine readable data medium and the imaging device of composograph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014223658.4A DE102014223658A1 (en) 2014-11-20 2014-11-20 Method for determining a result image, computer program, machine-readable data carrier and imaging device

Publications (1)

Publication Number Publication Date
DE102014223658A1 true DE102014223658A1 (en) 2016-05-25

Family

ID=55914224

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014223658.4A Pending DE102014223658A1 (en) 2014-11-20 2014-11-20 Method for determining a result image, computer program, machine-readable data carrier and imaging device

Country Status (3)

Country Link
US (1) US9984477B2 (en)
CN (1) CN105615906B (en)
DE (1) DE102014223658A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947102B2 (en) * 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method
US11399779B2 (en) * 2018-05-16 2022-08-02 Case Western Reserve University System-independent quantitative perfusion imaging

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020114503A1 (en) * 2001-02-17 2002-08-22 Siemens Aktiengesellschaft Method and apparatus for processing a computed tomography image of a lung obtained using contrast agent
US6650928B1 (en) 2000-11-27 2003-11-18 Ge Medical Systems Global Technology Company, Llc Color parametric and composite maps for CT perfusion
EP1420367A1 (en) * 2002-11-15 2004-05-19 MeVis GmbH A method for coloring of voxels and image data processing and visualization system
DE102011006520A1 (en) * 2011-03-31 2012-10-04 Siemens Aktiengesellschaft Computer-implemented method for displaying contrast agent in tumor vessels, by imaging tissue using digital subtraction angiography-X-ray, segmenting tumor, displaying contrast agent in vessels, and marking receptacles in outer area

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379769B2 (en) * 2003-09-30 2008-05-27 Sunnybrook Health Sciences Center Hybrid imaging method to monitor medical device delivery and patient support for use in the method
DE102004048209B3 (en) * 2004-09-30 2005-09-01 Siemens Ag Generating three-dimensional image data record of moving object with x-ray tomography involves generating at least two preliminary 3D image data sets from corresponding raw images, deriving movement matrix, applying to target data record
US8503539B2 (en) * 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
EP2621343A1 (en) * 2010-09-30 2013-08-07 Koninklijke Philips Electronics N.V. Detection of bifurcations using traceable imaging device and imaging tool
US11040140B2 (en) * 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
US10025479B2 (en) * 2013-09-25 2018-07-17 Terarecon, Inc. Advanced medical image processing wizard

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6650928B1 (en) 2000-11-27 2003-11-18 Ge Medical Systems Global Technology Company, Llc Color parametric and composite maps for CT perfusion
US20020114503A1 (en) * 2001-02-17 2002-08-22 Siemens Aktiengesellschaft Method and apparatus for processing a computed tomography image of a lung obtained using contrast agent
EP1420367A1 (en) * 2002-11-15 2004-05-19 MeVis GmbH A method for coloring of voxels and image data processing and visualization system
DE102011006520A1 (en) * 2011-03-31 2012-10-04 Siemens Aktiengesellschaft Computer-implemented method for displaying contrast agent in tumor vessels, by imaging tissue using digital subtraction angiography-X-ray, segmenting tumor, displaying contrast agent in vessels, and marking receptacles in outer area

Also Published As

Publication number Publication date
US9984477B2 (en) 2018-05-29
US20160148379A1 (en) 2016-05-26
CN105615906B (en) 2019-08-16
CN105615906A (en) 2016-06-01

Similar Documents

Publication Publication Date Title
DE102007014133B4 (en) A method of visualizing a sequence of tomographic volume data sets of medical imaging
DE102010043849B3 (en) Device for determining and representing blood circulation of heart muscle, of computer tomography system, has stimulation unit that stimulates blood flow in different regions of heart muscle and determines blood circulation of heart muscle
DE102007008767B3 (en) Method for representation of three-dimensional graphic data sets on two-dimensional images, involves initializing three-dimensional data set of three-dimensional image volume and arranging line of sight to produce two-dimensional image
DE102014201134B4 (en) Method and device for generating a 2-D projection image of a vascular system together with corresponding objects
DE102011004120A1 (en) Method, image data record processing device, X-ray system and computer program product for the correction of image data of an examination subject
DE102016205507A1 (en) Method for determining collateral information describing the blood flow in collaterals, medical image recording device, computer program and electronically readable data carrier
DE102019215460A1 (en) Method and device for noise reduction in image recordings
DE102015207107A1 (en) Method for generating a virtual X-ray projection on the basis of an image data set obtained by means of an X-ray image recording device, computer program, data carrier and X-ray image recording device
DE102013226858A1 (en) Method for generating an at least three-dimensional display data record, X-ray device and computer program
DE10254908B4 (en) Method for producing an image
DE102020216306A1 (en) Computer-implemented method for operating a medical imaging device, imaging device, computer program and electronically readable data carrier
DE102006059383A1 (en) Method for producing resulting pictures of investigation object, involves detecting multiple magnetic resonance images of investigation object by magnetic resonance photograph mechanism
DE102013220018A1 (en) Method for calculating inspection parameter for determining examination regions e.g. liver, involves determining examination area in second image through projection of segmented examination area or information derived from first image
DE102014226685A1 (en) A method for identifying coverage areas, methods for graphical representation of coverage areas, computer program and machine-readable medium and imaging device
DE102014223658A1 (en) Method for determining a result image, computer program, machine-readable data carrier and imaging device
DE102020210030A1 (en) Process and device for the visualization of three-dimensional objects
DE102007027738B4 (en) Method and device for visualizing a tomographic volume data set using the gradient magnitude
DE102009052315B4 (en) A method for highlighting local features in anatomical volume representations of vascular structures and computer system for performing this method
DE102008045633B4 (en) Method for improved display of multi-energy CT images and associated computer system
DE10160206A1 (en) Method and device for creating an isolated representation of body structures
DE102019217576B4 (en) Identifying and providing misalignment image features
DE102020213305A1 (en) Process and device for the visualization of three-dimensional objects
DE102012217089A1 (en) Layer representation of volume data
DE102012214604A1 (en) Layer representation of volume data
DE102015202287A1 (en) Method for transforming a vessel structure and computer program, machine-readable medium and imaging device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE