DE102009036942A1 - Method for visualizing skull of patient for e.g. treating diseases of patient, involves producing two-dimensional projection image data by projection of three-dimensional image data on projection plane, and visualizing two-dimensional data - Google Patents

Method for visualizing skull of patient for e.g. treating diseases of patient, involves producing two-dimensional projection image data by projection of three-dimensional image data on projection plane, and visualizing two-dimensional data Download PDF

Info

Publication number
DE102009036942A1
DE102009036942A1 DE102009036942A DE102009036942A DE102009036942A1 DE 102009036942 A1 DE102009036942 A1 DE 102009036942A1 DE 102009036942 A DE102009036942 A DE 102009036942A DE 102009036942 A DE102009036942 A DE 102009036942A DE 102009036942 A1 DE102009036942 A1 DE 102009036942A1
Authority
DE
Germany
Prior art keywords
image data
projection
image
skull
voxels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009036942A
Other languages
German (de)
Other versions
DE102009036942B4 (en
Inventor
Lutz Dr. Gündel
Zvonimir Mostarkic
Helmut Dr. Ringl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102009036942A priority Critical patent/DE102009036942B4/en
Publication of DE102009036942A1 publication Critical patent/DE102009036942A1/en
Application granted granted Critical
Publication of DE102009036942B4 publication Critical patent/DE102009036942B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/08Gnomonic or central projection

Abstract

The method involves determining three-dimensional image data, which comprises only image voxel of the data and represents a cranial bone. An identifier is assigned to the image data, where the identifier of the image voxel identifies respective orthogonal distance from a skull surface in a direction of the interior of the skull. Two-dimensional projection image data is produced by projection of the three-dimensional image data on a projection plane, where an image voxel of the two-dimensional data comprises a predetermined identifier. The two-dimensional data is visualized. The three-dimensional image data is obtained by medical-imaging system e.g. computed tomography (CT) system, magnetic resonance imaging system, positron emission tomography (PET) system, single-photon emission computed tomography (SPECT) system or an Ultrasound System. An independent claim is also included for a device for visualizing a skull, which is imaged in medical three-dimensional image data, of a patient.

Description

Die vorliegende Erfindung liegt auf dem Gebiet der Medizintechnik und beschreibt ein Verfahren und eine Vorrichtung zur Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels eines Patienten.The The present invention is in the field of medical technology and describes a method and apparatus for visualization of a skull imaged in 3D medical image data Patients.

In der modernen medizinischen Diagnostik und Therapie ist die Erfassung von medizinischen 2D- oder 3D-Bilddaten aufgrund ihres hohen Informationsgehaltes von zentraler Bedeutung. Was der behandelnde Arzt oder Radiologe mit eigenen Augen sehen kann, ist für ihn überzeugend. Entsprechend konnten große Fortschritte im Erkennen, Bewerten, Behandeln und Überwachen von Krankheiten erzielt werden, seitdem bildgebende Verfahren zum Einsatz kommen.In modern medical diagnostics and therapy is the detection of medical 2D or 3D image data due to their high information content central. What the attending physician or radiologist Seeing with his own eyes is convincing for him. Correspondingly could size Advances in recognizing, evaluating, treating and monitoring have been achieved by diseases since then Use come.

Medizinische Bilddaten von Patienten können heute mittels bildgebender medizinischer Systeme, wie bspw. Computertomographen (CT), Magnetresonanztomographen (NMRT), Positronen-Emmissions-Tomographen (PET), Single-Photonen-Emissions-Computertomographen (SPECT), oder Sonographiesystemen erzeugt werden. Die Computertomographie ist eine wichtige Weiterentwicklung der klassischen Röntgentechnik, da sie unter Verwendung von Röntgenstrahlung eine überlagerungsfreie Darstellung einzelner Körperschichten ermöglicht. Die Einführung der Magnetresonanztomographie eröffnete in der Medizin viele neue Untersuchungsmöglichkeiten, da hierbei überlagerungsfreie Schichtbilder von Körperteilen generiert werden, die sich durch einen hohen Weichteilkontrast auszeichnen. Ultraschallmethoden zur Abbildung des Körperinneren haben sich in der ärztlichen Diagnosepraxis fest etabliert, ihre Anwendung nimmt aufgrund verbesserter Auflösung sowie der Ungefährlichkeit für den Patienten weiter zu. Auch Gammastrahlen können zu Schichtaufnahmen verwendet werden. Diese Technik wird in der Single-Photon-Emissions-Computertomographie (SPECT) sowie der Positron-Emissions-Tomographie (PET) eingesetzt. Beide Verfahren sind in der medizinischen Forschung von großer Bedeutung.medical Image data of patients can today by means of medical imaging systems, such as computer tomographs (CT), Magnetic Resonance Imaging (NMRT), Positron Emission Tomography (PET), Single Photon Emission Computed Tomography (SPECT), or Sonography systems are generated. The computer tomography is an important advancement of classical X-ray technology, since they are using X-rays a non-overlapping Representation of individual body layers allows. The introduction Magnetic resonance imaging opened in medicine, many new research possibilities, since this non-overlay Slices of body parts be generated, which are characterized by a high soft tissue contrast. Ultrasound methods for imaging the inside of the body have become available in the medical Diagnosis practice firmly established, its application is improving due to improved resolution as well as the harmlessness for the patient further to. Even gamma rays can to be used for tomograms. This technique is used in the Single photon emission computed tomography (SPECT) and positron emission tomography (PET) used. Both procedures are in medical research of greater Importance.

In der Unfalldiagnostik werden die genannten bildgebenden Systeme zur schnellen und aussagekräftigen Befundung eingesetzt. Bei Knochenverletzungen eignet sich insbesondere die Computertomographie zur Befundung. Bei Kopfverletzungen ist es dabei von besonderem Interesse Verletzungen des Schädelknochens zu erkennen. Im Stand der Technik wird hierzu der Kopf eines verunfallten Patienten mit einem CT-System abgetastet. Die dabei ermittelten 3D-CT-Bilddaten werden typischerweise in Form axialer Schnittbilder visualisiert. Nachteilig an diesem Visualisierungsverfahren ist, dass um einen Gesamtüberblick über Verletzungen des Schädelknochens zu erhalten, durch den Stapel der axialen Schnittbilder geblättert werden muss. Das Erkennen von Schädelknochenverletzungen in diesen axialen Schnittbildern setzt eine entsprechende Erfahrung in der Bildinterpretation voraus und führt teilweise zu Fehlbefundungen.In accident diagnostics, the aforementioned imaging systems for fast and meaningful Findings used. In case of bone injuries is particularly suitable the computer tomography for the diagnosis. In head injuries it is thereby of particular interest injuries of the skull bone to recognize. In the prior art, this is the head of a casualty Patients scanned with a CT system. The determined 3D CT image data is typically in the form of axial slice images visualized. A disadvantage of this visualization method is that for an overall view of injuries of the skull bone to be browsed through the stack of axial sectional images got to. Recognizing skull bone injuries in these axial sectional images sets a corresponding experience in the image interpretation ahead and leads in part to erroneous findings.

In einer bekannten alternativen Visualisierung werden die erfassten 3D-CT-Bilddaten, z. B. mittels Volume-Rendering Techniken, derart verarbeitet, dass der Schädel des verunfallten Patienten als 3D-Modell visualisiert wird. Um die gesamte Oberfläche des Schädels anzuzeigen, muss der Schädel interaktiv gedreht werden. Nachteilig an dieser Visualisierung ist der damit einhergehende Rechenaufwand und dass der Schädel nicht auf einen Blick diagnostizierbar ist. Gerade in der Unfalldiagnostik ist jedoch eine Visualisierung, ohne zeitaufwändige Interaktionen, von größter Bedeutung.In a known alternative visualization are the detected 3D CT image data, e.g. B. by means of volume rendering techniques, such processed that the skull of the injured patient is visualized as a 3D model. To the entire surface of the skull must show the skull be rotated interactively. The disadvantage of this visualization is the associated computational effort and that the skull is not diagnosable at a glance. Especially in accident diagnostics however, visualization, without time-consuming interactions, is paramount.

Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung zur Visualisierung eines in 3D-Bilddaten abgebildeten Schädels eines Patienten anzugeben, mit dem die vorstehenden Nachteile des Standes der Technik vermieden werden können. Darüber hinaus soll die Visualisierung des Schädels ohne Interaktion einer Bedienperson möglich sein.task The invention is a method and a device for visualization indicate a skull of a patient displayed in 3D image data, with the foregoing disadvantages of the prior art avoided can be. About that addition, the visualization of the skull without interaction of a Operator possible be.

Die Aufgabe wird gelöst durch das Verfahren gemäß dem Patentanspruch 1 und durch die Vorrichtung gemäß dem nebengeordneten Patentanspruch 11. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sowie der Vorrichtung sind den Unteransprüchen, der weiteren Beschreibung und den Ausführungsbeispielen in Zusammenhang mit den Figuren zu entnehmen.The Task is solved by the method according to the claim 1 and by the device according to the sibling Claim 11. Advantageous embodiments of the method according to the invention and the device are the subclaims, the further description and the embodiments to refer in connection with the figures.

Das erfindungsgemäße Verfahren dient der zweidimensionalen Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels eines Patienten. Unter dem Begriff „Schädel” werden vorliegend alle Knochen des Kopfes (= Schädelknochen) verstanden. Der Schädel des Menschen besteht aus 22 bis 30 miteinander über Knochennähte verbundenen Knochen. Die unterschiedlichen Angaben beruhen darauf, dass sich einerseits das Stirnbein wohl aus zwei Knochenanlagen bildet, aber sich nach dem Wachstumsabschluss meist als einheitlicher Knochen zeigt, andererseits das Zungenbein und die Gehörknöchelchen nur fallweise zu den Schädelknochen gezählt werden.The inventive method serves the two-dimensional visualization of one in medical 3D image data pictured skull a patient. The term "skull" in the present case are all bones of the head (= skull bone) Understood. The skull of man consists of 22 to 30 connected with each other via bone sutures Bone. The different information is based on that on the one hand, the frontal bone probably forms two bone systems, but After completion of growth usually as a uniform bone shows, on the other hand, the hyoid bone and the ossicles only occasionally to the skull bones counted become.

Die 3D-Bilddaten werden vor Beginn des Verfahrens mittels eines bildgebenden medizinischen Systems, bspw. mittels eines NMRT-, PET, SPECT- oder Sonographiesystems, vorzugsweise mittels eines CT-Systems erzeugt, und umfassen eine Vielzahl von Bildvoxeln, denen jeweils eine Bildinformation zugeordnet ist. Bei 3D-Bilddaten eines CT-Systems sind die Bildinformationen durch die pro Bildvoxel erfassten Schwächungswerte in Hounsfield Units (HU) gegeben und können kodiert als Grauwerte oder Farbwerte vorliegen.The 3D image data are generated before the beginning of the method by means of an imaging medical system, for example by means of an NMRT, PET, SPECT or sonography system, preferably by means of a CT system, and comprise a multiplicity of image voxels to which an image information is respectively assigned , For 3D image data of a CT system, the image information is represented by the pro Image voxels of detected attenuation values are given in Hounsfield Units (HU) and can be encoded as gray values or color values.

Das erfindungsgemäße Verfahren umfasst folgende Verfahrensschritte.The inventive method includes the following process steps.

Im Schritt 1.1. erfolgt ein Bereitstellen der 3D-Bilddaten, bspw. auf einem Speichermedium bzw. im Arbeitsspeicher einer Bildverarbeitungseinheit.in the Step 1.1. the provision of the 3D image data takes place, for example a storage medium or in the working memory of an image processing unit.

Im Schritt 1.2. werden in den bereitgestellten 3D-Bilddaten diejenigen Bildvoxel ermittelt, die Schädelknochen repräsentieren. Mit Schädelknochen ist an dieser Stelle das Material bzw. die qualitative Eigenschaft „Schädelknochen” gemeint. Die Gesamtheit der so ermittelten Bildvoxel bildet die „ersten Bilddaten”. Vorzugsweise erfolgt das Ermitteln der vorstehenden Bildvoxel durch entsprechendes Segmentieren der 3D-Bilddaten. Für das erfindungsgemäße Verfahren ist erforderlich, dass insbesondere die Oberfläche des Schädels exakt segmentiert wird. Hierzu können die im Stand der Technik bekannten Segmentierungsverfahren weitgehend angewendet werden. Sogar eine einfache, auf Schwellwerten basierende Segmentierung liefert bereits gute Ergebnisse für die dabei gewonnenen ersten Bilddaten. Vorzugsweise wird eine solche Schwellwert-basierte Segmentierung auch verwendet, um den Rechenaufwand zu minimieren.in the Step 1.2. are the ones in the provided 3D image data Image voxel detects the skull bones represent. With skull bones is meant at this point the material or the qualitative property "skull bones". The totality of the image voxels thus determined forms the "first image data". Preferably the determination of the above image voxels is carried out by corresponding Segment the 3D image data. For the inventive method it is necessary that in particular the surface of the skull is exactly segmented. For this can the known in the art segmentation method largely be applied. Even a simple, threshold-based one Segmentation is already delivering good results for the first won Image data. Preferably, such a threshold-based segmentation also used to minimize the computational burden.

Im Schritt 1.3. wird Bildvoxeln der ersten 3D-Bilddaten eine Kennung, bspw. in Form eines Wertes oder eines Index zugeordnet. Diese Kennung kennzeichnet den orthogonalen Abstand eines jeweiligen Bildvoxels von der in den ersten 3D-Bilddaten abgebildeten Schädeloberfläche in Richtung Schädelinneres. Als Kennung können den Bildvoxeln bspw. von außen (= Schädeloberfläche) nach innen (bspw. geometrischer Mittelpunkt des Schädels) abfallende Werte zugewiesen werden. Diejenigen Bildvoxel, die die Schädeloberfläche repräsentieren, erhalten so bspw. den Wert 0 zugeordnet. Die in Richtung Schädelinneres anschließende Voxelschicht erhält den Wert –1, die daran anschließende Voxelschicht den Wert –2 usw., zugeordnet. Somit werden den einzelnen Bildvoxeln Knochen-Tiefeninformationen zugewiesen, die es anschließend ermöglichen, Bildvoxel mit einer vorgegebenen Knochentiefe auszuwählen. Insbesondere ist es somit möglich, Bildvoxel in den ersten 3D-Bilddaten auszuwählen, die eine vorgebbare Schicht des Schädelknochens repräsentieren, bspw. die äußeren Schädelvoxel. Vorzugsweise wird allen Bildvoxeln der ersten 3D-Bilddaten eine entsprechende Kennung zugewiesen.in the Step 1.3. Image voxels of the first 3D image data becomes an identifier, For example, assigned in the form of a value or an index. This identifier identifies the orthogonal distance of a respective image voxel from the in Skull surface depicted in the direction of the skull inside the first 3D image data. As an identifier can the image voxels eg. From the outside (= Skull surface) after inside (eg geometric center of the skull) assigned decreasing values become. Those image voxels that represent the skull surface are obtained, for example. assigned the value 0. The voxel layer following the cranial interior receives the value -1, the subsequent one Voxel layer is the value -2 etc., assigned. Thus, the individual image voxels become bone depth information assigned to it afterwards enable image voxels to select with a given bone depth. In particular, it is thus possible, Select image voxels in the first 3D image data that has a predeterminable layer of the skull bone represent, eg the outer skull voxels. Preferably, all image voxels of the first 3D image data are given a corresponding one ID assigned.

Im Schritt 1.4. wird zunächst eine Kennung vorgegeben. Dies kann durch eine Bedienperson, d. h. manuell erfolgen. Vorzugsweise erfolgt die Vorgabe der Kennung jedoch automatisiert, indem die Kennung bspw. in einer Speichereinheit hinterlegt ist und automatisiert, d. h. programmgesteuert, abgerufen wird. Aufgrund der vorgegebenen Kennung werden nun diejenigen Bildvoxel in den ersten Bilddaten ermittelt, die durch diese Kennung gekennzeichnet sind. Wie vorstehend beschrieben, entsprechen die ausgewählten Bildvoxel, einer der Kennung entsprechenden Schicht des Schädelknochens. Alle ausgewählten Bildvoxel werden anschließend im Endergebnis auf eine virtuelle Projektionsebene projiziert. Auf der virtuellen Projektionsebene entstehen dadurch 2D-Projektionsbilddaten mit einer Vielzahl von Bildpixeln. Unter Projektion bzw. projizieren wird hier vorzugsweise eine injektive Abbildung verstanden, die Bildpunkte des dreidimensionalen Raumes (vorliegend die Bildvoxel mit der vorgegebenen Kennung) auf zweidimensionale Bildpunkte (Pixel) der virtuellen Projektionsfläche abbildet. Die Gesamtheit der so auf der Projektionsfläche abgebildeten Bildpunkte ergibt das Projektionsbild.in the Step 1.4. will be first an identifier specified. This can be done by an operator, i. H. done manually. Preferably, however, the specification of the identifier takes place automated, for example, by the identifier in a memory unit is deposited and automated, d. H. programmatically. Due to the given identifier now those image voxels in the first image data identified by this identifier. As described above, the selected image voxels correspond to one of the identifier corresponding layer of the skull bone. All selected image voxels will be afterwards in the end projected onto a virtual projection plane. On The virtual projection plane thereby produces 2D projection image data with a variety of image pixels. Under projection or project is here preferably understood an injective mapping, the Pixels of the three-dimensional space (in this case the image voxels with the given identifier) to two-dimensional pixels (pixels) the virtual projection screen maps. The entirety of the so pictured on the projection screen Pixels gives the projection image.

Der Projektion im Schritt 1.4. liegt die Motivation zugrunde, dreidimensionale Informationen letztlich zweidimensional darzustellen. Derartige Projektionen sind beispielsweise in der Kartographie bekannt, wobei man dort Informationen, die an einer gekrümmten dreidimensionalen Oberfläche (Erdoberfläche) angeordnet sind, auf die flache zweidimensionale Karte überträgt. Grundsätzlich kommen alle in der Kartographie bekannten Projektionsalgorithmen auch für den Schritt 1.4. in Betracht. Der Leser wird hierzu auf einschlägige Literatur verwiesen.Of the Projection in step 1.4. motivation is based, three-dimensional To present information in two dimensions. such Projections are known for example in cartography, wherein one there information arranged on a curved three-dimensional surface (earth's surface) Are transferred to the flat two-dimensional map. Basically, everyone comes in cartography known projection algorithms also for the step 1.4. into consideration. The reader is referred to relevant literature.

In einer vorteilhaften Ausführungsvariante des erfindungsgemäßen Verfahrens umfasst die Projektion im Schritt 1.4. zumindest zwei Projektionsschritte, wobei in einem ersten Projektionsschritt die ersten 3D-Bilddaten, deren Bildvoxel die vorgegebene Kennung aufweisen, auf eine virtuelle erste Projektionsfläche projiziert werden, bevor sie in einem zweiten Projektionsschritt von dort auf die virtuelle Projektionsebene projiziert werden. Vorzugsweise ist die virtuelle erste Projektionsfläche eine Zylinderoberfläche. Alternativ kann die virtuelle erste Projektionsfläche eine Kugel-, Ellipsoid- oder Kegelfläche sein.In an advantageous embodiment of the inventive method includes the projection in step 1.4. at least two projection steps, wherein in a first projection step the first 3D image data, whose image voxels have the predetermined identifier, to a virtual first projection surface be projected before moving on to a second projection step projected from there to the virtual projection plane. Preferably the virtual first projection surface is a cylinder surface. alternative For example, the virtual first projection surface may be a sphere, ellipsoid, or conical surface.

Für die vorstehend angegebenen zwei Projektionsschritte wird in vorteilhafter Weise eine Zylinderprojektion gekoppelt mit einer stereographischen bzw. gnomonischen Projektion des oberen Schädelabschnitts auf die Zylinderdeckfläche verwendet. Dabei werden erste 3D-Bilddaten zunächst auf eine virtuelle Zylinderoberfläche und von dort anschließend in dem zweiten Projektionsschritt auf die virtuelle Projektionsebene abgebildet bzw. „aufgerollt”. Die Flächenverzerrung des oberen Schädelabschnitts, nach dem „Aufrollen” der Zylinderdeckfläche passend zur Zylindermantelfläche, wird dabei in Kauf genommen. Die Verzerrung kann vermindert werden, indem die kreisförmige Zylinderdeckfläche als Kreis beibehalten und oberhalb des „aufgerollten” ebenen Zylindermantels dargestellt wird.For the above two projection steps, a cylinder projection coupled with a stereographic or gnomonic projection of the upper skull section onto the cylinder top surface is advantageously used. In this case, first 3D image data are first imaged or "rolled up" onto a virtual cylindrical surface and then, in the second projection step, onto the virtual projection plane. The surface distortion of the upper skull section, after the "rolling up" of the cylinder top surface matching the cylindrical surface, is accepted. The distortion can be reduced by maintaining the circular cylinder top surface as a circle and presenting it above the "rolled up" flat cylinder jacket.

Grundsätzlich sind im Schritt 1.4. Projektionen mit drei oder mehr Projektionsschritten denkbar. Dabei werden jedoch im Endergebnis immer erste 3D-Bilddaten als 2D-Projektionsbilddaten auf die virtuelle Projektionsebene abgebildet. Diese Abbildung bzw. Projektion erfolgt vorzugsweise injektiv. Unter „injektiv” wird allgemein verstanden, dass jedes Element einer Zielmenge höchstens einmal als Funktionswert angenommen wird. Es werden also vorliegend keine zwei verschiedenen Elemente der Definitionsmenge (Bildwerte von Voxeln der ersten 3D-Bilddaten) auf ein und dasselbe Element der Zielmenge (Pixel der 2D-Projektionsbilddaten) abgebildet. Allgemein gesprochen, kann vorliegend unter der dem Begriff „Projektion” im Schritt 1.4. jede Abbildung der ersten 3D-Bilddaten, die die vorgegebene Kennung aufweisen, auf die virtuelle Projektionsebene, über welche Zwischenschritte auch immer, verstanden werden. Die Projektion kann bspw. einer stereographischen Projektion, einer gnomonischen Projektion, einer Zylinderprojektion oder eine Kombination daraus entsprechen.Basically in step 1.4. Projections with three or more projection steps conceivable. However, the final result will always be the first 3D image data mapped as 2D projection image data on the virtual projection plane. This imaging or projection is preferably injective. Under "injective" becomes common understood that each element of a target set at most once as a function value Is accepted. So there are no two different ones Elements of the definition set (image values of voxels of the first 3D image data) on one and the same element of the target quantity (pixels of the 2D projection image data) displayed. Generally speaking, in the present case under the Term "projection" in step 1.4. each map of the first 3D image data containing the given identifier have, on the virtual projection level, about which intermediate steps Whatever, be understood. The projection can, for example, a stereographic projection, a gnomonic projection, a cylindrical projection or a Combination of this correspond.

Im Schritt 1.5. erfolgt schließlich ein Visualisieren der erzeugten 2D-Projektionsbilddaten. Zur Visualisierung werden die im Stand der Technik bekannten Visualisierungsmittel, wie bspw. Bildschirme, Monitore, Projektoren, Drucker, Printer etc. genutzt.in the Step 1.5. finally done a visualization of the generated 2D projection image data. For visualization are the visualization agents known in the art, such as screens, monitors, projectors, printers, printers, etc. used.

Mit dem erfindungsgemäßen Verfahren ist es möglich, den gesamten Schädelknochen schichtweise in einem einzigen Bild darzustellen. Verletzungen des Schädelknochens können so unmittelbar ohne Interaktion eines Benutzers erkannt werden. Die Gefahr von Falschbefundungen kann erheblich reduziert werden. Das erfindungsgemäße Verfahren erfordert einen deutlich geringeren Rechenaufwand, als bspw. eine Visualisierung des Schädels als 3D-Modell.With the method according to the invention Is it possible, the entire skull bone layered in a single image. Injuries of the skull bone can be recognized immediately without user interaction. The risk of false reports can be significantly reduced. The inventive method requires a significantly lower computational effort than, for example, a Visualization of the skull as a 3D model.

Um 2D-Projektionsbilddaten für mehrere Tiefenschichten des Schädelknochens zu erzeugen, kann der Schritt 1.4. für jeweils verschieden vorgegebene Kennungen wiederholt ausgeführt werden. Aus den dabei erzeugten 2D-Projektionsdaten zu den verschiedenen Tiefenschichten kann mittels geeigneter Kombination der entsprechenden 2D-Projektionsbilddaten, vorzugsweise mittels einer Maximum-Intensity-Projektion, ein resultierendes Ergebnisbild erzeugt werden. So kann ein befundender Arzt durch verschieden tiefe Schichten des Schädelknochens „blättern”, wobei die jeweilige Schicht für den gesamten Schädelknochen visualisiert wird. Auf diese Weise lassen sich Frakturen, die sich in unterschiedlichen Knochentiefen unterschiedlich äußern, rasch erkennen.Around 2D projection image data for several deep layers of the skull bone can generate the step 1.4. for each different predetermined Identifiers repeatedly executed become. From the generated 2D projection data to the various Depth layers can be achieved by suitable combination of the corresponding 2D projection image data, preferably by means of a maximum intensity projection, a resulting result image can be generated. So can a finder Doctor "scroll" through different depths of the skull bone, wherein the respective layer for the entire skull bone is visualized. In this way fractures can be formed express differently in different bone depths, recognize quickly.

In einer weiteren Ausführungsform werden die Schritte 1.4. und 1.5. für jeweils neu vorgegebene Kennungen wiederholt ausgeführt. Dabei werden die jeweils aktuell erzeugten 2D-Projektionsbilddaten visualisiert, d. h. angezeigt. Der Nutzer kann in diesem Fall interaktiv, d. h. durch Vorgabe einer neuen Kennung, die anzuzeigende Tiefenschicht des Schädels auswählen.In a further embodiment become steps 1.4. and 1.5. for each newly specified identifiers repeatedly executed. In this case, the currently generated 2D projection image data are visualized, i. H. displayed. In this case, the user can interactively, i. H. by Specification of a new identifier, the depth layer to be displayed Select skull.

In einer weiteren besonders bevorzugten Variante des erfindungsgemäßen Verfahrens werden nach dem Schritt 1.4. und vor dem Schritt 1.5. folgende Schritte 10.1. und 10.2. ausgeführt.In a further particularly preferred variant of the method according to the invention become after step 1.4. and before step 1.5. following steps 10.1. and 10.2. executed.

Im Schritt 10.1. erfolgt ein Ermitteln einer konvexen Hülle für Bildpixel der auf die virtuelle Projektionsebene (E) projizierten 2D-Projektionsbilddaten. Der hierbei verwendete Begriff der „konvexen Hülle” basiert auf dem Begriff der „Konvexität” und lässt sich wie folgt erläutern. Gegeben seien n Punkte im d-dimensionalen Raum. Eine Menge M der n Punkte ist konvex, wenn mit je zwei Punkten der Menge M auch die Verbindungsstrecke ganz in der Menge M liegt. Die konvexe Hülle der Menge M ist die kleinste konvexe Menge, in der M enthalten ist. Stellt man sich bspw. die Punkte der Menge M als Nägel vor, die teilweise in einem Brett stecken, dann erhält man den Rand der konvexen Hülle, indem man ein Gummiband um die Nägel spannt.in the Step 10.1. there is a determination of a convex hull for image pixels the 2D projection image data projected on the virtual projection plane (E). The term "convex hull" used here is based on the concept of "convexity" and lets itself explain as follows. Given n points in the d-dimensional space. A lot of M's n points is convex, if with two points of the set M also the Link is located entirely in the set M. The convex hull of the Quantity M is the smallest convex amount in which M is contained. provides For example, imagine the points of the set M as nails, some in one Board stuck, then receives the edge of the convex hull, by putting a rubber band around the nails stressed.

Im Schritt 10.2. wird für jedes Bildpixel innerhalb der konvexen Hülle ein zugehöriges Bildvoxel in den ersten 3D-Bilddaten mittels einer zur Projektion von Schritt 1.4. inversen Rückprojektion ermittelt und eine Bildinformation des zugehörigen Bildvoxels auf das Bildpixel der projizierten 2D-Projektionsbilddaten übertragen. Damit wird einerseits das Projektionsbild vervollständigt, andererseits werden Bildfehler minimiert, die durch unterschiedlich große Bildvoxel- und/-oder Pixelgeometrien bei der Projektion im Schritt 1.4. hervorgerufen werden.in the Step 10.2. is for each image pixel within the convex hull is an associated image voxel in the first 3D image data by means of one for the projection of step 1.4. inverse rear projection determines and image information of the associated image voxel on the image pixel of the projected 2D projection image data. This will be on the one hand completes the projection image, On the other hand, aberrations are minimized by different size Image Voxels and / or Pixel geometries in the projection in step 1.4. caused become.

Die die Vorrichtung betreffende Aufgabe wird durch eine Vorrichtung gemäß Patentanspruch 11 erfüllt. Die Vorrichtung zur Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels eines Patienten, umfasst ein Speichermedium zur Bereitstellung der 3D-Bilddaten, ein erstes Auswertemodul, mit dem erste 3D-Bilddaten ermittelbar sind, wobei die ersten 3D-Bilddaten nur diejenigen Bildvoxel der 3D-Bilddaten umfassen, die Schädelknochen repräsentieren, ein zweites Auswertemodul, mit dem Bildvoxeln der ersten 3D-Bilddaten eine Kennung zuordenbar ist, wobei die Kennung der Bildvoxel ihren jeweiligen orthogonalen Abstand von einer in den ersten 3D-Bilddaten abgebildeten Schädeloberfläche in Richtung Schädelinneres kennzeichnet, ein drittes Auswertemodul, mit dem 2D-Projektionsbilddaten durch Projektion der ersten 3D-Bilddaten, deren Bildvoxel eine vorgegebene Kennung aufweisen, auf einer virtuelle Projektionsebene erzeugbar sind, und eine Visualisierungseinheit, mit der die 2D-Projektionsbilddaten visualisierbar sind.The object relating to the device is achieved by a device according to claim 11. The device for visualizing a skull of a patient depicted in medical 3D image data comprises a storage medium for providing the 3D image data, a first evaluation module with which first 3D image data can be determined, wherein the first 3D image data only those image voxels of the 3D image data. Image data representing cranial bones, a second evaluation module to associate image voxels of the first 3D image data with an identifier, wherein the identifier of the image voxels identifies its respective orthogonal distance from a cranial surface imaged in the first 3D image data towards the cranial interior, a third one Evaluation module, with the 2D projection image data by projection of the first 3D image data whose image voxels have a predetermined identifier can be generated on a virtual projection plane, and a visualization unit with which the 2D projection image data can be visualized.

In einer besonders bevorzugten Ausführungsform umfasst die erfindungsgemäße Vorrichtung zusätzlich ein viertes Auswertemodul, mit dem eine konvexe Hülle für Bildpixel der auf die virtuelle Projektionsebene projizierten 2D-Projektionsbilddaten ermittelbar ist, und ein fünftes Auswertemodul, mit dem für jedes Bildpixel der 2D-Projektionsbilddaten innerhalb der konvexen Hülle ein zugehörigen Bildvoxels in den ersten Bilddaten, die die vorgegebene Kennung aufweisen, mittels einer zur Projektion inversen Rückprojektion ermittelbar und eine Bildinformation des zugehörigen Bildvoxels auf das Bildpixel der projizierten 2D-Projektionsbilddaten übertragbar ist.In a particularly preferred embodiment includes the device according to the invention additionally a fourth evaluation module, with which a convex hull for image pixels the 2D projection image data projected on the virtual projection plane is determinable, and a fifth Evaluation module with which for each image pixel of the 2D projection image data within the convex Shell associated image voxels in the first image data having the predetermined identifier, can be determined by means of an inverse back projection for projection and an image information of the associated Image voxels transferable to the image pixel of the projected 2D projection image data is.

Die im Hinblick auf das Verfahren vorstehend aufgeführten Vorteile, bevorzugten Ausführungsformen sowie Beschreibungen lassen sich auf die erfindungsgemäße Vorrichtung sinngemäß übertragen. Es wird daher auf die vorstehenden Ausführungen verwiesen.The in view of the method advantages listed above, preferred embodiments as well as descriptions can be applied to the device according to the invention transmitted analogously. It Reference is therefore made to the above statements.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand von Figuren weiter erläutert. Es zeigen:embodiments The invention will be explained below with reference to figures. Show it:

1 einen schematischen Ablauf eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahrens, 1 a schematic sequence of a first embodiment of the method according to the invention,

2 eine stereographische Projektion der zu einer Schädelknochenschicht (identische Kennung der Bildvoxel) zugehörigen Bildvoxel in eine oberhalb des Schädels liegende Projektionsebene E parallel zur x-y-Ebene der ersten Bilddaten gemäß erstem Ausführungsbeispiel, 2 a stereographic projection of the image voxels belonging to a cranial bone layer (identical identification of the image voxels) in a projection plane E lying above the skull parallel to the xy plane of the first image data according to the first exemplary embodiment,

3 ein Projektionsbild nach Durchlauf der Schritte 1.4. und 1.5. gemäß erstem Ausführungsbeispiel, 3 a projection image after passing through steps 1.4. and 1.5. according to the first embodiment,

4 ein Projektionsbild nach Durchlauf der Schritte 1.4., 10.1., 10.2. und 1.5. gemäß erstem Ausführungsbeispiel, 4 a projection image after passing through the steps 1.4., 10.1., 10.2. and 1.5. according to the first embodiment,

5 einen schematischer Ablauf eines zweiten Ausführungsbeispiels des erfindungsgemäßen Verfahrens, 5 a schematic sequence of a second embodiment of the method according to the invention,

6 einen ersten Projektionsschritt bei dem die einer Schädelknochenschicht (identische Kennung der Bildvoxel) zugehörigen Bildvoxel auf einen den Schädel umschließenden virtuellen Zylinder projiziert werden, gemäß zweitem Ausführungsbeispiel, 6 a first projection step in which the image voxels associated with a skull bone layer (identical identification of the image voxels) are projected onto a virtual cylinder enclosing the skull, in accordance with the second exemplary embodiment,

7 einen zweiten Projektionsschritt, bei dem Abbilden („Aufrollen”) der Projektionsdaten auf dem virtuellen Zylinder auf die Projektionsebene E erfolgt, gemäß zweitem Ausführungsbeispiel, 7 a second projection step, in which the projection ("rolling up") of the projection data on the virtual cylinder onto the projection plane E takes place, according to the second exemplary embodiment,

8 ein Projektionsbild nach Durchlauf der Schritte 1.4., 10.1., 10.2. und 1.5. mittels Zylinderprojektion, und 8th a projection image after passing through the steps 1.4., 10.1., 10.2. and 1.5. using cylinder projection, and

9 einen schematischen Aufbau einer erfindungsgemäßen Vorrichtung. 9 a schematic structure of a device according to the invention.

Die 14 beziehen sich auf ein erstes Ausführungsbeispiel des erfindungsgemäßen Verfahrens. 1 zeigt den Verfahrensablauf mit den Verfahrensschritten 101108. Im Schritt 101 wird zunächst ein medizinischer 3D-Bilddatensatz durch 3D-Abtasten des Kopfes eines Unfallpatienten von einem CT-System erzeugt. In dem 3D-Bilddatensatz sind somit u. a. die Schädelknochen des Patienten abgebildet. Der Schritt 101 dient zur Vorbereitung des eigentlichen erfindungsgemäßen Verfahrensablaufs. Im Schritt 102 erfolgt nun zunächst ein Einlesen des zuvor erzeugten medizinischen 3D-Bilddatensatzes in den Arbeitsspeicher eines Bildverarbeitungsrechners. In Schritt 103 wird der 3D-Bilddatensatz segmentiert. Dabei werden in dem 3D-Bilddatensatz erste 3D-Bilddaten ermittelt, deren Bildvoxel jeweils Schädelknochenmaterial repräsentieren. Die Segmentierung erfolgt mittels bekannter Segmentierungsverfahren. Besonders rechenzeitsparend sind Schwellwert-basierte Segmentierungsverfahren, wobei die äußeren Bildvoxel des Schädelknochens 1 exakt segmentiert werden müssen. Im nächsten Schritt 104 wird eine Schädeldistanzmaske erzeugt. Hierzu werden den im vorherigen Schritt bestimmten Bildvoxeln von außen nach innen abfallende Kennwerte zugewiesen, die deren jeweiligen orthogonalen Abstand von einer in den ersten Bilddaten abgebildeten Schädeloberfläche (= Schädelaußenseite) in Richtung Schädelinneres kennzeichnen. Hierdurch wird eine Tiefeninformation erzeugt, so dass bei Bedarf mehrere planare Projektionsbilder des Schädelknochens von verschiedenen „Knochentiefen” erzeugt und visualisiert werden können. Im Folgenden soll ein Bild der äußeren Schädelvoxel, d. h. der Schädeloberfläche, erzeugt werden. Es werden für die weiteren Schritte daher nur diejenigen Bildvoxel der ersten Bilddaten herangezogen, deren Kennwert die äußere Schädelvoxelschicht kennzeichnet. Es folgt in Schritt 105 eine stereographische Projektion der äußeren Schädelvoxel auf die virtuelle Projektionsebene E. Diese Projektion bildet also diejenigen ersten 3D-Bilddaten, die die vorgegebene Kennung für die äußere Schädeloberfläche aufweisen, auf 2D-Projektionsbilddaten ab. 2 erläutert hierzu schematisch den der Projektion zugrundeliegenden Algorithmus der stereographischen Projektion. Der in den Bildvoxeln der ersten Bilddaten abgebildete Schädelknochen 1 ist in der Bildmitte mit seiner rechten Schädelhälfte dargestellt. Der Projektionsalgorithmus bildet nun die äußeren Bildvoxel der ersten 3D-Bilddaten ausgehend von dem Projektionszentrum P0 auf die virtuelle Projektionsebene E ab. Diese injektive Projektion in die Projektionsebene E ist in 2 für zwei Bildvoxel anhand der gestrichelten Abbildungspfeile dargestellt. Der hierbei zugrundeliegende Projektionsalgorithmus entspricht der stereographischen Projektion in der Kartographie.The 1 - 4 refer to a first embodiment of the method according to the invention. 1 shows the procedure with the method steps 101 - 108 , In step 101 First, a 3D medical image data set is generated by 3D scanning of the head of an accident patient from a CT system. In the 3D image data set thus, among other things, the cranial bones of the patient are displayed. The step 101 serves to prepare the actual process sequence according to the invention. In step 102 Now, first of all, the previously generated medical 3D image data record is read into the main memory of an image processing computer. In step 103 the 3D image data set is segmented. In this case, first 3D image data whose image voxels each represent cranial bone material are determined in the 3D image data set. The segmentation takes place by means of known segmentation methods. Especially time-saving are threshold-based segmentation methods, wherein the outer image voxels of the cranial bone 1 must be accurately segmented. In the next step 104 a skull distance mask is generated. For this purpose, the image voxels determined in the previous step are assigned from outside to inside decreasing characteristic values which characterize their respective orthogonal distance from a skull surface (= skull outside) in the direction of the skull's heart depicted in the first image data. As a result, a depth information is generated, so that if necessary several planar projection images of the skull bone of different "bone depths" can be generated and visualized. In the following, an image of the outer skull voxel, ie the skull surface, will be generated. For the further steps, therefore, only those image voxels of the first image data whose characteristic characterizes the outer skull voxel layer are used. It follows in step 105 a stereographic projection of the outer skull voxels on the virtual projection plane E. Thus, this projection maps those first 3D image data having the predetermined identifier for the outer skull surface, on 2D projection image data. 2 explains schematically the underlying the projection Algorithm of stereographic projection. The skull bone depicted in the image voxels of the first image data 1 is shown in the center of the picture with its right half of the skull. The projection algorithm now images the outer image voxels of the first 3D image data starting from the projection center P 0 onto the virtual projection plane E. This injective projection into the projection plane E is in 2 for two image voxels on the basis of the dashed illustration arrows. The underlying projection algorithm corresponds to the stereographic projection in cartography.

Die nach der Projektion aller äußeren Schädelvoxel in die virtuelle Projektionsebene E erzeugten 2D-Projektionsbilddaten können bereits über den Verfahrensverlauf 109 und den Schritt 108 (Visualisierung des 2D-Projektionsbilddaten) als Projektionsbild visualisiert werden. 3 zeigt ein solches Projektionsergebnis nach Durchlauf der Schritte 105 (1.4.) und 108 (1.5.) via 109 gemäß dem ersten Ausführungsbeispiel. Bereits in diesem ersten Projektionsbild ist eine Schädelfraktur 2 im rechten oberen Teil des Projektionsbildes erkennbar.The 2D projection image data generated after the projection of all the outer skull voxels into the virtual projection plane E can already be determined via the course of the process 109 and the step 108 (Visualization of the 2D projection image data) are visualized as a projection image. 3 shows such a projection result after passing through the steps 105 (1.4.) And 108 (1.5.) Via 109 according to the first embodiment. Already in this first projection image is a skull fracture 2 recognizable in the upper right part of the projection image.

Zu einer Verbesserung des Projektionsbildes werden nach dem Schritt 105 (1.4.) und vor dem Schritt 108 (1.5.) die Verarbeitungsschritte 106 (10.1.) und 107 (10.2.) durchgeführt. Anmerkung: Die vorstehend in Klammern gesetzte Nummerierung gibt die entsprechende Nummerierung der Schritte in den Ansprüchen an. Als Ergebnis zeigt 4 ein durch die Schritte 106 und 107 verbessertes Projektionsbild, gemäß dem ersten Ausführungsbeispiel. Für diese Verbesserung werden die im vorhergehenden Schritt 105 durch die stereographische Projektion erzeugten, in der virtuellen Projektionsebene E auseinander liegenden Bildpunkte (Pixel der 2D-Projektionsbilddaten) benutzt, um eine beschleunigte endgültige Bildberechnung der stereografischen Projektion durchzuführen. Dazu wird in Schritt 106 von den auf die Projektionsebene E projizierten Schädelvoxeln eine morphologische konvexe Hülle ermittelt. Mittels dieser konvexen Hülle wird im Schritt 107 ”senken getrieben” für jedes Pixel innerhalb der konvexen Hülle auf der Projektionsebene E eine Gerade g im Raum bestimmt, die durch das jeweilige Pixel und den Projektionsfokus P0 verläuft (vgl. 2). Der Schnittpunkt der Gerade g mit dem äußeren Schädelknochenvoxel wird dazu herangezogen, um die Bildinformation des jeweiligen Schnittpunktvoxels auf das jeweilige Pixel zu übertragen, um so ein korrektes Erscheinungsbild der Projektion zu erzielen. Da nur die Pixel in der Projektionsebene E betrachtet werden, die sich innerhalb der konvexen Hülle des 2D-Projektionsbilddaten befinden, wird die Berechnung beschleunigt, da Pixel für die Schnittpunktbestimmung mit dem Schädelknochen 1 ausgelassen werden, die keinen Schnittpunkt ergeben und auf die somit keine Schädelvoxel projiziert werden. Die derart korrigierten 2D-Projektionsbilddaten werden in Schritt 108 visualisiert (vgl. 4).To improve the projection image after the step 105 (1.4.) And before the step 108 (1.5.) The processing steps 106 (10.1.) And 107 (10.2.). Note: The numbering in parentheses above indicates the corresponding numbering of the steps in the claims. As a result shows 4 one through the steps 106 and 107 improved projection image, according to the first embodiment. For this improvement, the previous step 105 used by the stereographic projection pixels (pixels of the 2D projection image data) spaced apart in the virtual projection plane E used to perform an accelerated final image calculation of the stereographic projection. This will be done in step 106 from the projected on the projection plane E skull voxels determined a morphological convex hull. By means of this convex hull is in step 107 "Lower drive" for each pixel within the convex hull on the projection plane E determines a straight line g in the space that runs through the respective pixel and the projection focus P0 (cf. 2 ). The intersection of the straight line g with the outer skull bone voxel is used to transmit the image information of the respective intersection voxel to the respective pixel in order to achieve a correct appearance of the projection. Since only the pixels in the projection plane E that are within the convex hull of the 2D projection image data are considered, the calculation is accelerated since pixels for the intersection determination with the cranial bone 1 are omitted, which do not result in an intersection and on which thus no skull voxels are projected. The thus corrected 2D projection image data will be in step 108 visualized (cf. 4 ).

Die 58 dienen der Erläuterung eines zweiten Ausführungsbeispiels. Das zweite Ausführungsbeispiel basiert auf dem ersten Ausführungsbeispiel. 5 zeigt den schematischen Verfahrensablauf mit den Verfahrensschritten 201208. Die Verfahrensschritte 201204 und 206208 entsprechen den Verfahrensschritten 101104 und 106108 des ersten Ausführungsbeispiels und der Verfahrensverlauf 209 ist analog zu dem Verfahrensverlauf 109, so dass zu deren Beschreibung auf das erste Ausführungsbeispiel verwiesen wird. Im Unterschied zum ersten Ausführungsbeispiel erfolgt nun die Erzeugung von 2D-Projektionsbilddaten durch eine Projektion mit zwei Projektionsschritten 205a und 205b.The 5 - 8th serve to explain a second embodiment. The second embodiment is based on the first embodiment. 5 shows the schematic procedure with the method steps 201 - 208 , The process steps 201 - 204 and 206 - 208 correspond to the process steps 101 - 104 and 106 - 108 of the first embodiment and the course of the process 209 is analogous to the process 109 , so that reference is made to the description of the first embodiment. In contrast to the first exemplary embodiment, the generation of 2D projection image data now takes place by means of a projection with two projection steps 205a and 205b ,

In dem Verfahrensschritt 205a werden die äußeren Schädelvoxel der ersten 3D-Bilddaten (vgl. Ausführungsbeispiel 1) nun auf eine virtuelle Zylinderoberfläche P projiziert. 6 erläutert hierzu schematisch den Projektionsalgorithmus der hierfür angewendeten Zylinderprojektion. Der in den Bildvoxeln der ersten Bilddaten abgebildete Schädelknochen 1 ist in der Bildmitte mit seiner rechten Schädelhälfte dargestellt. Der Projektionsalgorithmus bildet nun die äußeren Bildvoxel ausgehend von dem Projektionszentrum P0 auf die Zylinderoberfläche P ab. Dabei werden die Bildvoxel durch eine stereographische Projektion auf den Zylindermantel bzw. die Zylinderdeckfläche projiziert. Diese injektive Projektion auf die Zylinderoberfläche ist in 6 für drei Bildvoxel anhand der gestrichelten Abbildungspfeile dargestellt. Der hierbei zugrundeliegende Projektionsalgorithmus ist an die Mercator-Projektion in der Kartographie angelehnt, die dort der Projektion des Erdglobus auf eine Ebene dient.In the process step 205a The outer skull voxels of the first 3D image data (see Embodiment 1) are now projected onto a virtual cylinder surface P. 6 explains schematically the projection algorithm of the cylindrical projection used for this purpose. The skull bone depicted in the image voxels of the first image data 1 is shown in the center of the picture with its right half of the skull. The projection algorithm now images the outer image voxels starting from the projection center P 0 onto the cylinder surface P. The image voxels are projected by a stereographic projection onto the cylinder jacket or cylinder top surface. This injective projection onto the cylinder surface is in 6 for three image voxels illustrated by the dashed figure arrows. The underlying projection algorithm is based on the Mercator projection in cartography, which there serves to project the terrestrial globe on a plane.

In Verfahrensschritt 205b werden die zuvor auf die virtuelle Zylinderoberfläche projizierten ersten 3D-Bilddaten von dort auf die virtuelle Projektionsebene E abgebildet/projiziert. Diese zweite Projektion erzeugt schließlich die 2D-Projektionsbilddaten, die entweder über den Verfahrensweg 209 direkt visualisierbar sind, oder die zuvor über die Verfahrensschritte 206 und 207 analog zum ersten Ausführungsbeispiel optimiert werden können.In process step 205b the first 3D image data projected beforehand onto the virtual cylinder surface are then imaged / projected onto the virtual projection plane E from there. This second projection finally generates the 2D projection image data, either through the process path 209 can be visualized directly, or the previously on the process steps 206 and 207 can be optimized analogously to the first embodiment.

7 erläutert zu Verfahrensschritt 205b schematisch das Abbilden eines Zylinders auf eine Ebene. Im oberen Teil der Darstellung ist der Zylinder mit seiner aufgeschnittenen Zylindermantelfläche der Höhe h sowie seiner nach oben angehobenen Zylinderdeckfläche dargestellt. Die Zylinderdeckfläche weist einen Radius rad und einen Mittelpunkt m_df auf. Sich entsprechende Punkte p_m entlang der oberen Kante der Mantelfläche und des Umfangs p_df der Zylinderdeckfläche sind in Form von Pfeilen gezeichnet. Im unteren Teil der Darstellung ist das Ergebnis dieser Abbildung in Form einer rechteckigen Fläche zu erkennen, deren Ausmaße sich aus der Länge des Umfangsrands des Zylinders sowie der Zylinderhöhe h + dem Radius rad ergeben. Der nach unten gerichtete Pfeil zwischen der oberen und unteren Darstellung symbolisiert den Abbildungsalgorithmus. Bei dieser Abbildung wird die Zylinderoberfläche gewissermaßen auf eine Ebene „abgerollt”. Die Zylinderdeckfläche kann von deren Umfang her an die „ausgerollte” Mantelfläche angefügt werden, wobei jeweils vom äußeren Rand der Zylinderdeckfläche Strahlen von der Länge des Radius rad der Deckfläche in Richtung Mittelpunkt der Deckfläche, ebendiese Deckfläche abtasten, um die Abbildung in die Ebene zu erzeugen. Die entsprechenden Bildverzerrungen können vorliegend toleriert werden. 7 explains to process step 205b schematically illustrating a cylinder on a plane. In the upper part of the illustration of the cylinder is shown with its cut cylinder surface of the height h and its upwardly lifted cylinder top surface. The cylinder top surface has a radius rad and a center m_df. Corresponding points p_m along the upper edge of the lateral surface and the circumference p_df of the cylinder top surface are drawn in the form of arrows. In the lower part of the picture is the Er To recognize the result of this figure in the form of a rectangular area whose dimensions are determined by the length of the peripheral edge of the cylinder and the cylinder height h + the radius rad. The downward arrow between the upper and lower display symbolizes the mapping algorithm. In this illustration, the cylinder surface is, so to speak, "unrolled" to a plane. The cylinder top surface can be added to the "rolled-out" lateral surface from its circumference, in each case from the outer edge of the cylinder top surface rays of the length of the radius rad the top surface in the direction of the center of the top surface, ebendiese top surface scan to create the image in the plane , The corresponding image distortions can be tolerated here.

8 zeigt ein Beispiel einer Visualisierung des in medizinischen 3D-Bilddaten abgebildeten Schädels eines Patienten gemäß dem zweiten Ausführungsbeispiel. Deutlich erkennbar ist, dass der gesamte Schädelknochen 1 ab dem Nasenbein aufwärts in einem Bild dargestellt ist. Somit wird dem behandelnden Arzt der Schädel des Unfallpatienten auf einen Blick dargestellt. Er erkennt vorliegend sofort und deutlich die in dem Bild sichtbare Schädelfraktur 2. 8th shows an example of a visualization of the skull of a patient depicted in medical 3D image data according to the second embodiment. It is clearly evident that the entire cranial bone 1 from the nose up in a picture is shown. Thus, the doctor treating the skull of the accident patient is shown at a glance. In the present case, he immediately and clearly recognizes the skull fracture visible in the image 2 ,

9 zeigt den schematischen Aufbau eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung 300. Die Vorrichtung 300 zur Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels 1 eines Patienten, umfasst ein Speichermedium 301 zur Bereitstellung der 3D-Bilddaten, ein erstes Auswertemodul 202, mit dem erste 3D-Bilddaten ermittelbar sind, wobei die ersten 3D-Bilddaten nur diejenigen Bildvoxel der 3D-Bilddaten umfassen, die Schädelknochen 1 repräsentieren, ein zweites Auswertemodul 303, mit dem Bildvoxeln der ersten 3D-Bilddaten eine Kennung zuordenbar ist, wobei die Kennung der Bildvoxel ihren jeweiligen orthogonalen Abstand von einer in den ersten 3D-Bilddaten abgebildeten Schädeloberfläche in Richtung Schädelinneres kennzeichnet, ein drittes Auswertemodul 304, mit dem 2D-Projektionsbilddaten durch Projektion der ersten 3D-Bilddaten, deren Bildvoxel eine vorgegebene Kennung aufweisen, auf eine virtuelle Projektionsebene E, erzeugbar sind, ein viertes Auswertemodul 306, mit dem eine konvexe Hülle für Bildpixel der auf die virtuelle Projektionsebene E projizierten 2D-Projektionsbilddaten ermittelbar ist, ein fünftes Auswertemodul 307, mit dem für jedes Bildpixel der 2D-Projektionsbilddaten innerhalb der konvexen Hülle ein zugehörigen Bildvoxels in den ersten Bilddaten, die die vorgegebene Kennung aufweisen mittels einer zur Projektion inversen Rückprojektion ermittelbar und eine Bildinformation des zugehörigen Bildvoxels auf das Bildpixel der projizierten 2D-Projektionsbilddaten übertragbar ist, und eine Visualisierungseinheit 305, mit der die 2D-Projektionsbilddaten visualisierbar sind. 9 shows the schematic structure of an embodiment of a device according to the invention 300 , The device 300 for visualizing a skull imaged in medical 3D image data 1 a patient, includes a storage medium 301 for providing the 3D image data, a first evaluation module 202 with which first 3D image data can be determined, wherein the first 3D image data only include those image voxels of the 3D image data, the skull bones 1 represent, a second evaluation module 303 in that an identifier can be assigned to the image voxels of the first 3D image data, wherein the identifier of the image voxels identifies its respective orthogonal distance from a skull surface imaged in the first 3D image data in the direction of the skull interior, a third evaluation module 304 in which 2D projection image data can be generated by projection of the first 3D image data whose image voxels have a predetermined identifier onto a virtual projection plane E, a fourth evaluation module 306 in which a convex envelope for image pixels of the 2D projection image data projected onto the virtual projection plane E can be determined, a fifth evaluation module 307 in which, for each image pixel of the 2D projection image data within the convex hull, an associated image voxel in the first image data having the predetermined identifier can be determined by means of an inverse backprojection and image information of the associated image voxel can be transmitted to the image pixel of the projected 2D projection image data , and a visualization unit 305 with which the 2D projection image data can be visualized.

Claims (12)

Verfahren zur Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels (1) eines Patienten, mit folgenden Schritten: 1.1. Bereitstellen der 3D-Bilddaten, 1.2. Ermitteln erster 3D-Bilddaten, wobei die ersten Bilddaten nur Bildvoxel der 3D-Bilddaten umfassen, die Schädelknochen (1) repräsentieren, 1.3. Zuordnen einer Kennung zu Bildvoxeln der ersten 3D-Bilddaten, wobei die Kennung der Bildvoxel ihren jeweiligen orthogonalen Abstand von einer in den 3D-ersten Bilddaten abgebildeten Schädeloberfläche in Richtung Schädelinneres kennzeichnet, 1.4. Erzeugen von 2D-Projektionsbilddaten durch Projektion der ersten 3D-Bilddaten, deren Bildvoxel eine vorgegebene Kennung aufweisen, auf eine virtuelle Projektionsebene (E), und 1.5. Visualisieren der 2D-Projektionsbilddaten.Method for visualizing a skull imaged in medical 3D image data ( 1 ) of a patient, with the following steps: 1.1. Provision of 3D image data, 1.2. Determining first 3D image data, wherein the first image data comprises only image voxels of the 3D image data, the cranial bones ( 1 ), 1.3. Assigning an identifier to image voxels of the first 3D image data, wherein the identifier of the image voxels identifies their respective orthogonal distance from a skull surface imaged in the 3D first image data in the direction of the skull interior, 1.4. Generating 2D projection image data by projection of the first 3D image data whose image voxels have a predetermined identifier onto a virtual projection plane (E), and 1.5. Visualize the 2D projection image data. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass die Projektion in Schritt 1.4. aus zumindest zwei Projektionsschritten besteht, wobei in einem ersten Projektionsschritt die ersten 3D-Bilddaten, deren Bildvoxel eine vorgegebene Kennung aufweisen, auf eine erste virtuelle Projektionsfläche projiziert werden, bevor sie in einem zweiten Projektionsschritt von dort auf die virtuelle Projektionsebene (E) projiziert werden.Method according to claim 1, characterized in that the projection in step 1.4. at least two projection steps, wherein in a first projection step the first 3D image data whose image voxels have a predetermined identifier, projected onto a first virtual screen before in a second projection step from there to the virtual Projection level (E) are projected. Verfahren gemäß Anspruch 2, dadurch gekennzeichnet, dass die erste Projektionsfläche eine Zylinderoberfläche ist.Method according to claim 2, characterized in that the first projection surface is a cylinder surface. Verfahren gemäß einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Projektion im Schritt 1.4. injektiv ist.Method according to one the claims 1 to 3, characterized in that the projection in step 1.4. is injective. Verfahren gemäß einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die 3D-Bilddaten mittels eines bildgebenden medizinischen Systems, bspw. ein CT-, NMRT-, PET, SPECT-, oder Sonographiesystem, gewonnen werden.Method according to one the claims 1 to 4, characterized in that the 3D image data by means of a imaging medical system, for example a CT, NMRT, PET, SPECT, or sonography system. Verfahren gemäß einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Ermitteln der ersten 3D-Bilddaten durch Segmentieren der 3D-Bilddaten erfolgt.Method according to one the claims 1 to 5, characterized in that the determining of the first 3D image data by segmenting the 3D image data. Verfahren gemäß einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass in Schritt 1.3. jedem Bildvoxel der ersten 3D-Bilddaten eine Kennung zugeordnet wird.Method according to one the claims 1 to 6, characterized in that in step 1.3. every picture voxel the first 3D image data is assigned an identifier. Verfahren gemäß einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Projektion einer stereographischen Projektion, einer gnomonischen Projektion, einer Zylinderprojektion oder einer Kombination daraus entspricht.Method according to one of claims 1 to 7, characterized in that the projection of a stereographic projection, a gnomonic Projection, a cylinder projection or a combination thereof corresponds. Verfahren gemäß einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass der Schritt 1.4. oder die Schritte 1.4. und 1.5. für eine jeweils neu vorgegebene Kennung wiederholt ausgeführt werden.Method according to one the claims 1 to 8, characterized in that the step 1.4. or the Steps 1.4. and 1.5. For a newly specified identifier can be executed repeatedly. Verfahren gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass nach Schritt 1.4. und vor Schritt 1.5. folgende Schritte ausgeführt werden: 10.1. Ermitteln einer konvexen Hülle für Bildpixel der auf die virtuelle Projektionsebene (E) projizierten 2D-Projektionsbilddaten, 10.2. für jedes Bildpixel innerhalb der konvexen Hülle Ermitteln eines zugehörigen Bildvoxels in den ersten Bilddaten mittels einer zur Projektion von Schritt 1.4. inversen Rückprojektion und Übertragen einer Bildinformation des zugehörigen Bildvoxels auf das Bildpixel der projizierten 2D-Projektionsbilddaten.Method according to one the claims 1 to 9, characterized, that after step 1.4. and before step 1.5. following steps are performed: 10.1. Determine a convex hull for image pixels the 2D projection image data projected onto the virtual projection plane (E), 10.2. for each Image pixels within the convex hull Determine an associated image voxel in the first image data by means of one for the projection of step 1.4. inverse rear projection and transferring an image information of the associated Image voxels onto the image pixel of the projected 2D projection image data. Vorrichtung (300) zur Visualisierung eines in medizinischen 3D-Bilddaten abgebildeten Schädels (1) eines Patienten, mit: 11.1. einem Speichermedium (301) zur Bereitstellung der 3D-Bilddaten, 11.2. einem ersten Auswertemodul (302), mit dem erste 3D-Bilddaten ermittelbar sind, wobei die ersten 3D-Bilddaten nur diejenigen Bildvoxel der 3D-Bilddaten umfassen, die Schädelknochen (1) repräsentieren, 11.3. einem zweiten Auswertemodul (303), mit dem Bildvoxeln der ersten 3D-Bilddaten eine Kennung zuordenbar ist, wobei die Kennung der Bildvoxel ihren jeweiligen orthogonalen Abstand von einer in den ersten 3D-Bilddaten abgebildeten Schädeloberfläche in Richtung Schädelinneres kennzeichnet, 11.4. einem dritten Auswertemodul (304), mit dem 2D-Projektionsbilddaten durch Projektion der ersten 3D-Bilddaten, deren Bildvoxel eine vorgegebene Kennung aufweisen, auf eine virtuelle Projektionsebene (E), erzeugbar sind, und 11.5. einer Visualisierungseinheit (305), mit der die 2D-Projektionsbilddaten visualisierbar sind.Contraption ( 300 ) for visualizing a skull imaged in medical 3D image data ( 1 ) of a patient, with: 11.1. a storage medium ( 301 ) for providing the 3D image data, 11.2. a first evaluation module ( 302 ), with which the first 3D image data can be determined, wherein the first 3D image data only include those image voxels of the 3D image data, the cranial bones ( 1 ), 11.3. a second evaluation module ( 303 ), with the image voxels of the first 3D image data, an identifier can be assigned, wherein the identifier of the image voxels their respective orthogonal distance from a skull surface imaged in the first 3D image data in the direction of skull inside, 11.4. a third evaluation module ( 304 ), with which 2D projection image data can be generated by projecting the first 3D image data whose image voxels have a predetermined identifier onto a virtual projection plane (E), and 11.5. a visualization unit ( 305 ) with which the 2D projection image data can be visualized. Vorrichtung (300) gemäß Anspruch 11, dadurch gekennzeichnet, dass die Vorrichtung (300) zusätzlich aufweist: 12.1. ein viertes Auswertemodul (306), mit dem eine konvexe Hülle für Bildpixel der auf die virtuelle Projektionsebene (E) projizierten 2D-Projektionsbilddaten ermittelbar ist, und 12.2. ein fünftes Auswertemodul (307), mit dem für jedes Bildpixel der 2D-Projektionsbilddaten innerhalb der konvexen Hülle ein zugehöriges Bildvoxel in den ersten Bilddaten, die die vorgegebene Kennung aufweisen, mittels einer zur Projektion inversen Rückprojektion ermittelbar und eine Bildinformation des zugehörigen Bildvoxels auf das Bildpixel übertragbar ist.Contraption ( 300 ) according to claim 11, characterized in that the device ( 300 ) additionally: 12.1. a fourth evaluation module ( 306 ), with which a convex hull for image pixels of the 2D projection image data projected onto the virtual projection plane (E) can be determined, and 12.2. a fifth evaluation module ( 307 ), with which for each image pixel of the 2D projection image data within the convex hull an associated image voxel in the first image data having the predetermined identifier can be determined by means of an inverse rear projection for projection and an image information of the associated image voxel is transferable to the image pixel.
DE102009036942A 2009-08-11 2009-08-11 Method and device for visualizing a skull of a patient depicted in medical 3D image data Active DE102009036942B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009036942A DE102009036942B4 (en) 2009-08-11 2009-08-11 Method and device for visualizing a skull of a patient depicted in medical 3D image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009036942A DE102009036942B4 (en) 2009-08-11 2009-08-11 Method and device for visualizing a skull of a patient depicted in medical 3D image data

Publications (2)

Publication Number Publication Date
DE102009036942A1 true DE102009036942A1 (en) 2011-02-24
DE102009036942B4 DE102009036942B4 (en) 2013-05-29

Family

ID=43495299

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009036942A Active DE102009036942B4 (en) 2009-08-11 2009-08-11 Method and device for visualizing a skull of a patient depicted in medical 3D image data

Country Status (1)

Country Link
DE (1) DE102009036942B4 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070053553A1 (en) * 2002-12-20 2007-03-08 Gerritsen Frans A Protocol-based volume visualization

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070053553A1 (en) * 2002-12-20 2007-03-08 Gerritsen Frans A Protocol-based volume visualization

Also Published As

Publication number Publication date
DE102009036942B4 (en) 2013-05-29

Similar Documents

Publication Publication Date Title
EP2041719B1 (en) Method for determining a property map for an object in particular for a living being based on at least one first image in particular a nuclear magnetic resonance image
DE102009053471B4 (en) Method and device for identifying and assigning coronary calculus to a coronary vessel and computer program product
DE102005030646B4 (en) A method of contour visualization of at least one region of interest in 2D fluoroscopic images
DE102006021771B4 (en) Apparatus, method and computer program product for generating a radiation planning
DE10357203B4 (en) Method and control device for operating a magnetic resonance tomography device and magnetic resonance tomography device
DE102007041976A1 (en) Process for producing a tomosynthesis image
DE10136160A1 (en) Method and device for registering two 3D image data sets
DE102013103832A1 (en) Damping correction in positron emission tomography using magnetic resonance imaging
DE102016218359B3 (en) Method and device for correcting a synthetic electron density map
DE102017214447B4 (en) Planar visualization of anatomical structures
DE102006057264A1 (en) Biological structure e.g. human`s eyeball, segmenting method for use in e.g. computed tomography scan, involves identifying seed point associated with radiographic image, where image includes organ of sight
DE102011076930A1 (en) Method and device for adapting the representation of volume data of an object
DE10338145B4 (en) Process for displaying 3D image data
DE10254908A1 (en) Medical imaging image processing method for generation of an image from a 3D image, whereby a volume data record with a segmented surface is transformed into a layer of defined thickness to permit visualization of fine structure
DE102011076929A1 (en) Method and apparatus for displaying volume data for a study of density properties
EP1498851A1 (en) Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images
DE112007002807T5 (en) Method and system for grouping images in a tomosynthesis imaging system
DE102013210252A1 (en) Automatic generation of a selection image data record
DE102006058906B4 (en) A method for displaying tomographic images and tomography system or Tomographiesystemverbund for performing this method
DE102005037019A1 (en) Method for an imaging device for the anatomical assignment of an image generated by the imaging device and computer program product, which is set up to carry out such a method
DE102009036942B4 (en) Method and device for visualizing a skull of a patient depicted in medical 3D image data
DE102007042922A1 (en) Method for preparing anatomical models in human and veterinary medicine, involves acquisitioning of image of patient data through two-dimension or three-dimension ultrasound, and exporting image data from ultrasound device
EP3797692B1 (en) Method and device for controlling a medical imaging device
DE112020004854T5 (en) Medical image processing device, medical image processing program, medical device and treatment system
DE10254943A1 (en) Producing volume data record for medical examination involves transforming first volume data record, generating third in which second is filtered so uninteresting object structures are filtered out

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130830

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0090000000

Ipc: A61B0034100000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE