DE102010020287A1 - Method for detecting position of investigation object during treatment of fracture, involves determining object position based on set of diagram parameter values determined around correspondence between acquired and virtual image data - Google Patents

Method for detecting position of investigation object during treatment of fracture, involves determining object position based on set of diagram parameter values determined around correspondence between acquired and virtual image data Download PDF

Info

Publication number
DE102010020287A1
DE102010020287A1 DE102010020287A DE102010020287A DE102010020287A1 DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1 DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1
Authority
DE
Germany
Prior art keywords
image data
virtual
data
parameter values
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010020287A
Other languages
German (de)
Other versions
DE102010020287B4 (en
Inventor
Dr. Barth Karl
Dr. Graumann Rainer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SIEMENS HEALTHINEERS AG, DE
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102010020287.8A priority Critical patent/DE102010020287B4/en
Publication of DE102010020287A1 publication Critical patent/DE102010020287A1/en
Application granted granted Critical
Publication of DE102010020287B4 publication Critical patent/DE102010020287B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/565Correction of image distortions, e.g. due to magnetic field inhomogeneities
    • G01R33/56509Correction of image distortions, e.g. due to magnetic field inhomogeneities due to motion, displacement or flow, e.g. gradient moment nulling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Abstract

The method involves determining position of investigation object based on three-dimensional (3D)-volume data (21) and two-dimensional (2D)-image data (28,29) of investigation object. The virtual 2D-image data (48,49) from the 3D-volume data is determined based on diagram parameters. The virtual 2D-image data for several sets are determined by diagram parameter values of the diagram parameters to be determined around a correspondence between the virtual 2D-image data and acquired 2D-image data. The position of investigation object is determined based on one set of diagram parameter values. Independent claims are included for the following: (1) computer program for detecting position of investigation object; and (2) device for detecting position of investigation object.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts. Die Erfindung betrifft insbesondere ein Verfahren und eine Vorrichtung, das bzw. die eine Lagebestimmung abhängig von vorab aufgenommenen dreidimensionalen (3D) Volumendaten des Untersuchungsobjekts erlaubt.The invention relates to a method and a device for determining the position of an examination subject. In particular, the invention relates to a method and a device which permits a position determination as a function of pre-recorded three-dimensional (3D) volume data of the examination object.

Die dreidimensionale Bild- oder Objekterfassung ist in der medizinischen Technik weit verbreitet. 3D-Volumendaten dienen häufig zur Vorbereitung von therapeutischen und/oder chirurgischen Maßnahmen. Ein Anwendungsbeispiel ist die Traumarekonstruktion, beispielsweise zur Behandlung von Knochenbrüchen, bei der anhand vorab aufgenommener 3D-Volumendaten des Untersuchungsobjekts weitere Behandlungsschritte geplant werden können. Wenn eine 3D-Bildgebung bei oder unmittelbar vor einer Therapie, und während das Untersuchungsobjekt bereits für die Therapie positioniert ist, durchgeführt wird, ist die Lage des Untersuchungsobjekts bei der Erfassung der 3D-Volumendaten bekannt. Dies erlaubt es, die 3D-Volumendaten unmittelbar zur Therapie heranzuziehen. Jedoch kann eine derartige in-situ-3D-Bildgebung aus zeitlichen Gründen oder aufgrund der damit einhergehenden Strahlenbelastung unerwünscht sein. Aus diesen Gründen kann es wünschenswert sein, vorab aufgenommene 3D-Volumendaten des Untersuchungsobjekts später erneut zu verwenden.Three-dimensional image or object detection is widely used in medical technology. 3D volume data are often used to prepare for therapeutic and / or surgical procedures. An example of an application is the trauma construction, for example for the treatment of bone fractures, in which further treatment steps can be planned on the basis of pre-recorded 3D volume data of the examination subject. When 3D imaging is performed at or just prior to therapy, and while the subject is already positioned for therapy, the location of the subject under examination is known upon acquisition of the 3D volume data. This allows the 3D volume data to be used directly for therapy. However, such in-situ 3D imaging may be undesirable for time reasons or due to the associated radiation exposure. For these reasons, it may be desirable to reuse pre-recorded 3D volume data of the subject later.

Für eine zuverlässige Verwendung von vorab aufgenommenen 3D-Volumendaten kann es erforderlich sein, eine räumliche Zuordnung der 3D-Volumendaten zur Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt, beispielsweise während eines Eingriffs, zu bestimmen. Beispielsweise kann es für eine zielgerichtete Therapie einer Knochenfraktur, deren Lage und Verlauf vorab in 3D-Volumendaten aufgenommen wurde, erforderlich sein, die Lage des Untersuchungsobjekts vor Beginn eines Eingriffs mit den 3D-Volumendaten in Beziehung zu setzen.For a reliable use of pre-recorded 3D volume data, it may be necessary to determine a spatial allocation of the 3D volume data to the position of the examination subject at a later time, for example during an intervention. For example, for targeted therapy of a bone fracture whose location and history have been pre-recorded in 3D volume data, it may be necessary to relate the location of the examination subject to the 3D volume data prior to beginning an intervention.

Eine Möglichkeit, 3D-Volumendaten mit einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt in Beziehung zu setzen, besteht in der so genannten Registrierung unter Verwendung von Marken. Dabei können eine oder mehrere Marken an dem Untersuchungsobjekt angebracht werden. Die Marken, beispielsweise verschiedenfarbige Kugeln, werden mit einem Stereokamerasystem aufgenommen. Die Position der Untersuchungsobjekts wird durch eine Bildauswertung ermittelt. Eine derartige markenbasierte Registrierung kann zusätzlichen apparativen Aufwand erfordern, der aus Kostengründen unerwünscht sein kann. Die Marken müssen gegebenenfalls über einen längeren Zeitraum an wohldefinierten Positionen an dem Untersuchungsobjekt angebracht bleiben.One way to correlate 3D volume data with a location of the examination object at a later time is by the so-called registration using marks. One or more marks can be attached to the examination object. The marks, for example, different colored balls, are recorded with a stereo camera system. The position of the examination object is determined by an image analysis. Such a mark-based registration may require additional equipment, which may be undesirable for cost reasons. If necessary, the marks must remain attached to the object to be examined at well-defined positions for a longer period of time.

Ein Verfahren, bei dem die Bewegung eines Untersuchungsobjekts basierend auf einer 2D/3D-Registrierung verfolgt wird, ist in der DE 10 2004 004 603 A1 beschrieben.A method of tracking the movement of an examination object based on a 2D / 3D registration is described in US Pat DE 10 2004 004 603 A1 described.

Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung anzugeben, das bzw. die es erlaubt, die Lage eines Untersuchungsobjekts mit vorab aufgenommenen 3D-Volumendaten in Beziehung zu setzen. Insbesondere liegt der Erfindung die Aufgabe zugrunde, ein derartiges Verfahren und eine derartige Vorrichtung anzugeben, bei dem bzw. bei der die Beziehung zwischen der Lage des Untersuchungsobjekts mit den vorab aufgenommenen 3D-Volumendaten abhängig von 2D-Bilddaten erfolgen kann, ohne die Stellung der zum Erfassen der 2D-Bilddaten verwendeten Datenerfassungseinrichtung relativ zu dem Untersuchungsobjekt genau kennen zu müssen.The object of the invention is to specify a method and a device which allow the position of an examination subject to be related to pre-recorded 3D volume data. In particular, the invention has for its object to provide such a method and apparatus in which or in which the relationship between the position of the examination object with the pre-recorded 3D volume data can be dependent on 2D image data, without the position of the Detecting the 2D image data used data acquisition device relative to the examination object to know exactly.

Erfindungsgemäß werden ein Verfahren, ein Computerprogramm und eine Vorrichtung angegeben, wie sie in den unabhängigen Ansprüchen definiert sind. Die abhängigen Ansprüche definieren bevorzugte oder vorteilhafte Ausführungsformen der Erfindung.The invention provides a method, a computer program and a device as defined in the independent claims. The dependent claims define preferred or advantageous embodiments of the invention.

Bei einem Verfahren zum Bestimmen einer Lage eines Untersuchungsobjekts nach einem Aspekt der Erfindung wird ein Satz von 2D-Bilddaten, der das Untersuchungsobjekt repräsentiert, mit einer Datenerfassungseinrichtung erfasst. Eine Lage des Untersuchungsobjekts wird abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten ermittelt. Zum Ermitteln der Lagen werden virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern rechnerisch ermittelt. Die Abbildungsparameter beschreiben eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten. Die virtuellen 2D-Bilddaten werden für mehrere Sätze von Abbildungsparameterwerten der Abbildungsparameter ermittelt, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen. Die Lage des Untersuchungsobjekts wird abhängig von wenigstens einem Satz von Abbildungsparameterwerten ermittelt.In a method for determining a position of an examination object according to an aspect of the invention, a set of 2D image data representing the examination subject is detected with a data acquisition device. A position of the examination subject is determined depending on 3D volume data of the examination subject and the acquired 2D image data. To determine the positions, virtual 2D image data from the 3D volume data are computationally determined as a function of imaging parameters. The mapping parameters describe an image between voxel coordinate triplets of volume represented by the 3D volume data and pixel coordinate tuples of 2D image data. The 2D virtual image data is acquired for a plurality of sets of imaging parameter values of the imaging parameters to increase a match between the 2D virtual image data and the acquired 2D image data. The location of the examination subject is determined depending on at least one set of mapping parameter values.

Bei dem Verfahren kann die Lage des Untersuchungsobjekts durch einen Vergleich von aus den 3D-Volumendaten rechnerisch ermittelten virtuellen 2D-Bilddaten und dem tatsächlich erfassten Satz von 2D-Bilddaten ermittelt werden. Durch Wählen von verschiedenen Sätzen von Abbildungsparameterwerten können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten ermittelt werden. Das Erfassen eines einzigen Satzes von 2D-Bilddaten, der genau eine 2D-Abbildung des Untersuchungsobjekts repräsentiert, kann für die Ermittlung der Lage ausreichen. Es ist jedoch nicht ausgeschlossen, dass auch mehrere Sätze von 2D-Bilddaten erfasst werden können, um die Lage des Untersuchungsobjekts zu einem Zeitpunkt oder mehrere unterschiedliche Lagen des Untersuchungsobjekts zu unterschiedlichen Zeitpunkten zu ermitteln. Im Vergleich zu einer vollständigen erneuten 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden. Die Lage des Objekts kann bei dem Verfahren auch implizit ermittelt werden, beispielsweise durch Speichern des zuletzt eingestellten Satzes von Abbildungsparameterwerten oder von daraus abgeleiteten Größen. In the method, the position of the examination object can be determined by a comparison of virtual 2D image data computationally determined from the 3D volume data and the actually acquired set of 2D image data. By choosing different sets of imaging parameter values, different positions and / or orientations of the volume represented by the 3D volume data can be tested out and thus the actual position of the examination subject in the acquisition of the 2D image data can be determined. Capturing a single set of 2D image data that represents exactly one 2D image of the examination subject may be sufficient for determining the location. However, it is not excluded that also several sets of 2D image data can be detected in order to determine the position of the examination subject at one time or several different positions of the examination subject at different times. Time can be saved and radiation exposure reduced compared to full 3D imaging. The position of the object can also be determined implicitly in the method, for example by storing the last set of mapping parameter values or variables derived therefrom.

Die Abbildungsparameter können Einträge einer Projektionsmatrix umfassen. Mit Projektionsmatrizen lassen sich Abbildungen von Voxel-Koordinatentripeln in Pixel-Koordinatentupel bei der 2D-Röntgenbildgebung gut beschreiben. Die virtuellen 2D-Bilddaten können für die mehreren Sätze von Abbildungsparameterwerten durch eine radiographische Projektion ermittelt werden. Auf diese Weise lassen sich verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens bei der 2D-Röntgenbildgebung rechnerisch simulieren.The mapping parameters may include entries of a projection matrix. Projection matrices are a good way to describe mappings of voxel coordinate triples in pixel coordinate tuples in 2D X-ray imaging. The 2D virtual image data may be determined for the multiple sets of imaging parameter values by a radiographic projection. In this way, different positions of the volume represented by the 3D volume data can be mathematically simulated in the 2D X-ray imaging.

Die Lage des Untersuchungsobjekts kann abhängig von einem Satz von Abbildungsparameterwerten ermittelt werden, für den die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten vorgegebene Ähnlichkeitskriterien erfüllen. Verschiedene Ähnlichkeitsmaße können verwendet werden, beispielsweise Kreuzkorrelationen, wechselseitige Entropie, wechselseitige Information, Gradienten-Kreuzkorrelationen, Zählraten von Bildsignaldifferenzen, Musterintensitäten und dergleichen, um das Erfüllen von Ähnlichkeitskriterien zu überprüfen. Auf diese Weise kann die Ähnlichkeit zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten quantifiziert werden. Es können diejenigen Werte von Abbildungsparametern ermittelt werden, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut, insbesondere am besten, übereinstimmen. Aus diesen Werten kann die Lage des Untersuchungsobjekts ermittelt werden.The location of the examination subject may be determined depending on a set of imaging parameter values for which the 2D virtual image data and the acquired 2D image data satisfy predetermined similarity criteria. Various similarity measures may be used, for example, cross-correlations, mutual entropy, mutual information, gradient cross-correlations, count rates of image signal differences, pattern intensities, and the like to verify compliance with similarity criteria. In this way, the similarity between the virtual 2D image data and the acquired 2D image data can be quantified. It is possible to determine those values of imaging parameters for which the 2D virtual image data and the acquired 2D image data agree well, in particular best. From these values, the position of the examination subject can be determined.

Die mehreren Sätze von Abbildungsparameterwerten können so bestimmt werden, dass sie die Abbildung zwischen den Voxel-Koordinatentripeln und den Pixel-Koordinatentupeln für mehrere unterschiedliche Lagen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Strahlenbündel beschreiben. Auf diese Weise können unterschiedliche Lagen des Volumens relativ zu Strahlen eines Strahlenbündels ausgetestet werden. Das durch die 3D-Volumendaten repräsentierte Volumen kann gewissermaßen relativ zu einer Strahlungsquelle und einem Detektor der Datenerfassungseinrichtung translatorisch verschoben und/oder rotiert werden, um jeweils die resultierenden virtuellen 2D-Bilddaten zu ermitteln und schließlich mit den erfassten 2D-Bilddaten möglichst gut zur Deckung zu bringen.The plurality of sets of mapping parameter values may be determined to describe the mapping between the voxel coordinate triples and the pixel coordinate tuples for a plurality of different layers of the volume represented by the 3D volume data relative to a ray bundle. In this way, different layers of the volume can be tested relative to rays of a beam. The volume represented by the 3D volume data can, as it were, be translated and / or rotated relative to a radiation source and a detector of the data acquisition device in order respectively to determine the resulting virtual 2D image data and finally coincide as well as possible with the acquired 2D image data bring.

Die mehreren Sätze von Abbildungsparameterwerten können derart bestimmt werden, dass die unterschiedlichen Lagen sich in einer Orientierung des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem vorgegebenen Strahl, beispielsweise dem Zentralstrahl, des Strahlenbündels unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem lateralen Versatz des durch die 3D-Volumendaten repräsentierten Volumens relativ zu dem Zentralstrahl des Strahlenbündels oder zu einer Bildebene unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem Abstand des durch die 3D-Volumendaten repräsentierten Volumens von dem Fokus des Strahlenbündels oder der Bildebene unterscheiden. Auf diese Weise können verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden, die den mit verschiedenen Datenerfassungseinrichtungen realisierbaren Änderungen von Relativpositionen entsprechen.The plurality of sets of mapping parameter values may be determined such that the different layers differ in an orientation of the volume represented by the 3D volume data relative to a given beam, for example the central beam, of the beam. Alternatively or additionally, the different layers may differ in a lateral offset of the volume represented by the 3D volume data relative to the central ray of the ray bundle or to an image plane. Alternatively or additionally, the different layers may differ from the focus of the beam or the image plane at a distance of the volume represented by the 3D volume data. In this way, different layers of the volume represented by the 3D volume data can be tested, which correspond to the changes of relative positions that can be realized with different data acquisition devices.

Wenigstens ein Satz von Abbildungsparameterwerten kann abhängig von einer Benutzereingabe bestimmt werden. Auf diese Weise kann der Benutzer kontrollieren, welche verschiedenen Lagen des durch die 3D-Volumendaten repräsentierten Volumens simuliert werden sollen.At least one set of mapping parameter values may be determined depending on a user input. In this way, the user can control which different layers of the volume represented by the 3D volume data should be simulated.

Die Benutzereingabe kann über eine Eingabeeinrichtung der Datenerfassungseinrichtung erfolgen. Die aus der Benutzereingabe resultierende Änderung der Abbildungsparameterwerte kann derart sein, dass sie einer aus dieser Benutzereingabe resultierenden Änderung der Relativposition und Relativorientierung zwischen dem Untersuchungsobjekt und der Datenerfassungseinrichtung entspricht, die resultiert, wenn mit der Eingabeeinrichtung der Betrieb der Datenerfassungseinrichtung gesteuert wird. Auf diese Weise kann der Benutzer intuitiv und mit einer ihm bekannten Steuerung den Parameterraum austesten.The user input can take place via an input device of the data acquisition device. The change in the mapping parameter values resulting from the user input may be such that it corresponds to a change in the relative position and relative orientation between the examination subject and the data acquisition device resulting from this user input, which results when combined with the Input device, the operation of the data acquisition device is controlled. In this way, the user can intuitively test the parameter space with a controller known to him.

Alternativ oder zusätzlich zu einer benutzerdefinierten Variation der Abbildungsparameterwerte kann bei der iterativen rechnerischen Ermittlung von virtuellen 2D-Bilddaten wenigstens ein Satz von Abbildungsparameterwerten automatisch bestimmt werden. Dazu kann bei einer Ausführungsform abhängig von einem Vergleich der für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten mit den erfassten 2D-Bilddaten automatisch überprüft werden, ob ein vorgegebenes Gütekriterium erfüllt ist. Falls das Gütekriterium nicht erfüllt ist, beispielsweise falls ein Ähnlichkeitsmaß zwischen den erfassten 2D-Bilddaten und den für den Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kleiner als eine vorgegebene Schranke ist, kann automatisch ein weiterer Satz von Abbildungsparameterwerten derart ermittelt werden, dass ein Ähnlichkeitsmaß zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten erhöht wird. Dies erlaubt eine rechnergestützte Automatisierung bei der Ermittlung neuer Werte der Abbildungsparameter.Alternatively or in addition to a user-defined variation of the mapping parameter values, in the iterative computational determination of virtual 2D image data, at least one set of mapping parameter values may be automatically determined. For this purpose, in one embodiment, depending on a comparison of the virtual 2D image data determined for a set of mapping parameter values with the acquired 2D image data, it can be automatically checked whether a predefined quality criterion is fulfilled. If the quality criterion is not met, for example, if a similarity measure between the acquired 2D image data and the virtual 2D image data determined for the set of mapping parameter values is less than a predetermined bound, another set of mapping parameter values may be automatically determined such that a similarity measure between the 2D virtual image data and the acquired 2D image data. This allows computer-aided automation in the determination of new values of the imaging parameters.

An dem Untersuchungsobjekt kann wenigstens eine Marke vorgesehen sein, die in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten sichtbar ist. Abhängig von Lagen der Marke in den erfassten 2D-Bilddaten und den für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kann abhängig von einer Benutzereingabe oder automatisch ein neuer Satz von Abbildungsparameterwerten ermittelt werden. Marken, wie beispielsweise Implantate, können starke Signaturen in den erfassten 2D-Bilddaten hinterlassen, die zur Ermittlung der Lage des Untersuchungsobjekts genutzt werden können.At least one mark may be provided on the examination object which is visible in the acquired 2D image data and the virtual 2D image data. Depending on a location of the mark in the acquired 2D image data and the virtual 2D image data determined for a set of mapping parameter values, a new set of mapping parameter values may be determined depending on a user input or automatically. Markers, such as implants, can leave strong signatures in the captured 2D image data that can be used to determine the location of the examination subject.

Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können über eine optische Ausgabeeinrichtung ausgegeben werden. Dies erlaubt es einem Benutzer, die Güte der erreichten Übereinstimmung abzuschätzen und/oder eine benutzerdefinierte Änderung der Abbildungsparameterwerte vorzunehmen.The captured 2D image data and the virtual 2D image data may be output via an optical output device. This allows a user to estimate the quality of the match achieved and / or make a user-defined change in the mapping parameter values.

Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können gleichzeitig und kodiert, beispielsweise farbkodiert und/oder polarisationskodiert, über die optische Ausgabeeinrichtung ausgegeben werden. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe, z. B. rot, und die virtuellen 2D-Bilddaten in einer zweiten Farbe, z. B. grün, ausgegeben werden. Aus der Homogenität des bei einer Überlagerung resultierenden Farbtons kann der Benutzer die Güte der erreichten Übereinstimmung abschätzen.The acquired 2D image data and the virtual 2D image data can be output simultaneously and coded, for example color-coded and / or polarization-coded, via the optical output device. For example, the captured 2D image data may be in a first color, e.g. Red, and the virtual 2D image data in a second color, e.g. B. green, are output. From the homogeneity of the hue resulting from an overlay, the user can estimate the quality of the achieved match.

Weitere 2D-Bilddaten, die das Untersuchungsobjekt repräsentieren und von den 2D-Bilddaten verschieden sind, können mit der Datenerfassungseinrichtung erfasst werden. Vorteilhaft werden die weiteren 2D-Bilddaten nach einer Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung erfasst. Weitere virtuelle 2D-Bilddaten können aus den 3D-Volumendaten basierend auf weiteren Abbildungsparameterwerten rechnerisch ermittelt werden. Die Ermittlung der weiteren Abbildungsparameterwerte kann wie oben beschrieben derart durchgeführt werden, dass mehrere Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden. Durch Zusammenführen der Ergebnisse, die aus einem Vergleich der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten einerseits und der weiteren virtuellen 2D-Bilddaten und der weiteren erfassten 2D-Bilddaten andererseits gewonnen werden, kann die Genauigkeit der Lagebestimmung erhöht werden. Falls sich das Untersuchungsobjekt zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten unkontrolliert verschoben hat, kann durch die Erfassung der weiteren 2D-Bilddaten erneut die Lage des Untersuchungsobjekts ermittelt werden.Further 2D image data, which represent the examination object and are different from the 2D image data, can be acquired with the data acquisition device. Advantageously, the further 2D image data are acquired after a change in the relative position between the examination object and the data acquisition device. Additional 2D virtual image data may be computationally determined from the 3D volume data based on further mapping parameter values. The determination of the further mapping parameter values can be carried out as described above in such a way that several layers of the volume represented by the 3D volume data are tested out. By combining the results obtained from comparing the virtual 2D image data and the acquired 2D image data on the one hand and the other virtual 2D image data and the other acquired 2D image data on the other hand, the accuracy of the orientation can be increased. If the object to be examined has shifted uncontrolled between the acquisition of the 2D image data and the further 2D image data, the position of the examination object can be determined again by the acquisition of the further 2D image data.

Aus den virtuellen 2D-Bilddaten und den weiteren virtuellen 2D-Bilddaten kann eine stereoskopische Darstellung erzeugt werden. Gleichzeitig kann aus den erfassten 2D-Bilddaten und den weiteren erfassten 2D-Bilddaten eine stereoskopische Darstellung der erfassten 2D-Bilddaten erzeugt werden. Dazu werden die weiteren 2D-Bilddaten nach einer Relativdrehung zwischen Datenerfassungseinrichtung und Untersuchungsobjekt um einen vorgegebenen Winkel erfasst. Die weiteren Abbildungsparameterwerte, auf deren Basis die weiteren virtuellen 2D-Bilddaten ermittelt werden, können abhängig von den Abbildungsparameterwerten, auf deren Basis die virtuellen 2D-Bilddaten ermittelt werden, so festgelegt werden, dass sie die Relativdrehung berücksichtigen. Die stereoskopische Darstellung der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten erleichtert es dem Benutzer aufgrund der darin enthaltenen Tiefeninformationen, die Güte der erreichten Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten abzuschätzen und/oder Änderungen der Werte der Abbildungsparameter benutzerdefiniert vorzunehmen.From the virtual 2D image data and the other virtual 2D image data, a stereoscopic display can be generated. At the same time, a stereoscopic representation of the acquired 2D image data can be generated from the acquired 2D image data and the further acquired 2D image data. For this purpose, the further 2D image data are acquired after a relative rotation between the data acquisition device and the examination object by a predetermined angle. The further mapping parameter values, on the basis of which the further virtual 2D image data are determined, can be set to take account of the relative rotation, depending on the mapping parameter values on the basis of which the virtual 2D image data are determined. The stereoscopic representation of the 2D virtual image data and the captured 2D image data facilitates the user, on the basis of the depth information contained therein, to estimate the quality of the achieved match between virtual and captured 2D image data and / or to make user-defined changes to the values of the imaging parameters.

Die weiteren Abbildungsparameterwerte können abhängig von den zur rechnerischen Ermittlung der virtuellen 2D-Bilddaten verwendeten Abbildungsparameterwerten bestimmt werden. Falls eine Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten bekannt ist, kann diese Änderung der Relativlage als Zwangsbedingung für die Ermittlung der virtuellen 2D-Bilddaten und der weiteren virtuellen 2D-Bilddaten berücksichtigt werden. So kann die Genauigkeit der Lagebestimmung erhöht werden.The further mapping parameter values can be determined as a function of the mapping parameter values used for the computational determination of the virtual 2D image data. If a change in the relative position between the examination object and the data acquisition device between the detection of the 2D image data and the further 2D image data is known, this change in the relative position can be described as Forced condition for determining the virtual 2D image data and the other virtual 2D image data are taken into account. Thus, the accuracy of the orientation can be increased.

Eine geometrische Verzeichnung der erfassten 2D-Bilddaten kann bei einem Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten berücksichtigt werden. Dazu kann eine Verzeichnungskorrektur der erfassten 2D-Bilddaten vorgenommen werden. Alternativ oder zusätzlich können die virtuellen 2D-Bilddaten rechnerisch verzeichnet werden. Auf diese Weise können Verzeichnungseffekte bei der Beurteilung der Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten berücksichtigt werden.A geometric distortion of the acquired 2D image data can be taken into account when comparing the acquired 2D image data and the virtual 2D image data. For this purpose, a distortion correction of the captured 2D image data can be performed. Alternatively or additionally, the virtual 2D image data can be computationally recorded. In this way, distortion effects can be taken into account when assessing the correspondence between virtual and captured 2D image data.

Die Datenerfassungseinrichtung kann eine Vorrichtung zur Röntgenbildgebung sein oder eine sonstige Bildaufnahmevorrichtung, beispielsweise eine photographische oder ultraschallbasierte Bildaufnahmevorrichtung, umfassen. Beispielsweise kann die Datenerfassungseinrichtung eine Röntgenquelle und einen Röntgenflächendetektor umfassen. Die Datenerfassungseinrichtung kann als C-Arm-Gerät ausgebildet sein.The data acquisition device may be a device for X-ray imaging or another image acquisition device, for example a photographic or ultrasound-based image acquisition device. By way of example, the data acquisition device may comprise an X-ray source and an X-ray surface detector. The data acquisition device can be designed as a C-arm device.

Wenigstens zwei Sätze von Abbildungsparameterwerten können so bestimmt werden, dass die virtuellen 2D-Bilddaten für unterschiedliche Lagen eines Röntgendetektors relativ zu einer Strahlungsquelle der Datenerfassungseinrichtung ermittelt werden. Auf diese Weise können, falls die Lage des Röntgendetektors relativ zu der Strahlungsquelle nicht mit hoher Genauigkeit bekannt ist, verschiedene Lagen des Detektors relativ zu der Strahlungsquelle ausgetestet werden.At least two sets of mapping parameter values may be determined such that the 2D virtual image data is determined for different layers of an X-ray detector relative to a radiation source of the data acquisition device. In this way, if the position of the X-ray detector relative to the radiation source is not known with high accuracy, different positions of the detector relative to the radiation source can be tested out.

Nach einem weiteren Aspekt der Erfindung wird ein Computerprogramm angegeben, das eine Befehlsfolge umfasst, die bei Ausführung durch eine elektronische Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Das Computerprogramm kann beispielsweise in den Speicher eines Steuer- und Auswerterechners einer Bildgebungsvorrichtung, beispielsweise eines C-Arm-Systems, geladen werden. Das Computerprogramm kann als Quellcode oder als eine kompilierte Befehlsfolge vorliegen. Durch das Computerprogramm kann die Vorrichtung programmmäßig zur Durchführung des Verfahrens eingerichtet werden.According to another aspect of the invention, there is provided a computer program comprising a sequence of instructions that, when executed by an electronic computing device of a medical imaging device, cause the device to perform the method according to one aspect or embodiment of the invention. The computer program can be loaded, for example, into the memory of a control and evaluation computer of an imaging device, for example a C-arm system. The computer program may be present as source code or as a compiled instruction sequence. The computer program allows the device to be set up in a program to carry out the method.

Die 2D-Bilddaten können unter Verwendung elektromagnetischer Strahlung, insbesondere optisch, erfasst werden. Die virtuellen 2D-Bilddaten können abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik rechnerisch ermittelt werden. Insbesondere können die virtuellen 2D-Bilddaten so ermittelt werden, dass berücksichtigt wird, wie abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik Voxelwerte der 3D-Bilddaten in Pixelwerte der 2D-Bilddaten eingehen. Falls beispielsweise die 2D-Bilddaten mit einer Kamera, die im sichtbaren Spektralbereich des elektromagnetischen Spektrums sensitiv ist, erfasst werden, werden die virtuellen 2D-Bilddaten vorteilhaft rechnerisch aus den 3D-Bilddaten so ermittelt, dass sie eine Abbildung der Oberfläche des Untersuchungsobjekts repräsentieren. Falls Infrarotstrahlung zum Erfassen der 2D-Bilddaten eingesetzt wird, wird bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten entsprechend die Eindringtiefe bzw. ortsabhängige Abschwächung dieser Strahlung in dem Untersuchungsobjekt berücksichtigt.The 2D image data can be detected using electromagnetic radiation, in particular optically. The virtual 2D image data may be computationally determined depending on the technique used to acquire the 2D image data. In particular, the virtual 2D image data can be determined in such a way that it is taken into account how voxel values of the 3D image data enter pixel values of the 2D image data depending on the technique used to acquire the 2D image data. For example, if the 2D image data is acquired with a camera sensitive in the visible spectral region of the electromagnetic spectrum, the 2D virtual image data is advantageously computationally determined from the 3D image data to represent an image of the surface of the examination subject. If infrared radiation is used to acquire the 2D image data, the penetration depth or location-dependent attenuation of this radiation in the examination object is correspondingly taken into account in the computational determination of the virtual 2D image data.

Nach einem weiteren Aspekt der Erfindung wird ein Datenträger angegeben, auf dem ein eine Befehlsfolge umfassendes Computerprogramm gespeichert ist, das bei Ausführung durch eine Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Der Datenträger kann beispielsweise eine CD-ROM, eine DVD, ein Magnetband, ein Flash-Speicher oder ein USB-Stick sein, auf welchem das Computerprogramm als elektronisch lesbare Steuerinformationen gespeichert ist. Wenn diese Steuerinformationen von dem Datenträger gelesen und von einer Recheneinrichtung der Vorrichtung ausgeführt werden, kann das Verfahren nach den verschiedenen Aspekten oder Ausführungsformen von der Vorrichtung automatisch durchgeführt werden.According to a further aspect of the invention, a data carrier is specified on which a computer program comprising a command sequence is stored which, when executed by a computing device of a medical imaging device, causes the device to carry out the method according to one aspect or embodiment of the invention. The data carrier can be, for example, a CD-ROM, a DVD, a magnetic tape, a flash memory or a USB stick, on which the computer program is stored as electronically readable control information. When this control information is read from the volume and executed by a computing device of the device, the method according to the various aspects or embodiments of the device may be performed automatically.

Nach einem weiteren Aspekt der Erfindung wird eine Vorrichtung zum Erfassen einer Lage eines Untersuchungsobjekts angegeben. Die Vorrichtung umfasst eine Erfassungseinrichtung zum Erfassen eines Satzes von 2D-Bilddaten des Untersuchungsobjekts, eine Speichereinrichtung zum Speichern von 3D-Volumendaten des Untersuchungsobjekts und eine Recheneinrichtung. Die Recheneinrichtung ist mit der Speichereinrichtung und der Erfassungseinrichtung gekoppelt und eingerichtet, um die Lage des Untersuchungsobjekts abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten zu bestimmen. Die Recheneinrichtung ist eingerichtet, um virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch zu ermitteln. Die Recheneinrichtung ist weiterhin eingerichtet, um die virtuellen 2D-Bilddaten für mehrere Sätze von Abbildungsparameterwerten zu ermitteln, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen, und um die Lage des Untersuchungsobjekts abhängig von wenigstens einem Satz von Abbildungsparameterwerten zu ermitteln.According to a further aspect of the invention, a device for detecting a position of an examination subject is specified. The apparatus comprises a detection device for detecting a set of 2D image data of the examination subject, a memory device for storing 3D volume data of the examination subject and a computing device. The computing device is coupled to the memory device and the detection device and configured to determine the position of the examination object as a function of the 3D volume data of the examination subject and the acquired 2D image data. The computing device is configured to computationally determine 2D virtual image data from the 3D volume data depending on imaging parameters describing an image between voxel coordinate triples of a volume represented by the 3D volume data and pixel coordinate tuples of 2D image data. The computing device is further configured to provide the virtual 2D image data for multiple sets determine mapping parameter values to increase a match between the virtual 2D image data and the acquired 2D image data, and to determine the location of the examination subject depending on at least one set of mapping parameter values.

Die Vorrichtung erlaubt, verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens auszutesten und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten zu ermitteln. Die Vorrichtung erlaubt weiterhin, intrinsische Parameter der Datenerfassungseinrichtung zu ermitteln. Das Erfassen eines einzigen Satzes von 2D-Bilddaten kann für das Ermitteln der Lage ausreichen. Im Vergleich zu einer erneuten vollständigen 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden.The device allows to test different positions and / or orientations of the volume represented by the 3D volume data and thus to determine the actual position of the examination subject in the acquisition of the 2D image data. The device further allows to determine intrinsic parameters of the data acquisition device. Capturing a single set of 2D image data may be sufficient for determining the location. Compared to a new complete 3D imaging, time can be saved and radiation exposure reduced.

Die Vorrichtung kann zur Durchführung des Verfahrens nach einem der Aspekte oder nach einer der Ausführungsformen eingerichtet sein.The apparatus may be arranged to perform the method according to one of the aspects or according to one of the embodiments.

Ausführungsformen der Erfindung sind geeignet, um die Lage eines Untersuchungsobjekts aus vorab aufgenommenen 3D-Volumendaten und erfassten 2D-Bilddaten zu ermitteln. Anwendungsfelder liegen insbesondere in der medizinischen Technik.Embodiments of the invention are suitable for determining the position of an examination object from pre-recorded 3D volume data and acquired 2D image data. Applications are in particular in medical technology.

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die Zeichnung detailliert erläutert.Hereinafter, embodiments of the invention will be explained in detail with reference to the drawings.

1 ist eine schematische Darstellung einer Vorrichtung nach einem Ausführungsbeispiel. 1 is a schematic representation of a device according to an embodiment.

2 ist eine schematische Darstellung eines Abschnitts eines Untersuchungsobjekts, der durch 3D-Volumendaten repräsentiert wird. 2 is a schematic representation of a portion of an examination object represented by 3D volume data.

3 ist eine schematische Darstellung von erfassten 2D-Bilddaten. 3 is a schematic representation of captured 2D image data.

4 ist eine Flussdiagrammdarstellung eines Verfahrens nach einem Ausführungsbeispiel. 4 FIG. 10 is a flowchart illustration of a method according to an embodiment. FIG.

5 ist eine schematische Darstellung zur Erläuterung der Ermittlung von virtuellen 2D-Bilddaten bei dem Verfahren nach einem Ausführungsbeispiel. 5 FIG. 12 is a schematic diagram for explaining determination of virtual 2D image data in the method of one embodiment. FIG.

6 ist eine schematische Darstellung zur Erläuterung der Ermittlung von virtuellen 2D-Bilddaten mit im Vergleich zu 5 veränderten Abbildungsparameterwerten. 6 is a schematic diagram for explaining the determination of virtual 2D image data with compared to 5 changed mapping parameter values.

7 ist eine Flussdiagrammdarstellung eines Verfahrens nach einem weiteren Ausführungsbeispiel. 7 is a flowchart representation of a method according to another embodiment.

8 ist eine Flussdiagrammdarstellung von Schritten zum Ermitteln einer Lage des Untersuchungsobjekts. 8th FIG. 10 is a flowchart illustration of steps for determining a location of the examination subject. FIG.

Die Merkmale der nachfolgend beschriebenen Ausführungsbeispiele können miteinander kombiniert werden, sofern dies nicht ausdrücklich anders angegeben ist.The features of the embodiments described below may be combined with each other unless expressly stated otherwise.

Im Folgenden werden Ausführungsbeispiele der Erfindung im Kontext einer 2D-Röntgenbildgebung beschrieben. Die Verfahren und Vorrichtungen nach Ausführungsbeispielen der Erfindung können jedoch ebenso auf anderen Gebieten angewendet werden, bei denen eine Zuordnung von vorab erfassten 3D-Volumendaten eines Untersuchungsobjekts zu einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt erfolgen soll.In the following, embodiments of the invention will be described in the context of a 2D X-ray imaging. However, the methods and apparatuses according to embodiments of the invention may also be applied to other fields in which an assignment of pre-acquired 3D volume data of an examination subject to a position of the examination subject at a later time is to take place.

1 ist eine schematische Darstellung einer Vorrichtung 1 zum Erfassen der Lage eines Untersuchungsobjekts nach einem Ausführungsbeispiel. Die Vorrichtung 1 umfasst ein C-Arm-Gerät 2 und eine Recheneinrichtung 11. Das C-Arm-Gerät 2 weist einen C-Arm 3 auf, der um wenigstens eine Achse schwenkbar gelagert ist und an dem eine Röntgenröhre 4 und ein der Röntgenröhre gegenüberliegender Detektor 5 befestigt sind. Die Röntgenröhre 4 gibt Röntgenstrahlung ab, die ein Volumen, das beispielsweise durch einen Strahlenkonus 6 definiert ist, durchsetzt und von dem Detektor 5 erfasst wird. Der Detektor 5 kann ein flächenhafter Detektor sein. Beispiele für derartige Detektoren beinhalten so genannte Bildverstärker (Image Intensifier)- und Kamerasystem oder so genannte Flachdetektoren („Flat Panel Detektor”). Eine Antriebseinrichtung 7 ist mit dem C-Arm wirkverbunden, so dass der C-Arm 3 zwischen einer Mehrzahl von Stellungen verstellt werden kann. Eine Bewegung des C-Arms 3 ist bei 8 dargestellt. Der C-Arm ist in einer weiteren Stellung mit durchbrochenen Linien bei 3' dargestellt. Das Verstellen des C-Arms 3 führt zu einer entsprechenden Änderung des von der Röntgenstrahlung durchsetzten Volumens 6'. Ein Patiententisch 9 stützt ein Untersuchungsobjekt P, beispielsweise einen Patienten, ab. Eine Steuereinrichtung 10 steuert die Röntgenröhre 4, den Detektor 5 und die Antriebseinrichtung 7. Während die Vorrichtung 1 schematisch mit einem C-Arm-Gerät 2 dargestellt ist, können Verfahren und Vorrichtungen nach verschiedenen Ausführungsbeispielen auch mit anderen Datenerfassungseinrichtungen zum Erfassen von 2D-Bilddaten durchgeführt werden. 1 is a schematic representation of a device 1 for detecting the position of an examination object according to an embodiment. The device 1 includes a C-arm device 2 and a computing device 11 , The C-arm device 2 has a C-arm 3 on, which is mounted pivotably about at least one axis and to which an X-ray tube 4 and a detector opposite the X-ray tube 5 are attached. The x-ray tube 4 emits X-radiation, which is a volume, for example due to a ray cone 6 is defined, interspersed and detected by the detector 5 is detected. The detector 5 may be a planar detector. Examples of such detectors include so-called image intensifiers and camera systems or so-called flat panel detectors. A drive device 7 is operatively connected to the C-arm, so the C-arm 3 can be adjusted between a plurality of positions. A movement of the C-arm 3 is at 8th shown. The C-arm is in another Position with broken lines at 3 ' shown. Adjusting the C-arm 3 leads to a corresponding change in the volume penetrated by the X-ray radiation 6 ' , A patient table 9 supports an examination object P, for example a patient. A control device 10 controls the x-ray tube 4 , the detector 5 and the drive device 7 , While the device 1 schematic with a C-arm device 2 As shown, methods and apparatus according to various embodiments may also be performed with other data acquisition devices for capturing 2D image data.

Die Recheneinrichtung 11 ist mit dem C-Arm-Gerät 2 verbunden. Während die Recheneinrichtung 11 und die mit ihr verbundenen Komponenten 1214 zur Erläuterung der Funktion als separate Elemente dargestellt sind, können diese Elemente auch baulich in das C-Arm-Gerät 2 integriert sein. Die Recheneinrichtung 11 ist mit einer optischen Anzeigeeinrichtung 12 gekoppelt. Die Recheneinrichtung 11 steuert die Anzeigeeinrichtung 12, um erfasste 2D-Bilddaten und/oder rechnerisch ermittelte virtuelle 2D-Bilddaten darzustellen. Die Recheneinrichtung 11 weist einen Speicher 13 auf oder ist mit dem Speicher 13 gekoppelt. In dem Speicher 13 sind 3D-Volumendaten des Untersuchungsobjekts P gespeichert. Die 3D-Volumendaten können mit verschiedenen Methoden und Einrichtungen zur 3D-Bildgebung ermittelt werden, beispielsweise mit einer Computertomographie, mit einer gefilterten Rückprojektion (FBP) einer Mehrzahl von 2D-Röntgenaufnahmen, mit einer Kernspintomographie oder mit anderen Techniken. Die 3D-Volumendaten können ermittelt werden, bevor das Untersuchungsobjekt relativ zu dem C-Arm-Gerät 2 positioniert wird. Beispielsweise können die 3D-Volumendaten in einer Voruntersuchung ermittelt werden. Die 3D-Volumendaten können beispielsweise als DICOM-Daten gespeichert sein.The computing device 11 is with the C-arm device 2 connected. While the computing device 11 and the components associated with it 12 - 14 to illustrate the function are shown as separate elements, these elements can also be structurally in the C-arm device 2 be integrated. The computing device 11 is with an optical display device 12 coupled. The computing device 11 controls the display device 12 to display acquired 2D image data and / or computationally determined 2D virtual image data. The computing device 11 has a memory 13 on or is with the memory 13 coupled. In the store 13 3D volume data of the examination object P are stored. The 3D volume data can be obtained by various methods and devices for 3D imaging, such as computed tomography, filtered back projection (FBP) of a plurality of 2D X-ray images, magnetic resonance imaging, or other techniques. The 3D volume data can be determined before the examination object relative to the C-arm device 2 is positioned. For example, the 3D volume data can be determined in a preliminary investigation. For example, the 3D volume data may be stored as DICOM data.

Die Recheneinrichtung 11 ist eingerichtet, um aus den in dem Speicher 13 gespeicherten 3D-Volumendaten virtuelle 2D-Bilddaten zu ermitteln. Mit dem Begriff „virtuelle 2D-Bilddaten” werden hier 2D-Bilddaten bezeichnet, die nicht durch eine tatsächliche 2D-Datenerfassung, sondern rechnerisch aus den 3D-Volumendaten ermittelt werden. Die Recheneinrichtung 11 kann die 2D-Bilddaten als so genannte radiographische Projektion ermitteln. Verschiedene Methoden zur Berechnung der radiographischen Projektion aus 3D-Volumendaten sind in der Technik bekannt. Beispielsweise kann mit Röntgen-Raycasting-Methoden die Abschwächung von Röntgenstrahlung gemäß dem Gesetz von Lambert-Beer entlang verschiedener, durch das von den 3D-Volumendaten repräsentierte Volumen verlaufender Strahlen berechnet werden. So können rechnerisch virtuelle 2D-Bilddaten ermittelt werden. Derartige 2D-Bilddaten werden auch als digital rekonstruierte Röntgenbilder bezeichnet. Effiziente Methoden zur digitalen Röntgenbildrekonstruktion, beispielsweise unter Verwendung von so genannte Lichtfeldern, sind bekannt und können von der Recheneinrichtung 11 eingesetzt werden. Ein Beispiel für eine effiziente Technik zur Ermittlung von digital rekonstruierte Röntgenbildern ist in Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 beschrieben. Bei weiteren Ausführungsformen kann alternativ oder zusätzlich aus den 3D-Volumendaten eine Oberflächendarstellung rechnerisch ermittelt werden, die sich eignet, um im Folgenden beispielsweise mit einer optischen 2D-Aufnahme der Oberfläche des Untersuchungsobjekts in Übereinstimmung gebracht zu werden.The computing device 11 is set to get out of the store 13 stored 3D volume data to determine virtual 2D image data. The term "virtual 2D image data" here refers to 2D image data that is not determined by an actual 2D data acquisition, but computationally from the 3D volume data. The computing device 11 can determine the 2D image data as a so-called radiographic projection. Various methods for calculating radiographic projection from 3D volume data are known in the art. For example, with x-ray raycasting methods, the attenuation of x-ray radiation can be calculated according to Lambert-Beer's law along different rays passing through the volumes represented by the 3D volume data. Thus, computational virtual 2D image data can be determined. Such 2D image data are also referred to as digitally reconstructed X-ray images. Efficient methods for digital x-ray image reconstruction, for example using so-called light fields, are known and can be used by the computing device 11 be used. An example of an efficient technique for determining digitally reconstructed x-ray images is in Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 described. In further embodiments, alternatively or additionally, from the 3D volume data a surface representation can be computationally determined, which is suitable for being subsequently matched, for example, with a 2D optical image of the surface of the examination subject.

Die virtuellen 2D-Bilddaten sind von der Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einer Bildebene und einem Strahlenfokus bei der digitalen Röntgenbildrekonstruktion abhängig. Mit Lage wird hier die Gesamtheit translatorischer und rotatorischer Freiheitsgrade bezeichnet. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Bildebene und dem Strahlenfokus kann beispielsweise durch die Position eines Volumenmittelpunkts des Volumens relativ zu dem Strahlenfokus (drei Koordinaten) und eine Rotation des Volumens relativ zu einem Zentralstrahl eines Strahlenbündels (drei Winkel) bestimmt sein. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu charakteristischen Punkten eines Strahlenbündels bei der radiographischen Projektion kann durch Abbildungsparameter beschrieben werden. Sofern hier auf eine Bestimmung der Lage oder ein Ausgeben lageabhängiger Information Bezug genommen wird, versteht es sich, dass die Information über die Lage nicht in Form von kartesischen und Winkel-Koordinaten vorliegen muss, sondern auch implizit, beispielsweise als ermittelter Satz von Abbildungsparameterwerten, vorliegen kann.The 2D virtual image data depends on the location of the volume represented by the 3D volume data relative to an image plane and a beam focus in the digital X-ray image reconstruction. With position here the totality of translational and rotational degrees of freedom is called. The location of the volume represented by the 3D volume data relative to the image plane and the beam focus may be determined, for example, by the position of a volume center of the volume relative to the beam focus (three coordinates) and a rotation of the volume relative to a beam central beam (three angles) be. The location of the volume represented by the 3D volume data relative to characteristic points of a beam in the radiographic projection may be described by imaging parameters. Whenever reference is made to determining the location or outputting location-dependent information, it should be understood that the information about the location need not be in the form of Cartesian and angular coordinates, but is also implicit, for example, as a determined set of mapping parameter values can.

Die Abbildungsparameter bestimmen, in welches Bildpunkt-Koordinatentupel der ermittelten 2D-Bilddaten Voxel-Koordinatentripel der 3D-Volumendaten für eine gegebene Lage der 3D-Volumendaten abgebildet werden. Die Abbildungsparameter können beispielsweise Einträge einer Projektionsmatrix sein. Indem Werte der Abbildungsparameter verändert werden, können virtuelle 2D-Bilddaten für mehrere verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ermittelt werden. So können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Röntgenquelle 4 und dem Detektor 5 des C-Arm-Geräts 2 ausgetestet werden. Die für jede der Lagen ermittelten virtuellen 2D-Bilddaten können mit den erfassten 2D-Bilddaten verglichen werden. Wenn eine ausreichende Übereinstimmung zwischen virtuellen 2D-Bilddaten und erfassten 2D-Bilddaten besteht, kann aus den entsprechenden Werten der Abbildungsparameter die Lage des Untersuchungsobjekts P relativ zu dem C-Arm-Gerät 2 ermittelt werden. Auf diese Weise wird ermittelt, in welcher Lage das durch die 3D-Volumendaten repräsentierte Volumen sich im Wesentlichen mit dem entsprechenden Abschnitt des Untersuchungsobjekts P bei der Erfassung der 2D-Bilddaten deckt. Somit wird ein Bezug zwischen dem Koordinatensystem der 3D-Volumendaten, dem abgebildeten Untersuchungsobjekt P bei der Datenerfassung und dem Koordinatensystem des C-Arm-Geräts 2 oder einer anderen Datenerfassungseinrichtung hergestellt.The imaging parameters determine in which pixel coordinate tuple of the determined 2D image data voxel coordinate triplets of the 3D volume data are mapped for a given position of the 3D volume data. The mapping parameters can be, for example, entries of a projection matrix. By changing values of the imaging parameters, virtual 2D image data can be obtained for several different layers of the volume represented by the 3D volume data. Thus, various positions and / or orientations of the volume represented by the 3D volume data relative to the x-ray source may be used 4 and the detector 5 of the C-arm device 2 be tested. The virtual 2D image data obtained for each of the layers can be compared with the acquired 2D image data. When a sufficient match between virtual 2D image data and acquired 2D image data, from the corresponding values of the imaging parameters, the position of the examination object P relative to the C-arm device 2 be determined. In this way, it is determined in which position the volume represented by the 3D volume data substantially coincides with the corresponding portion of the examination subject P in the detection of the 2D image data. Thus, a relationship between the coordinate system of the 3D volume data, the imaged examination object P in the data acquisition, and the coordinate system of the C-arm device 2 or other data acquisition device.

Die Werte der Abbildungsparameter können abhängig von der zur Datenerfassung verwendeten Datenerfassungseinrichtung gewählt werden. Falls beispielsweise wie bei der Vorrichtung 1 eine 2D-Röntgenbildgebung erfolgt, kann die Abbildung von Voxel-Koordinatentripeln von 3D-Volumendaten in Pixel-Koordinatentupel der virtuellen 2D-Bilddaten gut durch die Elemente einer Projektionsmatrix beschrieben werden. Allgemein kann die Projektionsmatrix aus einer 4×4-Matrix der Form (in homogenen Koordinaten)

Figure 00160001
abgeleitet werden. Durch die Matrixelemente r1–r9 und t1–t3 wird eine Rotation bzw. Translation des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Zentralstrahl eines Strahlenbündels bzw. einem Fokus des Strahlenbündels beschrieben. Die Matrixelemente p1–p3 beschreiben die perspektivische Projektion aufgrund der Abbildung in einem Strahlenkegel. Für den vorliegenden Fall der Abbildung von 3D nach 2D, also von Voxel-Koordinatentripeln nach Pixel-Koordinatentupeln, kann die Projektionsmatrix in homogenen Koordinaten auf eine 4×3-Matrix reduziert werden. Falls beispielsweise die Mittelachse des Strahlenkegels entlang der y-Achse gerichtet ist und der Detektor in einer zu der y-Achse senkrechten Ebene (x-z-Ebene) und in einem Abstand d vom Projektionszentrum liegt, kann die Projektionsmatrix Mi dargestellt werden als
Figure 00170001
The values of the imaging parameters may be selected depending on the data acquisition device used for data acquisition. For example, as in the device 1 When 2D X-ray imaging is performed, the mapping of voxel coordinate triplets of 3D volume data into pixel coordinate tuples of the 2D virtual image data can be well described by the elements of a projection matrix. In general, the projection matrix may consist of a 4 × 4 matrix of the shape (in homogeneous coordinates)
Figure 00160001
be derived. The matrix elements r1-r9 and t1-t3 describe a rotation or translation of the volume represented by the 3D volume data relative to a central ray of a ray bundle or a focus of the ray bundle. The matrix elements p1-p3 describe the perspective projection due to the image in a cone of rays. For the present case of mapping from 3D to 2D, voxel coordinate triples by pixel coordinate tuples, the projection matrix can be reduced in homogeneous coordinates to a 4 × 3 matrix. For example, if the central axis of the cone of rays is directed along the y-axis and the detector lies in a plane perpendicular to the y-axis (xz-plane) and at a distance d from the projection center, then the projection matrix M i can be represented as
Figure 00170001

Allgemein sind die Matrixelemente der Projektionsmatrix Mi so definiert, dass für einen Satz i von virtuellen 2D-Bilddaten vb,i = Mi·vv (3) gilt. Dabei ist vv = (x, y, z, w = 1)T ein Spaltenvektor, dessen erste drei Vektorkomponenten das Koordinatentripel (x, y, z) eines Voxels der 3D-Volumendaten repräsentieren. vb = (r, s, t)T ist ein Spaltenvektor, aus dem das Koordinatentupel (u, v) des Pixels in dem Satz von Bilddaten, in das das Voxel mit den Koordinaten x, y und z abgebildet wird, gemäß u = r/t und v = s/t ermittelt werden kann. Der Index i bezeichnet einen Satz von Abbildungsparameterwerten. Basierend auf den durch Gleichungen der Form (2) und (3) definierten Abbildung kann ein Volumenrendern bzw. eine digitale Röntgenbildrekonstruktion erfolgen.In general, the matrix elements of the projection matrix M i are defined such that for a set i of virtual 2D image data v b, i = M i * v v (3) applies. Here v v = (x, y, z, w = 1) T is a column vector whose first three vector components represent the coordinate triplet (x, y, z) of a voxel of the 3D volume data. v b = (r, s, t) T is a column vector, from which the coordinate tuple (u, v) of the pixel in the set of image data into which the voxel with the coordinates x, y and z is mapped, according to u = r / t and v = s / t can be determined. The index i denotes a set of mapping parameter values. Based on the equation defined by equations of the form (2) and (3), a volume rendering or a digital X-ray image reconstruction can take place.

Werte der Abbildungsparameter können auf verschiedene Weisen geändert werden. Bei einer Ausführungsform kann die Recheneinrichtung 11 automatisch ein Ähnlichkeitsmaß für die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten bestimmen. Dazu können verschiedene Ähnlichkeitsmaße verwendet werden, beispielsweise Kreuzkorrelationen, wechselseitige Entropie, wechselseitige Information, Gradienten-Kreuzkorrelationen, Musterintensitäten und dergleichen. Abhängig von dem Vergleich kann die Recheneinrichtung 11 neue Werte für die Abbildungsparameter wählen, um zu prüfen, ob dadurch die Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten erhöht wird. Die Wahl der neuen Werte für die Abbildungsparameter kann durch systematisches Austesten des Parameterraums erfolgen. Alternativ oder zusätzlich kann die Recheneinrichtung 11 die neuen Werte für die Abbildungsparameter unter Verwendung von Registrierungstechniken, stochastischen Methoden oder Merkmalsextraktion in den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten durchführen. Die Lage des Untersuchungsobjekts kann aus den Abbildungsparametern rückgerechnet werden, für die ein automatisch bestimmtes Ähnlichkeitsmaß zwischen den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten einen vorgegebenen Schwellenwert erreicht.Values of the mapping parameters can be changed in various ways. In one embodiment, the computing device 11 automatically determine a similarity measure for the virtual 2D image data and the acquired 2D image data. Various similarity measures can be used for this purpose, for example cross-correlations, mutual entropy, mutual information, gradient cross-correlations, pattern intensities and the like. Depending on the comparison, the computing device 11 Select new values for the mapping parameters to see if this will increase the match between the 2D virtual image data and the captured 2D image data. The selection of the new values for the imaging parameters can be done by systematically debugging the parameter space. Alternatively or additionally, the computing device 11 perform the new values for the imaging parameters using registration techniques, stochastic methods, or feature extraction in the 2D virtual image data and captured 2D image data. The position of the examination object can be recalculated from the imaging parameters for which an automatically determined similarity measure between the acquired 2D image data and the virtual 2D image data reaches a predetermined threshold value.

Bei einer weiteren Ausführungsform können die Werte der Abbildungsparameter abhängig von einer Benutzereingabe eingestellt werden. Dazu ist die Recheneinrichtung 11 mit einem Eingabegerät 14 gekoppelt. Das Eingabegerät 14 erlaubt es dem Benutzer, eine Veränderung von Werten der extrinsischen oder intrinsischen Abbildungsparameter hervorzurufen, die zur Ermittlung der virtuellen 2D-Bilddaten verwendet werden. Intrinsische Parameter sind hierbei die Parameteranteile, welche die Datenerfassungseinrichtung in sich beschreiben. Beispiele für derartige intrinsische Parameter sind der Fokus-Detektorabstand oder eine Kippung der Detektorfläche. Extrinsische Parameter sind die Parameter, welche die Lage des Untersuchungsobjekts P relativ zu der Datenerfassungseinrichtung beschreiben. Dabei können die Recheneinrichtung 11 und das Eingabegerät 14 so ausgestaltet sein, dass die Änderung der Werte der Abbildungsparameter als Antwort auf eine Betätigung des Eingabegeräts 14 derart ist, dass sie einer korrespondierenden translatorischen und/oder rotatorischen Verstellung zwischen C-Arm-Gerät 2 und Untersuchungsobjekt P als Antwort auf die Benutzereingabe entspricht. Es sollte beachtet werden, dass die Reaktion auf die Bedienung des Eingabegeräts 14 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten in einer Anpassung der Abbildungsparameterwerte besteht, wobei die Komponenten des C-Arm-Geräts 2 oder einer anderen Datenerfassungseinrichtung jedoch nicht tatsächlich verstellt werden. Die rechnerische Ermittlung der virtuellen 2D-Bilddaten als Antwort auf die Benutzereingabe kann unter Verwendung effizienter Methoden in Echtzeit oder annähernd in Echtzeit erfolgen. Dabei wird unter einer Ermittlung der virtuellen 2D-Bilddaten in Echtzeit verstanden, dass die rechnerische Ermittlung für neue Werte der Abbildungsparameter und eine entsprechende Darstellung der virtuellen 2D-Bilddaten auf der Anzeigeeinrichtung 12 schritthaltend mit der interaktiven Bedienung des Eingabegeräts 14 erfolgt. In a further embodiment, the values of the mapping parameters may be adjusted depending on a user input. This is the computing device 11 with an input device 14 coupled. The input device 14 allows the user to invoke a change in values of the extrinsic or intrinsic mapping parameters used to determine the 2D virtual image data. In this case, intrinsic parameters are the parameter components which the data acquisition device describes in itself. Examples of such intrinsic parameters are the focus detector distance or a tilt of the detector surface. Extrinsic parameters are the parameters which describe the position of the object to be examined P relative to the data acquisition device. In this case, the computing device 11 and the input device 14 be configured such that the change of the values of the imaging parameters in response to an operation of the input device 14 such is that they correspond to a translatory and / or rotational adjustment between C-arm device 2 and examination object P in response to the user input. It should be noted that the response to the operation of the input device 14 in the computational determination of the virtual 2D image data in an adjustment of the mapping parameter values, wherein the components of the C-arm device 2 or another data acquisition device but not actually be adjusted. The computational determination of the virtual 2D image data in response to the user input can be done using efficient methods in real time or approximately in real time. Here, a determination of the virtual 2D image data in real time is understood to mean that the computational determination for new values of the imaging parameters and a corresponding representation of the virtual 2D image data on the display device 12 keeping pace with the interactive operation of the input device 14 he follows.

Das Eingabegerät 14 hat mindestens zwei Freiheitsgrade, beispielsweise sechs Freiheitsgrade. Das Eingabegerät 14 kann einen oder mehrere beweglich gelagerte Abschnitte 15, 15a aufweisen. Wenigstens ein Abschnitt 15 kann gelenkig derart gelagert sein, dass er in zwei orthogonale Richtungen verkippbar ist. Mehrere Abschnitte 15, 15a des Eingabegeräts können mit einem Gelenk 16 verbunden sein. Die Freiheitsgrade eines derartigen Eingabegeräts 14, wie es auch als Eingabegerät von C-Arm-Geräten oder anderen Datenerfassungseinrichtungen Verwendung finden kann, erlauben eine für den Benutzer intuitive und aus der Bedienung des C-Arm-Geräts bekannte Methode zur Änderung der Abbildungsparameter. Beispielsweise können in einem Modus durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung der Orientierung des durch die 3D-Volumendaten repräsentierten Volumens entspricht. Alternativ oder zusätzlich können durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung der Position eines charakteristischen Punkts, beispielsweise des Volumenmittelpunkts, des durch die 3D-Volumendaten repräsentierten Volumens entspricht. Auf diese Weise können Veränderungen extrinsischer Parameterwerte ausgetestet werden. Alternativ oder zusätzlich können durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung des Abstands des Detektors vom Fokus oder eines anderen intrinsischen Parameters entspricht. Auf diese Weise können Werte der intrinsischen Parameter ermittelt werden.The input device 14 has at least two degrees of freedom, for example six degrees of freedom. The input device 14 can have one or more moveable sections 15 . 15a exhibit. At least a section 15 can be hinged such that it can be tilted in two orthogonal directions. Several sections 15 . 15a of the input device can with a joint 16 be connected. The degrees of freedom of such an input device 14 however, as it may also be used as an input device to C-arm devices or other data acquisition devices, it allows for a user-intuitive method of changing the imaging parameters known from the operation of the C-arm device. For example, in one mode, moving at least one section 15 . 15a the values of the imaging parameters are changed so that this corresponds to a change in the orientation of the volume represented by the 3D volume data. Alternatively or additionally, by moving at least one section 15 . 15a the values of the imaging parameters are changed to correspond to a change in the position of a characteristic point, for example the volume center, of the volume represented by the 3D volume data. In this way changes of extrinsic parameter values can be tested. Alternatively or additionally, by moving at least one section 15 . 15a the values of the imaging parameters are changed to correspond to a change in the distance of the detector from the focus or another intrinsic parameter. In this way, values of the intrinsic parameters can be determined.

Um einem Benutzer einen Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten zu erleichtern, kann die Recheneinrichtung 11 sowohl die erfassten 2D-Bilddaten als auch die virtuellen 2D-Bilddaten in einer überlagerten Darstellung über die optische Anzeigeeinrichtung 12 ausgeben. Dabei kann eine geeignete Kodierung der erfassten und virtuellen 2D-Bilddaten erfolgen. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe und die virtuellen 2D-Bilddaten in einer zweiten Farbe dargestellt werden. Ein Benutzer kann durch Benutzereingabe die Werte der Abbildungsparameter einstellen, bis sich ein möglichst einheitlicher Farbton, jedoch immer noch mit räumlich variierender Intensität, für das überlagerte Bild ergibt. Beispielsweise können die erfassten 2D-Bilddaten in grün und die virtuellen 2D-Bilddaten in rot dargestellt werden. Durch Benutzereingabe können die Werte der Abbildungsparameter und somit die virtuellen 2D-Bilddaten angepasst werden, bis ein Gesamtbild mit im Wesentlichen grauem Farbton entsteht. Die Ausgabe der erfassten und virtuellen 2D-Bilddaten über die optische Anzeigeeinrichtung 12 kann auch erfolgen, wenn die Werte der Abbildungsparameter zumindest teilweise automatisch durch die Recheneinrichtung 11 festgelegt werden, um einem Benutzer eine Kontrolle der gefundenen Werte der Abbildungsparameter, und somit eine Kontrolle der ermittelten Lage des Untersuchungsobjekts, zu erlauben.To facilitate a comparison of the captured 2D image data and the 2D virtual image data to a user, the computing device may 11 both the captured 2D image data and the virtual 2D image data in a superimposed representation via the optical display device 12 output. In this case, a suitable coding of the captured and virtual 2D image data can take place. For example, the acquired 2D image data may be displayed in a first color and the virtual 2D image data in a second color. A user can adjust the values of the imaging parameters by user input until the most uniform hue, but still with spatially varying intensity, results for the superimposed image. For example, the acquired 2D image data may be displayed in green and the virtual 2D image data may be displayed in red. By user input, the values of the imaging parameters and thus the virtual 2D image data can be adjusted until an overall image with a substantially gray hue is created. The output of the captured and virtual 2D image data via the optical display device 12 can also be done if the values of the imaging parameters at least partially automatically by the computing device 11 be set in order to allow a user to control the found values of the imaging parameters, and thus a control of the determined position of the examination subject.

Zusätzlich zur überlagerten Darstellung der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten kann die Recheneinrichtung 11 auch ein Ähnlichkeitsmaß der erfassten und virtuellen 2D-Bilddaten ermitteln und über die Anzeigeeinrichtung 12 ausgeben.In addition to the superimposed representation of the acquired 2D image data and the virtual 2D image data, the computing device 11 also determine a similarity measure of the captured and virtual 2D image data and the display device 12 output.

Unabhängig davon, ob die Werte der Abbildungsparameter benutzerdefiniert und/oder automatisch eingestellt werden, können zusätzliche Maßnahmen vorgesehen sein, um die Ermittlung der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut übereinstimmen, zu erleichtern.Regardless of whether the values of the mapping parameters are user - defined and / or automatically set, additional measures may be provided to determine the values of the Imaging parameters for which the 2D virtual image data and the acquired 2D image data match well.

Alternativ oder zusätzlich kann eine oder können mehrere Marken eingesetzt werden, die eine deutliche Signatur in den erfassten 2D-Bilddaten aufweisen. Die Marken können anatomisch oder nicht-anatomisch sein. Beispielsweise kann ein Implantat, z. B. ein Nagel oder eine Platte, an dem Abschnitt des Untersuchungsobjekts P als nicht-anatomische Marke dienen, die in den erfassten 2D-Bilddaten erkennbar ist. Anhand der Signatur der Marke kann das benutzerdefinierte oder automatische Auffinden der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten die erfassten 2D-Bilddaten gut approximieren, erleichtert werden.Alternatively or additionally, one or more marks may be used which have a clear signature in the acquired 2D image data. The marks can be anatomical or non-anatomical. For example, an implant, for. A nail or a plate, on which portion of the examination subject P serve as a non-anatomical marker recognizable in the captured 2D image data. Based on the signature of the mark, the user-defined or automatic finding of the values of the imaging parameters, for which the virtual 2D image data closely approximates the acquired 2D image data, can be facilitated.

Mit der Vorrichtung 1 kann eine lageabhängige Information ermittelt werden, die beispielsweise aus dem Satz von Abbildungsparameterwerten besteht, für den eine möglichst gute Übereinstimmung zwischen den virtuellen und erfassten 2D-Bilddaten erzielt wird. Dieser Satz von Abbildungsparameterwerten kann verwendet werden, um einem Benutzer beispielsweise Informationen dazu bereitzustellen, wie ein therapeutisches Instrument oder Diagnoseinstrument relativ zu dem Untersuchungsobjekt positioniert ist. Dazu kann mit einem Navigationssystem die Position des therapeutisches Instruments oder Diagnoseinstruments in einem Weltkoordinatensystem erfasst werden. Abhängig von dem zuletzt ermittelten Satz von Abbildungsparameterwerten kann, beispielsweise durch geeignete Matrizenmultiplikationen, die Position des Instruments mit den vorab aufgenommenen 3D-Volumendaten in Beziehung gesetzt und graphisch dargestellt werden, um die Navigation mit dem Instrument zu erleichtern.With the device 1 a position-dependent information can be determined, which consists for example of the set of mapping parameter values for which the best possible match between the virtual and captured 2D image data is achieved. This set of mapping parameter values may be used, for example, to provide a user with information about how a therapeutic instrument or diagnostic tool is positioned relative to the subject of the examination. For this purpose, the position of the therapeutic instrument or diagnostic instrument in a world coordinate system can be detected with a navigation system. Depending on the most recently determined set of mapping parameter values, the position of the instrument may be correlated with the pre-acquired 3D volume data and graphed, for example by suitable matrix multiplications, to facilitate navigation with the instrument.

2 ist eine schematische Darstellung eines durch 3D-Volumendaten 21 repräsentierten Volumens. Die 3D-Volumendaten können mit verschiedenen Untersuchungsmodalitäten erfasst werden, beispielsweise unter Verwendung von CT, Kernspintomographie, 3D-Röntgenbildgebung oder dergleichen. Die 3D-Volumendaten repräsentieren einen Abschnitt des Untersuchungsobjekts. Schematisch dargestellt ist ein Gliedmaß, beispielsweise ein Oberschenkel 22, mit einem Knochen 23, beispielsweise einem Femurknochen. Der Knochen 23 weist eine Bruchlinie 24 auf. Je nachdem, mit welcher Untersuchungsmodalität die 3D-Volumendaten erfasst wurden, können die Voxelwerte der 3D-Volumendaten verschiedene Bedeutungen haben. Falls die 3D-Volumendaten röntgenbasiert ermittelt wurden, können die Voxelwerte beispielsweise den Hounsfield-Werten entsprechen. 2 is a schematic representation of a through 3D volume data 21 represented volume. The 3D volume data can be acquired with various examination modalities, for example using CT, magnetic resonance imaging, 3D X-ray imaging or the like. The 3D volume data represents a portion of the examination subject. Schematically illustrated is a limb, such as a thigh 22 with a bone 23 for example, a femur bone. The bone 23 has a break line 24 on. The voxel values of the 3D volume data can have different meanings, depending on the examination modality with which the 3D volume data was acquired. For example, if the 3D volume data were determined by X-ray, the voxel values may correspond to the Hounsfield values.

3 ist eine schematische Darstellung von erfassten 2D-Bilddaten 26 des Abschnitts des Untersuchungsobjekts P. Die 2D-Bilddaten 26 zeigen eine in eine Bildebene projizierte Abbildung 27 des Oberschenkels 22, eine Abbildung 28 des Knochens 23 und eine Abbildung 29 der Bruchlinie 24. 3 is a schematic representation of captured 2D image data 26 of the portion of the subject P. The 2D image data 26 show an image projected into an image plane 27 of the thigh 22 , an illustration 28 of the bone 23 and an illustration 29 the fault line 24 ,

Mit den Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen können aus den 3D-Volumendaten 21 rechnerisch mehrere Sätze von virtuellen 2D-Bilddaten ermittelt werden. Die virtuellen 2D-Bilddaten können jeweils mit den erfassten 2D-Bilddaten 26 verglichen werden. Durch Ändern von Abbildungsparameterwerten, beispielsweise durch Ändern der Elemente einer Projektionsmatrix, können verschiedene fiktive Positionen und/oder Orientierungen des durch die 3D-Volumendaten 21 repräsentierten Volumens relativ zu einer Röntgenquelle und einem Röntgendetektor ausgetestet werden. Auf diese Weise kann anhand der 3D-Volumendaten 21 und dem einen Satz von erfassten 2D-Bilddaten 26 die Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten 26 ermittelt werden.With the devices and methods of various embodiments, from the 3D volume data 21 several sets of virtual 2D image data are computationally determined. The 2D virtual image data can each be captured with the acquired 2D image data 26 be compared. By changing mapping parameter values, for example by changing the elements of a projection matrix, different fictitious positions and / or orientations of the 3D volume data may be obtained 21 Volume tested relative to an X-ray source and an X-ray detector to be tested. This way you can use the 3D volume data 21 and the one set of captured 2D image data 26 the location of the examination object when capturing the 2D image data 26 be determined.

4 ist eine Flussdiagrammdarstellung eines Verfahrens 30 zum Ermitteln der Lage eines Untersuchungsobjekts nach einem Ausführungsbeispiel. Bei dem Verfahren werden aus vorab ermittelten 3D-Volumendaten rechnerisch virtuelle 2D-Bilddaten ermittelt. Die virtuellen 2D-Bilddaten werden für mehrere Werte von Abbildungsparametern ermittelt, um verschiedene Lagen des Volumens, das durch die 3D-Volumendaten repräsentiert wird, relativ zu einem Strahlenbündel auszutesten. Das Verfahren 30 kann von der Vorrichtung 1 durchgeführt werden. 4 is a flowchart representation of a method 30 for determining the position of an examination object according to an exemplary embodiment. In the method, virtual 2D image data are computationally determined from previously determined 3D volume data. The 2D virtual image data is obtained for multiple values of imaging parameters to test different locations of the volume represented by the 3D volume data relative to a beam. The procedure 30 can from the device 1 be performed.

Bei 31 werden 2D-Bilddaten erfasst. Die 2D-Bilddaten können mit einem Röntgen-Flächendetektor erfasst werden.at 31 2D image data is captured. The 2D image data can be acquired with an X-ray area detector.

Bei 32 werden 3D-Volumendaten des Untersuchungsobjekts ausgelesen, die vorab erfasst wurden. Die 3D-Volumendaten können beispielsweise als DICOM-Daten vorliegen. Die 3D-Volumendaten können mit einer geeigneten Untersuchungsmodalität erfasst worden sein. Insbesondere müssen die 3D-Volumendaten nicht mit der Datenerfassungseinrichtung erfasst werden, die zum Erfassen der 2D-Bilddaten bei 31 verwendet wird. Beispielsweise können die 3D-Volumendaten mit einer Computertomographie, mit einer gefilterten Rückprojektion (FBP) einer Mehrzahl von 2D-Röntgenaufnahmen, mit einer Kernspintomographie oder mit anderen Techniken erfasst werden.at 32 3D volume data of the examination object are read, which were acquired in advance. For example, the 3D volume data may be present as DICOM data. The 3D volume data may have been acquired with a suitable examination modality. In particular, the 3D volume data does not have to be acquired with the data acquisition device involved in capturing the 2D image data 31 is used. For example, the 3D volume data can be computed tomography, with a filtered Rear projection (FBP) of a plurality of 2D X-ray images, with a magnetic resonance tomography or other techniques are detected.

Bei 33 werden Werte von Abbildungsparametern initialisiert. Dazu kann beispielsweise ein Fokus-Bildebenenen-Abstand auf einen vorgegebenen Wert, z. B. 1100 mm, gesetzt werden. Der Wert für den Fokus-Bildebenen-Abstand kann abhängig von dem für die Bilderfassung tatsächlich eingestellten Abstand zwischen dem Detektor 5 und der Röntgenquelle 4 der Datenerfassungseinrichtung 2 gewählt werden, die zur Erfassung der 2D-Bilddaten verwendet wird. Der Abstand zwischen dem Fokus und dem durch die 3D-Volumendaten repräsentierten Volumen kann auf die Hälfte des Fokus-Bildebenen-Abstands voreingestellt werden. Die Werte der weiteren Abbildungsparameter können so voreingestellt werden, dass ein Zentralstrahl eines Strahlenbündels eine vorgegebene Richtung relativ zu dem Koordinatensystem der 3D-Volumendaten aufweist, beispielsweise parallel zu einer der Koordinatenachsen der 3D-Volumendaten verläuft, und durch einen vorgegebenen Punkt, beispielsweise den Volumenmittelpunkt, des durch die 3D-Volumendaten repräsentierten Volumens verläuft. Falls mit einer separaten Einrichtung die Lage des Untersuchungsobjekts abgeschätzt werden kann, kann die Initialisierung der Werte von Abbildungsparametern bei 33 abhängig von der Abschätzung der Lage erfolgen. Sofern hier und im Kontext der folgenden Schritte des Verfahrens 30 von einer Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu Strahlen, einem Fokus eines Strahlenbündels oder einer Bildebene gesprochen wird, bezieht sich dies auf die rechnerische Ermittlung der virtuellen 2D-Bilddaten. Eine Änderung der Werte der Abbildungsparameter muss, und wird typischerweise, nicht mit einer tatsächlichen Verstellung von Komponenten der Datenerfassungseinrichtung einhergehen. Vielmehr werden verschiedene Lagen rechnerisch ausgetestet, um einen Vergleich mit dem einen erfassten Satz von 2D-Bilddaten durchzuführen.at 33 Values are initialized by mapping parameters. For example, a focus image plane distance to a predetermined value, e.g. B. 1100 mm, are set. The value for the focus image plane distance may vary depending on the distance actually set for image acquisition between the detector 5 and the X-ray source 4 the data acquisition device 2 which is used to acquire the 2D image data. The distance between the focus and the volume represented by the 3D volume data may be preset at one-half of the focus-image-plane distance. The values of the further imaging parameters can be preset such that a central ray of a ray bundle has a predetermined direction relative to the coordinate system of the 3D volume data, for example parallel to one of the coordinate axes of the 3D volume data, and through a predetermined point, for example the volume center, of the volume represented by the 3D volume data. If the location of the examination object can be estimated with a separate device, the initialization of the values of imaging parameters may be included 33 depending on the assessment of the situation. Unless here and in the context of the following steps of the procedure 30 a position of the volume represented by the 3D volume data relative to rays, a focus of a beam or an image plane is referred to, this refers to the computational determination of the virtual 2D image data. A change in the values of the mapping parameters must, and typically will not, be accompanied by an actual adjustment of components of the data acquisition device. Rather, different layers are computationally tested to perform a comparison with the one detected set of 2D image data.

Bei 34 werden aus den 3D-Volumendaten virtuelle 2D-Bilddaten abhängig von den Werten der Abbildungsparameter rechnerisch ermittelt. Verschiedene Methoden können verwendet werden, um die 2D-Bilddaten rechnerisch zu ermitteln. Beispielsweise kann Volumenrendern eingesetzt werden, bei dem jedes Voxel der 3D-Volumendaten in Richtung eines Sehstrahls auf ein Pixel einer Bildebene projiziert wird. Entlang des Sehstrahls wird ein Helligkeitswert aufintegriert. Aus den 3D-Volumendaten kann die Schwächung eines Röntgenstrahls entlang eines Sehstrahls rechnerisch ermittelt werden. Die Schwächung bei Durchtritt durch einen Körper bzw. ein Voxel erfolgt nach dem Gesetz von Lambert-Beer gemäß I = I0·exp(–μ·d), (4) wobei I die Intensität des austretenden Strahls, I0 die Intensität des eintretenden Strahls, μ ein Schwächungskoeffizient und d eine Durchdringungstiefe ist. Durch Aufintegration von Gleichung (4) entlang eines Sehstrahls kann ein Pixelwert eines Pixels der virtuellen 2D-Bilddaten rechnerisch ermittelt werden. Dabei wird die Abschattung zweier entlang des Sehstrahls hintereinander liegender Voxel und die Materialeigenschaft jedes Voxels berücksichtigt. Insbesondere kann der Schwächungskoeffizient μ als Materialkonstante von Voxel zu Voxel variieren. Falls die 3D-Volumendaten mit Computertomographie-Methoden oder durch FBP mehrerer Sätze von 2D-Bilddaten ermittelt wurden, geben die Voxelwerte beispielsweise die Hounsfield-Werte an und können unmittelbar zur radiographischen Projektion herangezogen werden. Alternativ oder zusätzlich können materialangepasste Lookup-Tabellen verwendet werden, um den Voxelwerten der 3D-Volumendaten Schwächungskoeffizienten zuzuordnen. Dies kann insbesondere dann erfolgen, wenn die 3D-Volumendaten beispielsweise unter Verwendung von Magnetresonanztomographie-Methoden oder anderen Techniken, die keinen unmittelbaren Rückschluss auf Röntgenabsorptionseigenschaften des jeweiligen Materials zulassen, ermittelt wurden. Effiziente Methoden zur digitalen Röntgenbildrekonstruktion, beispielsweise unter Verwendung von so genannte Lichtfeldern, sind bekannt und können bei 34 eingesetzt werden. Ein Beispiel für eine effiziente Technik zur Ermittlung von digital rekonstruierten Röntgenbilder ist in Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 beschrieben.at 34 From the 3D volume data, virtual 2D image data are computationally determined as a function of the values of the imaging parameters. Various methods can be used to computationally determine the 2D image data. For example, volume rendering can be used in which each voxel of the 3D volume data is projected in the direction of a line of sight onto a pixel of an image plane. A brightness value is integrated along the line of sight. From the 3D volume data, the attenuation of an X-ray beam along a line of sight can be calculated. The weakening when passing through a body or a voxel according to the law of Lambert-Beer according to I = I0 * exp (-μ * d), (4) where I is the intensity of the outgoing beam, I0 is the intensity of the incoming beam, μ is an attenuation coefficient and d is a penetration depth. By integrating equation (4) along a line of sight, a pixel value of a pixel of the virtual 2D image data can be computationally determined. In this case, the shading of two voxels lying one behind the other along the visual ray and the material property of each voxel are taken into account. In particular, the attenuation coefficient μ can vary as a material constant from voxel to voxel. For example, if the 3D volume data were determined using computed tomography methods or FBP of multiple sets of 2D image data, the voxel values indicate the Hounsfield values and can be used directly for radiographic projection. Alternatively or additionally, material-adapted look-up tables can be used to assign attenuation coefficients to the voxel values of the 3D volume data. This can be done in particular if the 3D volume data were determined, for example, using magnetic resonance tomography methods or other techniques which do not allow any direct conclusion as to the X-ray absorption properties of the respective material. Efficient methods for digital x-ray image reconstruction, for example using so-called light fields, are known and can be used 34 be used. An example of an efficient technique for determining digitally reconstructed X-ray images is in Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 described.

Bei 35 werden die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten ausgegeben. Die erfassten und virtuellen 2D-Bilddaten können farblich kodiert und überlagert ausgegeben werden, um dem Benutzer eine Überprüfung der Übereinstimmung zu erleichtern. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe, z. B. rot, und die virtuellen 2D-Bilddaten in einer zweiten Farbe, z. B. grün, ausgegeben werden.at 35 The captured 2D image data and the virtual 2D image data are output. The captured and virtual 2D image data may be output in color coded and superimposed to facilitate the user's verification of the match. For example, the captured 2D image data may be in a first color, e.g. Red, and the virtual 2D image data in a second color, e.g. B. green, are output.

Bei 36 wird überprüft, ob eine Benutzereingabe zur Änderung der Werte der Abbildungsparameter innerhalb einer vorgegebenen Zeit erfolgt. Falls dies bejaht wird, werden bei 37 die Werte der Abbildungsparameter gemäß der Benutzereingabe verändert, und das Verfahren kehrt zu 34 zurück. Die Benutzereingabe bei 36 kann unter Verwendung des Eingabegeräts 14 der Datenerfassungs- oder Recheneinrichtung erfolgen. Es können verschiedene Benutzereingaben empfangen werden, die es dem Benutzer erlauben, die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Strahlenbündel zu verändern. Das Ändern der Werte der Abbildungsparameter bei 37 kann derart erfolgen, dass bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten eine der Bedienung des Eingabegeräts 14 entsprechende Lageänderung des Untersuchungsobjekts P relativ zu der Datenerfassungseinrichtung simuliert wird, ohne dass das Untersuchungsobjekt P oder die Datenerfassungseinrichtung tatsächlich im Raum bewegt werden. Falls beispielsweise eine Bedienung des Eingabegeräts im normalen Betrieb der Datenerfassungseinrichtung zu einer translatorischen Verschiebung des Untersuchungsobjekts P relativ zu der Röntgenquelle 4 führen würde, können die Werte der Abbildungsparameter bei 36 und 37 als Antwort auf diese Bedienung so verändert werden, dass die virtuellen 2D-Bilddaten für eine ebenso translatorisch verschobene Position des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Fokus des Strahlenbündels ermittelt werden. Ähnlich können bei 37 die Werte der Abbildungsparameter als Antwort auf eine Bedienung, die im normalen Betrieb eine relative Drehung zwischen Untersuchungsobjekt P und Datenerfassungseinrichtung 2 hervorrufen würde, so geändert werden, dass die entsprechende Rotation bei der Ermittlung der virtuellen 2D-Bilddaten in Echtzeit simuliert wird.at 36 It is checked whether a user input for changing the values of the imaging parameters takes place within a predetermined time. If yes, join 37 changes the values of the mapping parameters according to the user input, and the process returns 34 back. The user input at 36 can be done using the input device 14 the data acquisition or computing device done. Various user inputs may be received that allow the user to change the location of the volume represented by the 3D volume data relative to a beam. Changing the values of the mapping parameters 37 can be done such that in the computational determination of the virtual 2D image data one of the operation of the input device 14 corresponding position change of the examination object P is simulated relative to the data acquisition device, without the examination object P or the data acquisition device are actually moved in space. If, for example, an operation of the input device during normal operation of the data acquisition device to a translational displacement of the examination object P relative to the X-ray source 4 could lead to the values of the imaging parameters 36 and 37 be changed in response to this operation so that the virtual 2D image data for an equally translationally displaced position of the volume represented by the 3D volume data relative to a focus of the radiation beam are determined. Similarly, at 37 the values of the imaging parameters in response to an operation, which in normal operation, a relative rotation between the object to be examined P and data acquisition device 2 would be changed to simulate the corresponding rotation in determining the virtual 2D image data in real time.

Falls bei 36 innerhalb einer vorgegebenen Zeit keine Benutzereingabe erfolgt, die zu einer Änderung der Werte der Abbildungsparameter führt, oder falls bei 36 eine Benutzereingabe erfolgt, die anzeigt, dass der Benutzer mit der Übereinstimmung von virtuellen und erfassten 2D-Bilddaten zufrieden ist, fährt das Verfahren bei 38 fort. Bei 38 wird eine lageabhängige Information ausgegeben. Die lageabhängige Information ist in den zuletzt eingestellten Werten der Abbildungsparameter implizit. Beispielsweise kann der zuletzt eingestellte Satz von Abbildungsparameterwerten selbst gespeichert werden. Die bei 38 ausgegebene Information kann auch von den in der Schleife 3437 ermittelten Werte intrinsischer Parameter der Datenerfassungseinrichtung abhängen. Die Information über die Lage kann auf verschiedene Weisen ausgegeben werden.If at 36 within a predetermined time, no user input occurs which results in a change in the values of the mapping parameters, or if so 36 a user input is made, indicating that the user is satisfied with the match of virtual and captured 2D image data, the method joins 38 continued. at 38 a position-dependent information is output. The position-dependent information is implicit in the last set values of the mapping parameters. For example, the last set of mapping parameter values may themselves be stored. The at 38 Information output can also be from those in the loop 34 - 37 determined values of intrinsic parameters of the data acquisition device depend. The information about the situation can be output in various ways.

Beispielsweise können auch Koordinaten eines benutzerdefiniert gewählten Punkts der 3D-Volumendaten relativ zu einem Labor-Koordinatensystem oder Koordinatensystem der Datenerfassungseinrichtung ermittelt und ausgegeben werden. Die Ausgabe der Lageinformation kann beispielsweise auch derart erfolgen, dass dem Benutzer die Lage des von ihm gewählten Punkts unmittelbar, beispielsweise mit einem optischen Signal, angezeigt wird. Bei einer Ausführungsform kann das Röntgengerät als Antwort auf die ermittelte Lage automatisch derart positioniert werden, dass der von dem Benutzer in den 3D-Volumendaten gewählte Punkt bei der nächsten Datenerfassung zentral und aus einer gewünschten Richtung abgebildet wird. Auf diese Weise kann das Röntgengerät beispielsweise automatisch so positioniert werden, dass eine Bruchlinie anschließend in einer orthogonalen Draufsicht aufgenommen wird. Bei einer Ausführungsform kann die Lage eines weiteren Instruments, beispielsweise eines therapeutischen Instruments, im Raum erfasst werden. Die Ausgabe der Lage des Untersuchungsobjekts kann so erfolgen, dass eine Relativlage zwischen dem weiteren Instrument und der Position des benutzerdefiniert in den 3D-Volumendaten gewählten Punkts ermittelt und angezeigt wird. Der Benutzer kann das weitere Instrument an der von ihm in den 3D-Volumendaten vorgewählten Stelle positionieren, indem er den ausgegebenen relativen Abstand minimiert.For example, coordinates of a user-selected point of the 3D volume data relative to a laboratory coordinate system or coordinate system of the data acquisition device can also be determined and output. The output of the position information can, for example, also be such that the user is immediately informed of the position of the point he has selected, for example with an optical signal. In one embodiment, the X-ray device may be automatically positioned in response to the detected location such that the point selected by the user in the 3D volume data is mapped centrally and from a desired direction at the next data acquisition. In this way, for example, the X-ray device can be automatically positioned such that a break line is subsequently recorded in an orthogonal plan view. In one embodiment, the location of another instrument, such as a therapeutic instrument, may be detected in space. The output of the position of the examination subject can be made such that a relative position between the further instrument and the position of the user-defined point selected in the 3D volume data is determined and displayed. The user can position the further instrument at the location preselected by it in the 3D volume data by minimizing the output relative distance.

Für die praktische Anwendung, insbesondere bei Einsatz der Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen in Verbindung mit therapeutischen Instrumenten, kann es vorteilhaft sein, von einem zusätzlichen dritten Koordinatensystem, einem so genannten Weltkoordinatensystem, auszugehen, zu dem alles in Beziehung gesetzt wird. Der Patient liegt in diesem Weltkoordinatensystem. Die Lage von therapeutischen Instrumenten ist ebenfalls in Bezug auf das Weltkoordinatensystem definiert. Es kann ein Navigationssystem vorgesehen sein, mit dem die Lage von therapeutischen Instrumenten in dem Weltkoordinatensystem erfasst wird. Im allgemeinen Fall wird durch eine Registrierung der Bezug der 3D-Volumendaten zu dem Weltkoordinatensystem hergestellt. Bei Ausführungsformen können, wie beispielhaft beschrieben wurde, die 3D-Volumendaten auch direkt in dem Weltkoordinatensystem angeordnet sein. Dies kann erreicht werden, indem das Koordinatensystem der 3D-Volumendaten gleichzeitig als das Weltkoordinatensystem definiert wird.For practical application, in particular when using the devices and methods according to various embodiments in connection with therapeutic instruments, it may be advantageous to start from an additional third coordinate system, a so-called world coordinate system, to which everything is related. The patient lies in this world coordinate system. The location of therapeutic instruments is also defined in terms of the world coordinate system. A navigation system can be provided, with which the position of therapeutic instruments in the world coordinate system is detected. In the general case, registering establishes the reference of the 3D volume data to the world coordinate system. In embodiments, as exemplarily described, the 3D volume data may also be located directly in the world coordinate system. This can be accomplished by simultaneously defining the coordinate system of the 3D volume data as the world coordinate system.

Unter Bezugnahme auf 5 und 6 wird die Vorrichtung und das Verfahren nach Ausführungsformen der Erfindung weiter beschrieben.With reference to 5 and 6 the apparatus and method of embodiments of the invention will be further described.

5 ist eine schematische Darstellung, die die digitale Röntgenbildrekonstruktion anhand der 3D-Volumendaten von 2 illustriert. Die Ermittlung der 2D-Bilddaten erfolgt durch Aufsummierung bzw. Aufintegration von Helligkeitswerten entlang mehrerer Strahlen eines Strahlenbündels. Der Fokus des Strahlenbündels ist bei 40 dargestellt. Das Strahlenbündel weist eine Mehrzahl von Strahlen 41 auf. Ein Geräte-Koordinatensystem ist bei 42 dargestellt. Der Ursprung des Geräte-Koordinatensystems 42 liegt hier beispielhaft im Fokus 40, und die y-Achse des Geräte-Koordinatensystems 42 stellt den Zentralstrahl 42a des Strahlenbündels 41 dar. In einer Bildebene 43 ergeben sich virtuelle 2D-Bilddaten, die eine Abbildung 48 des Knochens 23 und eine Abbildung 49 der Bruchlinie 24 aufweisen. Die virtuellen 2D-Bilddaten unterscheiden sich von den schematisch in der Bildebene 43 dargestellten erfassten 2D-Bilddaten, die die Darstellung 28 des Knochens 23 und die Darstellung 29 der Bruchlinie 24 aufweisen. Durch Austesten verschiedener Orientierungen und/oder Positionen des Volumens, das durch die 3D-Volumendaten 21 repräsentiert wird, relativ zu dem Geräte-Koordinatensystem 42 können Werte von Abbildungsparametern ermittelt werden, für die die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten gut übereinstimmen. Zum Austesten der verschiedenen Lagen des Volumens 21 kann die Orientierung des Volumens 21 relativ zu dem Geräte-Koordinatensystem 42 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten variiert werden. Dazu können Werte von Abbildungsparametern so verändert werden, dass sie unterschiedlichen Drehungen des volumeneigenenen Koordinatensystems mit den Koordinatenachsen 4547 relativ zu dem Geräte-Koordinatensystem 42 entsprechen. Zum Austesten der verschiedenen Lagen des Volumens 21 kann weiterhin die Position des Volumens 21 relativ zu dem Fokus 40 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten variiert werden. Dazu können Werte von Abbildungsparametern so verändert werden, dass der Abstand 44 zwischen dem Fokus 40 und einem Volumenmittelpunkt des Volumens 21 und eine transversale Verschiebung des Volumens 21 in den zwei Richtungen transversal zu dem Zentralstrahl 42a verändert werden. Weiterhin kann eine Variation von Werten der Abbildungsparameter derart vorgesehen werden, dass bei der Ermittlung der virtuellen 2D-Bilddaten auch unterschiedliche Abstände zwischen Fokus 40 und Bildebene 43 und/oder eine Verkippung der Bildebene 43 aus der in 5 dargestellten, zu dem Zentralstrahl 42 orthogonalen Lage simuliert werden können. 5 is a schematic diagram illustrating the digital X-ray image reconstruction from the 3D volume data of 2 illustrated. The determination of the 2D image data is carried out by summing or integrating brightness values along a plurality of beams of a radiation beam. The focus of the beam is at 40 shown. The beam has a plurality of beams 41 on. A device coordinate system is included 42 shown. The origin of the device coordinate system 42 is an example here in focus 40 , and the y-axis of the device coordinate system 42 represents the central ray 42a of the beam 41 dar. In an image plane 43 result in virtual 2D image data that is an illustration 48 of the bone 23 and an illustration 49 the fault line 24 exhibit. The virtual 2D image data differs from those schematically in the image plane 43 captured 2D image data representing the representation 28 of the bone 23 and the presentation 29 the fault line 24 exhibit. By testing out different orientations and / or positions of the volume through the 3D volume data 21 is represented, relative to the device coordinate system 42 For example, values of imaging parameters for which the captured 2D image data and the virtual 2D image data match well may be determined. To test the different layers of the volume 21 can the orientation of the volume 21 relative to the device coordinate system 42 be varied in the computational determination of the virtual 2D image data. For this purpose, values of imaging parameters can be changed in such a way that they produce different rotations of the volume-inherent coordinate system with the coordinate axes 45 - 47 relative to the device coordinate system 42 correspond. To test the different layers of the volume 21 can continue the position of the volume 21 relative to the focus 40 be varied in the computational determination of the virtual 2D image data. For this purpose, values of imaging parameters can be changed so that the distance 44 between the focus 40 and a volume center of the volume 21 and a transverse displacement of the volume 21 in the two directions transversal to the central ray 42a to be changed. Furthermore, a variation of values of the imaging parameters may be provided such that when determining the virtual 2D image data also different distances between focus 40 and image plane 43 and / or a tilt of the image plane 43 from the in 5 shown, to the central beam 42 orthogonal position can be simulated.

6 ist eine schematische Darstellung, welche das Ergebnis der optimalen Überlagerung der tatsächlichen 2D-Bilddaten mit den virtuellen 2D-Bilddaten anhand der 3D-Volumendaten von 2 illustriert. Im Vergleich zu der in 5 dargestellten Rekonstruktion wurde die Orientierung des Volumens 21 relativ zu dem Geräte-Koordinatensystem, das in 6 bei 52 dargestellt ist, und ein Abstand von einem Fokus des Strahlenbündels verändert. Der Fokus des Strahlenbündels ist bei 50 dargestellt. Das Strahlenbündel weist eine Mehrzahl von Strahlen 51 auf. Der Zentralstrahl ist bei 52a dargestellt. In einer Bildebene 53 ergeben sich virtuelle 2D-Bilddaten, die eine Abbildung 58 des Knochens 23 und eine Abbildung 59 der Bruchlinie 24 aufweisen. Durch eine relative Drehung des Strahlenbündels gegenüber dem Volumen 21 um ca. 90° um eine Achse, die parallel zu der Achse 46 verläuft, und durch eine Verringerung des Abstands zwischen dem Fokus 50 des Strahlenbündels und dem Volumenmittelpunkt des Volumens 21 auf einen Abstand 54 wird eine gute Übereinstimmung zwischen den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten erzielt. Dabei sind beispielsweise die jeweiligen Knochenkonturen 28, 58 und die Bruchlinien 29, 59 in der Bildebene 53 gut in Deckung. 6 FIG. 12 is a schematic diagram showing the result of optimally superposing the actual 2D image data with the virtual 2D image data on the basis of the 3D volume data of FIG 2 illustrated. Compared to the in 5 The reconstruction shown was the orientation of the volume 21 relative to the device coordinate system used in 6 at 52 is shown, and a distance changed from a focus of the beam. The focus of the beam is at 50 shown. The beam has a plurality of beams 51 on. The central beam is at 52a shown. In an image plane 53 result in virtual 2D image data that is an illustration 58 of the bone 23 and an illustration 59 the fault line 24 exhibit. By a relative rotation of the beam relative to the volume 21 about 90 ° about an axis parallel to the axis 46 runs, and by reducing the distance between the focus 50 of the beam and the volume center of the volume 21 at a distance 54 a good match is achieved between the acquired 2D image data and the 2D virtual image data. In this case, for example, the respective bone contours 28 . 58 and the fault lines 29 . 59 in the picture plane 53 good for cover.

7 ist eine Flussdiagrammdarstellung eines Verfahrens 60 zum Ermitteln der Lage eines Untersuchungsobjekts nach einem weiteren Ausführungsbeispiel. Bei dem Verfahren werden aus vorab ermittelten 3D-Volumendaten rechnerisch virtuelle 2D-Bilddaten ermittelt. Die virtuellen 2D-Bilddaten werden für mehrere Werte von Abbildungsparametern ermittelt, um verschiedene Lagen des Volumen, das durch die 3D-Volumendaten repräsentiert wird, relativ zu einem Strahlenbündel auszutesten. Das Austesten von Werten von Abbildungsparametern erfolgt dabei automatisch. Das Verfahren 60 kann von der Vorrichtung 1 durchgeführt werden. 7 is a flowchart representation of a method 60 for determining the position of an examination object according to a further exemplary embodiment. In the method, virtual 2D image data are computationally determined from previously determined 3D volume data. The virtual 2D image data is acquired for multiple values of imaging parameters to test different locations of the volume represented by the 3D volume data relative to a beam. The testing of values of imaging parameters takes place automatically. The procedure 60 can from the device 1 be performed.

Bei dem Verfahren 60 werden bei 31 2D-Bilddaten erfasst, bei 32 vorab aufgenommene 3D-Volumendaten ausgelesen, bei 33 Werte von Abbildungsparametern initialisiert und bei 34 virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von den Werten der Abbildungsparameter ermittelt. Diese Schritte können wie unter Bezugnahme auf 4 beschrieben durchgeführt werden.In the process 60 become at 31 2D image data captured at 32 pre-recorded 3D volume data read at 33 Values of mapping parameters initialized and at 34 virtual 2D image data determined from the 3D volume data depending on the values of the imaging parameters. These steps can be as with reference to 4 be described described.

Bei 61 werden die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten rechnergestützt verglichen. Das Vergleichen bei 61 kann das Auswerten eines Ähnlichkeitsmaßes beinhalten. Verschiedene bekannte Ähnlichkeitsmaße können verwendet werden.at 61 For example, the virtual 2D image data and the acquired 2D image data are compared computer-aided. The comparison at 61 may include evaluating a similarity measure. Various known similarity measures can be used.

Bei 62 wird abhängig von dem Vergleich bei 61 überprüft, ob die virtuellen und erfassten 2D-Bilddaten ein Ähnlichkeitskriterium erfüllen. Das Überprüfen bei 62 kann das Vergleichen eines bei 61 bestimmten Ähnlichkeitsmaßes mit einem Schwellenwert beinhalten. Falls bei 62 ermittelt wird, dass die erfassten und virtuellen 2D-Bilddaten das Ähnlichkeitskriterium nicht erfüllen, werden bei 63 neue Werte der Abbildungsparameter gewählt. Die neuen Werte können abhängig von einem Vergleich der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten gewählt werden. Beispielsweise kann eine rechnergestützte Merkmalsextraktion in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten durchgeführt werden, um neue Werte der Abbildungsparameter zu ermitteln, die zu einer größeren Ähnlichkeit zwischen den erfassten und den virtuellen 2D-Bilddaten führen. Das Wählen der neuen Werte der Abbildungsparameter bei 63 kann abhängig von der Position einer Marke in den virtuellen und erfassten 2D-Bilddaten erfolgen. Nach dem Wählen der neuen Werte der Abbildungsparameter kehrt das Verfahren zu 34 zurück.at 62 depends on the comparison 61 checks if the virtual and captured 2D image data satisfy a similarity criterion. Checking at 62 can compare one at 61 certain similarity measure with a threshold. If at 62 is determined that the captured and virtual 2D image data does not meet the similarity criterion are added 63 new values of the imaging parameters selected. The new values may be selected depending on a comparison of the virtual 2D image data and the captured 2D image data. For example, computer-aided feature extraction in the captured 2D image data and the virtual 2D image data may be performed to determine new values of the imaging parameters that result in greater similarity between the acquired and virtual 2D image data. Selecting the new values of the mapping parameters 63 may depend on the position of a brand in the virtual and captured 2D image data. After choosing the new values of the image parameters, the process returns 34 back.

Falls bei 62 ermittelt wird, dass die virtuellen und erfassten 2D-Bilddaten das Ähnlichkeitskriterium erfüllen, werden bei 38 lageabhängige Informationen ausgegeben. Der Schritt 38 kann wie unter Bezugnahme auf 3 beschrieben ausgeführt werden.If at 62 it is determined that the virtual and captured 2D image data satisfy the similarity criterion 38 position-dependent information issued. The step 38 can as with reference to 3 be executed described.

Die unter Bezugnahme auf 3 beschriebene Änderung von Abbildungsparameterwerten abhängig von einer Benutzereingabe und die unter Bezugnahme auf 6 beschriebene Änderung von Abbildungsparameterwerten, die rechnergestützt durchgeführt wird, um verschiedene Lagen auszutesten, können bei Verfahren und Vorrichtungen nach weiteren Ausführungsformen auch kombiniert sein.The referring to 3 described alteration of mapping parameter values depending on a user input and referring to FIG 6 Modification of imaging parameter values performed in a computer-assisted manner to test different layers may also be combined in methods and apparatuses according to further embodiments.

Sowohl bei der benutzerdefinierten als auch bei der automatischen Veränderung der Abbildungsparameterwerte können die Abbildungsparameterwerte so verändert werden, dass verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens systematisch und intuitiv ausgetestet werden können, wie unter Bezugnahme auf 8 näher beschrieben werden wird. Bei einer benutzerdefinierten Veränderung der Werte kann die Vorrichtung bzw. das Verfahren so ausgestaltet sein, dass dem Benutzer entsprechende Eingabemöglichkeiten zum Hervorrufen der genannten Einstellungen zur Verfügung gestellt werden.Both in the user-defined and in the automatic change of the mapping parameter values, the mapping parameter values can be changed so that different layers of the volume represented by the 3D volume data can be systematically and intuitively debugged, as with reference to FIG 8th will be described in more detail. In the case of a user-defined change of the values, the device or the method can be configured such that the user is provided with corresponding input possibilities for generating the named settings.

8 ist eine Flussdiagrammdarstellung von Verfahrensschritten 70, die ein systematisches Auffinden von Abbildungsparameterwerten ermöglichen, für die eine gute Übereinstimmung mit den erfassten 2D-Bilddaten erreicht wird. Während eine Folge von Verfahrensschritten dargestellt ist, müssen die Schritte nicht notwendig in dieser Reihenfolgen und nicht notwendig sequentiell ausgeführt werden. Schritte können wiederholt werden, um die Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten weiter zu verbessern. 8th is a flowchart representation of method steps 70 which allow a systematic finding of mapping parameter values for which a good match with the acquired 2D image data is achieved. While a sequence of method steps are illustrated, the steps need not necessarily be performed in this order, and not necessarily sequentially. Steps can be repeated to further improve the match between virtual and captured 2D image data.

Bei 71 werden die Abbildungsparameterwerte so verändert, dass verschiedene Orientierungen des Zentralstrahls eines Strahlenbündels relativ zu dem durch die 3D-Volumendaten repräsentierten Volumen ausgetestet werden. Eine derartige Veränderung der relativen Orientierung ist in 5 und 6 schematisch dargestellt. Die Wahl der Orientierung des Zentralstrahls kann anhand eines Vergleichs von Merkmalen in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten erfolgen. Beispielsweise kann aus der Abbildung von Knochen in den erfassten und virtuellen 2D-Bilddaten die Orientierung festgelegt werden.at 71 For example, the mapping parameter values are changed to test different orientations of the central beam of a beam relative to the volume represented by the 3D volume data. Such a change in the relative orientation is in 5 and 6 shown schematically. The choice of the orientation of the central beam can be made on the basis of a comparison of features in the acquired 2D image data and the virtual 2D image data. For example, the orientation of bones in captured and virtual 2D image data may be determined.

Bei 72 werden die Abbildungsparameterwerte so verändert, dass verschiedene Verschiebungen des durch die 3D-Volumendaten repräsentierten Volumens in den Richtungen transversal zu dem Zentralstrahl des Strahlenbündels ausgetestet werden. Bei der schematischen Darstellung von 5 entspricht dies einer Verschiebung entlang den Achsen 45 und 46. Bei der schematischen Darstellung von 6 entspricht dies einer Verschiebung entlang der Achsen 46 und 47. Auf diese Weise kann die Transversalposition bestimmter Merkmale des Untersuchungsobjekts in den virtuellen 2D-Bilddaten festgelegt werden.at 72 For example, the mapping parameter values are changed so that different shifts of the volume represented by the 3D volume data in the directions transverse to the central ray of the beam are tested out. In the schematic representation of 5 this corresponds to a displacement along the axes 45 and 46 , In the schematic representation of 6 this corresponds to a shift along the axes 46 and 47 , In this way, the transversal position of certain features of the examination object can be set in the virtual 2D image data.

Bei 73 werden die Abbildungsparameterwerte so verändert, dass verschiedene Abstände zwischen einem Fokus des Strahlenbündels und einem Volumenmittelpunkt des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden. Dies führt im Wesentlichen zu einer Größenskalierung in den virtuellen 2D-Bilddaten. Verschiedene Fokus-Volumen-Abstände sind in 5 und 6 schematisch bei 44 und 54 dargestellt.at 73 For example, the mapping parameter values are changed to test different distances between a focus of the beam and a volume center of the volume represented by the 3D volume data. This essentially results in size scaling in the virtual 2D image data. Different focus-volume intervals are in 5 and 6 schematically at 44 and 54 shown.

Mit den Schritten 7173 kann die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu dem Strahlenbündel, das die Projektion beschreibt, verändert werden. Bei bekannter Lage der Strahlungsquelle 4 und des Detektors 5 der Vorrichtung 1 von 1 wird somit das durch die 3D-Volumendaten repräsentierte Volumen gewissermaßen relativ zu der Strahlungsquelle 4 und dem Detektor 5 so lange virtuell verschoben, bis sich eine ausreichende Übereinstimmung zwischen den virtuellen und erfassten 2D-Bilddaten ergibt. Die 3D-Volumendaten in der entsprechenden Lage befinden sich im Wesentlichen in Deckung mit dem entsprechenden Abschnitt des Untersuchungsobjekts. Auf diese Weise wird ein Bezug zwischen der tatsächlichen Position des Untersuchungsobjekts und den 3D-Volumendaten hergestellt.With the steps 71 - 73 For example, the position of the volume represented by the 3D volume data relative to the beam describing the projection can be changed. With known location of the radiation source 4 and the detector 5 the device 1 from 1 Thus, the volume represented by the 3D volume data becomes, so to speak, relative to the radiation source 4 and the detector 5 Virtually shifted until there is sufficient matching between the virtual and captured 2D image data. The 3D volume data in the appropriate location is substantially coincident with the corresponding portion of the examination subject. In this way, a relationship is established between the actual position of the examination object and the 3D volume data.

Optional können bei 74 und 75 noch die Werte der Abbildungsparameter so verändert werden, dass verschiedene Abstände zwischen Fokus des Strahlenbündels und Bildebene und/oder verschiedene Ausrichtungen der Bildebene relativ zu einem Zentralstrahl des Strahlenbündels ausgetestet werden. Typischerweise ist hier das Austesten eines kleinen Teils des Parameterraums ausreichend, da der Fokus-Detektor-Abstand und die Ausrichtung des Detektors relativ zu einem Zentralstrahl typischerweise wenigstens näherungsweise bekannt sind. Mit Schritten 74 und 75 kann die Übereinstimmung zwischen erfassten und virtuellen 2D-Bilddaten weiter erhöht werden.Optionally available at 74 and 75 nor the values of the imaging parameters are changed so that different distances between the focus of the beam and the image plane and / or different orientations of the image plane are tested relative to a central beam of the beam. Typically, the testing of a small portion of the parameter space is sufficient here because the focus-detector distance and the orientation of the detector relative to a central beam are typically at least approximately are known. With steps 74 and 75 For example, the match between captured and virtual 2D image data can be further increased.

Unter Bezugnahme auf die Figuren wurden Ausführungsformen beschrieben, bei denen die Lage eines Untersuchungsobjekts durch Vergleichen mehrerer Sätze von rechnerisch ermittelten, virtuellen 2D-Bilddaten mit einem einzigen Satz von erfassten 2D-Bilddaten ermittelt werden kann. Die Verfahren und Vorrichtungen können auch zur Lageermittlung eingesetzt werden, wenn mehrere Sätze von 2D-Bilddaten erfasst werden. Bei einer Ausführungsform können zeitsequentiell mehrere Sätze von 2D-Bilddaten erfasst werden. Mit den unter Bezugnahme auf die Figuren beschriebenen Prozeduren kann jeweils die Lage des Untersuchungsobjekts ermittelt werden. So kann beispielsweise während eines therapeutischen Eingriffs die Lage wiederholt bestimmt werden, auch wenn das Untersuchungsobjekt zwischen den verschiedenen Datenerfassungen unkontrolliert bewegt wurde. Bei Ausführungsformen kann auch die Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung unterschiedlicher Sätze von 2D-Bilddaten kontrolliert verändert werden. Für jeden der Sätze von 2D-Bilddaten können mit den beschriebenen Prozeduren Werte von Abbildungsparametern ermittelt derart ermittelt werden, dass die entsprechenden virtuellen 2D-Bilddaten die verschiedenen Sätze von erfassten 2D-Bilddaten gut approximieren. Die für die unterschiedlichen Sätze von 2D-Bilddaten ermittelten Werte der Abbildungsparameter können zusammengeführt werden, um eine Lagebestimmung mit höherer Genauigkeit durchzuführen. Bei Ausführungsformen können 2D-Bilddaten und weitere 2D-Bilddaten so erfasst werden, dass sie zu einer stereoskopischen Darstellung kombiniert werden können. Dazu kann beispielsweise eine entsprechende Projektion in unterschiedliche Augen des Benutzers erfolgen. Es können zugeordnete virtuelle 2D-Bilddaten und weitere virtuelle 2D-Bilddaten ermittelt werden, die ebenfalls zu einer stereoskopischen Darstellung kombiniert werden können. Die Tiefeninformation erleichtert einem Benutzer die Überprüfung, ob eine gewünschte Übereinstimmung zwischen erfassten und virtuellen 2D-Bilddaten erreicht ist.With reference to the figures, embodiments have been described in which the location of an examination object can be determined by comparing a plurality of sets of computationally determined virtual 2D image data with a single set of acquired 2D image data. The methods and apparatus can also be used for position determination when multiple sets of 2D image data are acquired. In one embodiment, multiple sets of 2D image data may be sequentially captured in time. With the procedures described with reference to the figures, the position of the examination object can be determined in each case. Thus, for example, during a therapeutic procedure, the position can be repeatedly determined, even if the examination object was moved uncontrollably between the various data acquisitions. In embodiments, the relative position between the examination object and the data acquisition device can also be changed in a controlled manner between the detection of different sets of 2D image data. For each of the sets of 2D image data, using the procedures described, values of imaging parameters can be determined such that the corresponding virtual 2D image data closely approximates the different sets of captured 2D image data. The values of the imaging parameters determined for the different sets of 2D image data can be merged to perform a higher accuracy orientation. In embodiments, 2D image data and other 2D image data may be captured so that they can be combined into a stereoscopic image. For this purpose, for example, a corresponding projection can be made in different eyes of the user. Associated 2D virtual image data and other 2D virtual image data may be determined, which may also be combined into a stereoscopic image. The depth information facilitates a user's verification of whether a desired match between captured and virtual 2D image data has been achieved.

Während unter Bezugnahme auf die Figuren Ausführungsbeispiele detailliert beschrieben wurden, können bei weiteren Ausführungsformen Abwandlungen dieser Ausführungsbeispiele realisiert werden. Während Ausführungsbeispiele im Kontext von C-Arm-Geräten beschrieben wurden, können Vorrichtungen und Verfahren nach Ausführungsformen der Erfindung auch bei anderen Geräten eingesetzt werden, bei denen ein Satz von 2D-Bilddaten oder wenige Sätze von 2D-Bilddaten erfasst werden, und bei denen die Lage des Untersuchungsobjekts bestimmt werden soll.While exemplary embodiments have been described in detail with reference to the figures, in further embodiments, modifications of these embodiments can be realized. While embodiments have been described in the context of C-arm devices, devices and methods in accordance with embodiments of the invention may also be used with other devices that capture a set of 2D image data or a few sets of 2D image data, and in which US Pat Location of the examination object to be determined.

Ausführungsbeispiele der Erfindung erlauben die Ermittlung der Position eines Untersuchungsobjekts abhängig von einem Satz von erfassten 2D-Bilddaten und vorab erfassten 3D-Volumendaten und bieten aktuelle 3D-Informationen, ohne dass die 3D-Volumendaten erneut aufgenommen werden müssen. Anwendungsfelder bestehen beispielsweise bei der medizinischen Technik.Embodiments of the invention allow the determination of the position of an examination object depending on a set of acquired 2D image data and pre-acquired 3D volume data and provide current 3D information without having to resume the 3D volume data. Application fields exist, for example, in medical technology.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Vorrichtung zur LagebestimmungDevice for determining the position
22
C-Arm-GerätC-arm device
33
C-ArmC-Arm
3'3 '
C-Arm in weiterer StellungC-arm in another position
44
RöntgenquelleX-ray source
55
RöntgendetektorX-ray detector
66
Strahlenkonuscone beam
6'6 '
weiterer Strahlenkonusfurther radiation cone
77
C-Arm-AntriebC-arm drive
88th
Bewegung des C-ArmsMovement of the C-arm
99
Patiententischpatient table
1010
Steuereinrichtungcontrol device
1111
Recheneinrichtungcomputing device
1212
Ausgabeeinrichtungoutput device
1313
Speichereinrichtungmemory device
1414
Eingabeeinrichtunginput device
1515
Abschnitt der EingabeeinrichtungSection of the input device
15a15a
Abschnitt der EingabeeinrichtungSection of the input device
1616
Gelenkjoint
2020
Markebrand
2121
3D-Volumendaten3D volume data
22 22
Oberschenkelthigh
2323
Knochenbone
2424
Bruchliniebreakline
2626
2D-Bilddaten2D image data
2727
Unterschenkel in erfassten 2D-BilddatenLower leg in captured 2D image data
2828
Knochen in erfassten 2D-BilddatenBones in captured 2D image data
2929
Bruchlinie in erfassten 2D-BilddatenFracture line in captured 2D image data
3030
Verfahrenmethod
31–3831-38
Verfahrensschrittesteps
4040
Fokusfocus
4141
Strahlen eines StrahlenkonusRays of a ray cone
4242
Geräte-KoordinatensystemDevice coordinate system
42a42a
Zentralstrahlcentral beam
4343
Bildebeneimage plane
4444
Abstanddistance
45–4745-47
Koordinatenachsen des VolumensCoordinate axes of the volume
4848
Knochen in virtuellen 2D-BilddatenBones in virtual 2D image data
4949
Bruchlinie in virtuellen 2D-BilddatenFracture line in virtual 2D image data
5050
Fokusfocus
5151
Strahlen eines StrahlenkonusRays of a ray cone
5252
Geräte-KoordinatensystemDevice coordinate system
52a52a
Zentralstrahlcentral beam
5353
Bildebeneimage plane
5454
Abstanddistance
55–5755-57
Koordinatenachsen des VolumensCoordinate axes of the volume
5858
Knochen in virtuellen 2D-BilddatenBones in virtual 2D image data
5959
Bruchlinie in virtuellen 2D-BilddatenFracture line in virtual 2D image data
6060
Verfahrenmethod
61–6361-63
Verfahrensschrittesteps
7070
Verfahrenmethod
71–7571-75
Verfahrensschrittesteps

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102004004603 A1 [0005] DE 102004004603 A1 [0005]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0046] Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 [0046]
  • Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0066] Aodong Shen and Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), pp. 1-4 [0066]

Claims (21)

Verfahren zum Bestimmen einer Lage eines Untersuchungsobjekts (P), umfassend: – Erfassen eines Satzes von 2D-Bilddaten (26, 28, 29), der das Untersuchungsobjekt (P) repräsentiert, mit einer Datenerfassungseinrichtung (2), und – Ermitteln der Lage des Untersuchungsobjekts (P) abhängig von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und den erfassten 2D-Bilddaten (26, 28, 29), dadurch gekennzeichnet, dass virtuelle 2D-Bilddaten (48, 49; 58, 59) aus den 3D-Volumendaten (21) abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten (21) repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch ermittelt werden, wobei die virtuellen 2D-Bilddaten (48, 49; 58, 59) für mehrere Sätze von Abbildungsparameterwerten der Abbildungsparameter ermittelt werden, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den erfassten 2D-Bilddaten (26, 28, 29) zu erhöhen, und dass die Lage des Untersuchungsobjekts (P) abhängig von wenigstens einem Satz von Abbildungsparameterwerten der mehreren Sätze von Abbildungsparameterwerten ermittelt wird.Method for determining a position of an examination object (P), comprising: - acquiring a set of 2D image data ( 26 . 28 . 29 ), which represents the examination object (P), with a data acquisition device ( 2 ), and - determining the position of the examination subject (P) as a function of 3D volume data ( 21 ) of the examination object (P) and the captured 2D image data ( 26 . 28 . 29 ), characterized in that virtual 2D image data ( 48 . 49 ; 58 . 59 ) from the 3D volume data ( 21 ) depending on mapping parameters representing an image between voxel coordinate triplets of one through the 3D volume data ( 21 ) and pixel coordinate tuples of 2D image data are described, computationally determined, the virtual 2D image data ( 48 . 49 ; 58 . 59 ) for a plurality of sets of mapping parameter values of the mapping parameters to obtain a match between the virtual 2D image data ( 48 . 49 ; 58 . 59 ) and the captured 2D image data ( 26 . 28 . 29 ), and that the location of the examination subject (P) is determined in dependence on at least one set of mapping parameter values of the plurality of sets of mapping parameter values. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Abbildungsparameter Einträge einer Projektionsmatrix umfassen, und dass die virtuellen 2D-Bilddaten (48, 49; 58, 59) für die mehreren Sätze von Abbildungsparameterwerten durch eine radiographische Projektion ermittelt werden.Method according to Claim 1, characterized in that the imaging parameters comprise entries of a projection matrix, and in that the virtual 2D image data ( 48 . 49 ; 58 . 59 ) for the plurality of sets of mapping parameter values by a radiographic projection. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Lage des Untersuchungsobjekts (P) abhängig von einem Satz von Abbildungsparameterwerten ermittelt wird, für den die virtuellen 2D-Bilddaten (48, 49; 58, 59) und die erfassten 2D-Bilddaten (26, 28, 29) vorgegebene Ähnlichkeitskriterien erfüllen.Method according to claim 1 or 2, characterized in that the position of the examination subject (P) is determined as a function of a set of imaging parameter values for which the virtual 2D image data ( 48 . 49 ; 58 . 59 ) and the captured 2D image data ( 26 . 28 . 29 ) meet predetermined similarity criteria. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mehreren Sätze von Abbildungsparameterwerten so bestimmt werden, dass sie die Abbildung zwischen den Voxel-Koordinatentripeln und den Pixel-Koordinatentupeln für mehrere unterschiedliche Lagen des durch die 3D-Volumendaten (21) repräsentierten Volumens relativ zu einem Strahlenbündel (41, 42a; 51, 52a) beschreiben.A method according to any one of the preceding claims, characterized in that the plurality of sets of mapping parameter values are determined to match the mapping between the voxel coordinate triples and the pixel coordinate tuples for a plurality of different layers of the 3D volume data ( 21 ) represented volume relative to a beam ( 41 . 42a ; 51 . 52a ). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die mehreren Sätze von Abbildungsparameterwerten derart bestimmt werden, dass unterschiedliche Orientierungen und/oder translatorische Verschiebungen des durch die 3D-Volumendaten (21) repräsentierten Volumens relativ zu einem Koordinatensystem (42; 52) des Strahlenbündels (41, 42a; 51, 52a) und/oder unterschiedliche Orientierungen und/oder translatorische Verschiebungen eines Detektors (5) der Datenerfassungseinrichtung (2) relativ zu dem Koordinatensystem (42; 52) des Strahlenbündels (41, 42a; 51, 52a) ausgetestet werden.A method according to claim 4, characterized in that the plurality of sets of mapping parameter values are determined such that different orientations and / or translational displacements of the 3D volume data ( 21 ) represented relative to a coordinate system ( 42 ; 52 ) of the beam ( 41 . 42a ; 51 . 52a ) and / or different orientations and / or translatory displacements of a detector ( 5 ) of the data acquisition device ( 2 ) relative to the coordinate system ( 42 ; 52 ) of the beam ( 41 . 42a ; 51 . 52a ) are tested. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein Satz von Abbildungsparameterwerten abhängig von einer Benutzereingabe bestimmt wird.Method according to one of the preceding claims, characterized in that at least one set of mapping parameter values is determined depending on a user input. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Benutzereingabe über eine Eingabeeinrichtung (14), insbesondere über eine Eingabeeinrichtung (14) mit wenigstens sechs Freiheitsgraden, der Datenerfassungseinrichtung (2) erfolgt.A method according to claim 6, characterized in that the user input via an input device ( 14 ), in particular via an input device ( 14 ) with at least six degrees of freedom, the data acquisition device ( 2 ) he follows. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten (48, 49; 58, 59) mit den erfassten 2D-Bilddaten (26, 28, 29) verglichen werden, um zu ermitteln, ob die virtuellen 2D-Bilddaten (48, 49; 58, 59) und die erfassten 2D-Bilddaten (26, 28, 29) ein vorgegebenes Ähnlichkeitskriterium erfüllen, und dass automatisch wenigstens ein weiterer Satz von Abbildungsparameterwerten bestimmt wird, falls das vorgegebene Ähnlichkeitskriterium nicht erfüllt ist.Method according to one of the preceding claims, characterized in that the virtual 2D image data (λ) determined for a set of mapping parameter values ( 48 . 49 ; 58 . 59 ) with the acquired 2D image data ( 26 . 28 . 29 ) to determine if the virtual 2D image data ( 48 . 49 ; 58 . 59 ) and the captured 2D image data ( 26 . 28 . 29 ) satisfy a predetermined similarity criterion and that automatically determining at least one further set of mapping parameter values if the predetermined similarity criterion is not met. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass an dem Untersuchungsobjekt (P) wenigstens eine Marke (20) vorgesehen ist, die in den erfassten 2D-Bilddaten und in den virtuellen 2D-Bilddaten sichtbar ist, und dass der weitere Satz von Abbildungsparameterwerten abhängig von Lagen der wenigstens einen Marke in den erfassten 2D-Bilddaten und in den für den Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten automatisch bestimmt wird.Method according to Claim 8, characterized in that at least one mark (15) is applied to the examination subject (P). 20 ) that is visible in the acquired 2D image data and in the 2D virtual image data, and that the further set of imaging parameter values depends on locations of the at least one marker in the acquired 2D image data and those determined for the set of mapping parameter values virtual 2D image data is automatically determined. Verfahren nach einem der Ansprüche dadurch gekennzeichnet, dass die erfassten 2D-Bilddaten (26, 28, 29) und die virtuellen 2D-Bilddaten (48, 49; 58, 59) über eine optische Ausgabeeinrichtung (12) ausgegeben werden.Method according to one of the claims, characterized in that the captured 2D image data ( 26 . 28 . 29 ) and the virtual 2D image data ( 48 . 49 ; 58 . 59 ) via an optical output device ( 12 ). Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die erfassten 2D-Bilddaten (26, 28, 29) und die virtuellen 2D-Bilddaten (48, 49; 58, 59) gleichzeitig und kodiert, insbesondere farbkodiert und/oder polarisationskodiert, über die optische Ausgabeeinrichtung (12) ausgegeben werden. A method according to claim 10, characterized in that the captured 2D image data ( 26 . 28 . 29 ) and the virtual 2D image data ( 48 . 49 ; 58 . 59 ) simultaneously and encoded, in particular color-coded and / or polarization-coded, via the optical output device ( 12 ). Verfahren nach einem der Ansprüche dadurch gekennzeichnet, dass weitere 2D-Bilddaten, die das Untersuchungsobjekt (P) repräsentieren und von den erfassten 2D-Bilddaten (26, 28, 29) verschieden sind, mit der Datenerfassungseinrichtung (2) erfasst werden, und dass weitere virtuelle 2D-Bilddaten aus den 3D-Volumendaten (21) basierend auf weiteren Abbildungsparameterwerten rechnerisch ermittelt werden.Method according to one of the claims, characterized in that further 2D image data representing the examination object (P) and of the acquired 2D image data ( 26 . 28 . 29 ) are different with the data acquisition device ( 2 ), and that further virtual 2D image data from the 3D volume data ( 21 ) are calculated based on further mapping parameter values. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass aus den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den weiteren virtuellen 2D-Bilddaten eine stereoskopische Darstellung erzeugt wird.Method according to claim 12, characterized in that from the virtual 2D image data ( 48 . 49 ; 58 . 59 ) and the further virtual 2D image data a stereoscopic representation is generated. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die weiteren Abbildungsparameterwerte abhängig von den zur rechnerischen Ermittlung der virtuellen 2D-Bilddaten (48, 49; 58, 59) verwendeten Abbildungsparameterwerten bestimmt werden.Method according to claim 12 or 13, characterized in that the further mapping parameter values depend on the computational determination of the virtual 2D image data ( 48 . 49 ; 58 . 59 ) mapping parameter values are determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine geometrische Verzeichnung der erfassten 2D-Bilddaten (26) bei einem Vergleich der erfassten 2D-Bilddaten (26) und der virtuellen 2D-Bilddaten (48, 49; 58, 59) berücksichtigt wird.Method according to one of the preceding claims, characterized in that a geometric distortion of the acquired 2D image data ( 26 ) when comparing the captured 2D image data ( 26 ) and the virtual 2D image data ( 48 . 49 ; 58 . 59 ) is taken into account. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Datenerfassungseinrichtung (2) eine Vorrichtung zur Röntgenbildgebung ist.Method according to one of the preceding claims, characterized in that the data acquisition device ( 2 ) is a device for X-ray imaging. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass wenigstens zwei Sätze von Abbildungsparameterwerten so bestimmt werden, dass die virtuellen 2D-Bilddaten für unterschiedliche Lagen eines Röntgendetektors (5) relativ zu einer Strahlungsquelle (4) der Datenerfassungseinrichtung (2) ermittelt werden.A method according to claim 16, characterized in that at least two sets of mapping parameter values are determined so that the virtual 2D image data for different layers of an X-ray detector ( 5 ) relative to a radiation source ( 4 ) of the data acquisition device ( 2 ) be determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die 2D-Bilddaten unter Verwendung elektromagnetischer Strahlung, insbesondere optisch, erfasst werden, und dass die virtuellen 2D-Bilddaten abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik rechnerisch ermittelt werden.Method according to one of the preceding claims, characterized in that the 2D image data are detected using electromagnetic radiation, in particular optically, and that the virtual 2D image data are determined by calculation as a function of the technology used to acquire the 2D image data. Computerprogramm umfassend eine Befehlsfolge, die bei Ausführung durch eine elektronische Recheneinrichtung (11) einer Vorrichtung (1) zur medizinischen Bildgebung die Vorrichtung (1) zur Durchführung des Verfahrens nach einem der Ansprüche 1–18 veranlasst.Computer program comprising a sequence of instructions which, when executed by an electronic computer ( 11 ) a device ( 1 ) for medical imaging the device ( 1 ) for carrying out the method according to one of claims 1-18. Vorrichtung zum Erfassen einer Lage eines Untersuchungsobjekts (P), umfassend: – eine Erfassungseinrichtung (2) zum Erfassen eines Satzes von 2D-Bilddaten (26, 28, 29) eines Untersuchungsobjekts (P), – eine Speichereinrichtung (13) zum Speichern von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und – eine Recheneinrichtung (11), die mit der Speichereinrichtung (13) und der Erfassungseinrichtung (2) gekoppelt und eingerichtet ist, um die Lage des Untersuchungsobjekts (P) abhängig von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und den erfassten 2D-Bilddaten (26, 28, 29) zu bestimmen, dadurch gekennzeichnet, dass die Recheneinrichtung (11) eingerichtet ist, um virtuelle 2D-Bilddaten (48, 49; 58, 59) aus den 3D-Volumendaten (21) abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten (21) repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch zu ermitteln, wobei die Recheneinrichtung (11) eingerichtet ist, um die virtuellen 2D-Bilddaten (48, 49; 58, 59) für mehrere Sätze von Abbildungsparameterwerten zu ermitteln, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den erfassten 2D-Bilddaten (26, 28, 29) zu erhöhen, und um die Lage des Untersuchungsobjekts (P) abhängig von wenigstens einem Satz von Abbildungsparameterwerten der mehreren Sätze von Abbildungsparameterwerten zu ermitteln.Device for detecting a position of an examination object (P), comprising: - a detection device ( 2 ) for capturing a set of 2D image data ( 26 . 28 . 29 ) of an examination object (P), - a memory device ( 13 ) for storing 3D volume data ( 21 ) of the examination object (P) and - a computing device ( 11 ) connected to the memory device ( 13 ) and the detection device ( 2 ) and is set up to determine the position of the examination object (P) as a function of 3D volume data ( 21 ) of the examination object (P) and the captured 2D image data ( 26 . 28 . 29 ), characterized in that the computing device ( 11 ) is adapted to virtual 2D image data ( 48 . 49 ; 58 . 59 ) from the 3D volume data ( 21 ) depending on mapping parameters representing an image between voxel coordinate triplets of one through the 3D volume data ( 21 ) and pixel coordinate tuples of 2D image data describe, computationally determine, wherein the computing device ( 11 ) is set up to display the virtual 2D image data ( 48 . 49 ; 58 . 59 ) for a plurality of sets of mapping parameter values to determine a match between the virtual 2D image data ( 48 . 49 ; 58 . 59 ) and the captured 2D image data ( 26 . 28 . 29 ) and to determine the location of the examination subject (P) in dependence upon at least one set of mapping parameter values of the plurality of sets of mapping parameter values. Vorrichtung nach Anspruch 20, dadurch gekennzeichnet, dass die Vorrichtung (1) zur Durchführung des Verfahrens nach einem der Ansprüche 2–18 eingerichtet ist.Device according to claim 20, characterized in that the device ( 1 ) is arranged to carry out the method according to one of claims 2-18.
DE102010020287.8A 2010-05-12 2010-05-12 Method, data carrier with computer program stored thereon and device for determining the position of an examination object Active DE102010020287B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010020287.8A DE102010020287B4 (en) 2010-05-12 2010-05-12 Method, data carrier with computer program stored thereon and device for determining the position of an examination object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010020287.8A DE102010020287B4 (en) 2010-05-12 2010-05-12 Method, data carrier with computer program stored thereon and device for determining the position of an examination object

Publications (2)

Publication Number Publication Date
DE102010020287A1 true DE102010020287A1 (en) 2011-11-17
DE102010020287B4 DE102010020287B4 (en) 2018-11-08

Family

ID=44859572

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010020287.8A Active DE102010020287B4 (en) 2010-05-12 2010-05-12 Method, data carrier with computer program stored thereon and device for determining the position of an examination object

Country Status (1)

Country Link
DE (1) DE102010020287B4 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200661A1 (en) * 2012-01-18 2013-07-18 Siemens Aktiengesellschaft Method for determining image pick-up parameters for fluoroscopy recording of image of patient, involves analyzing digitally reconstructed radiograph image data in terms of expected attenuation of object penetrating X-rays
WO2014008613A1 (en) * 2012-07-12 2014-01-16 Ao Technology Ag Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144759A (en) * 1997-02-14 2000-11-07 U.S. Philips Corporation Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method
DE102004004603A1 (en) 2004-01-29 2005-08-18 Siemens Ag Medical imaging patient movement compensation procedure registers first image with known calibration and compares subsequent images to determine differences for compensation
US20060281971A1 (en) * 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
DE102006055934A1 (en) * 2006-11-27 2008-06-12 Siemens Ag Evaluation method for a number of two-dimensional projection images of a three-dimensional examination object
US20100002839A1 (en) * 2008-07-04 2010-01-07 Kabushiki Kaisha Toshiba X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144759A (en) * 1997-02-14 2000-11-07 U.S. Philips Corporation Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method
DE102004004603A1 (en) 2004-01-29 2005-08-18 Siemens Ag Medical imaging patient movement compensation procedure registers first image with known calibration and compares subsequent images to determine differences for compensation
US20060281971A1 (en) * 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
DE102006055934A1 (en) * 2006-11-27 2008-06-12 Siemens Ag Evaluation method for a number of two-dimensional projection images of a three-dimensional examination object
US20100002839A1 (en) * 2008-07-04 2010-01-07 Kabushiki Kaisha Toshiba X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1-4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200661A1 (en) * 2012-01-18 2013-07-18 Siemens Aktiengesellschaft Method for determining image pick-up parameters for fluoroscopy recording of image of patient, involves analyzing digitally reconstructed radiograph image data in terms of expected attenuation of object penetrating X-rays
DE102012200661B4 (en) 2012-01-18 2019-01-03 Siemens Healthcare Gmbh Method and device for determining image acquisition parameters
WO2014008613A1 (en) * 2012-07-12 2014-01-16 Ao Technology Ag Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status

Also Published As

Publication number Publication date
DE102010020287B4 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
DE102010020781B4 (en) Determination and verification of the coordinate transformation between an X-ray system and a surgical navigation system
DE102015208929B3 (en) Method for 2D-3D registration, computing device and computer program
EP2189940B1 (en) Calculation of indicator body elements and pre-indicator trajectories
EP2119397B1 (en) Determining calibration information for an x-ray machine
DE102011078212B4 (en) Method and device for displaying an object
EP0880109B1 (en) Method for determining the transformation between an object and its three dimensional representation and device for carrying out this method
EP1894538B1 (en) Method and device for determining the position of pelvic planes
DE102005029242B4 (en) Method for recording and evaluating image data of an examination object and associated device
DE102006012945B4 (en) A method of virtual layer positioning in a 3D volume data set and medical imaging system
DE10301075B4 (en) Patient positioning through video imaging
DE102014218557B4 (en) User interface and method for automated positioning of a patient table relative to a medical device
DE102016210131A1 (en) Position an examination object for an imaging procedure
DE102007013807A1 (en) Image acquisition, image processing and image visualization system for assisting the navigation of interventional tools when performing CT- and MRI-guided interventions
DE112004002435B4 (en) Determination of patient-related information on the position and orientation of MR images by individualizing a body model
DE102012201798A1 (en) Method for planning X-ray imaging by using X-ray imaging device for imaging examination zone of e.g. heart of human patient for treatment of heart disease, involves determining irradiated region of object based on attitude parameters
DE102006007254A1 (en) Determining three-dimensional movement of object for medical imaging, by using two-dimensional movement of markers in two or more radiographic images
DE102011076930A1 (en) Method and device for adapting the representation of volume data of an object
EP1348394A1 (en) Planning or navigation assistance by generic obtained patient data with two-dimensional adaptation
DE102016215831A1 (en) Automatic generation of synthetic projections
DE102017203438A1 (en) A method for image support of a minimally invasive intervention with an instrument in an intervention area of a patient performing person, X-ray device, computer program and electronically readable data carrier
EP1498851A1 (en) Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images
WO2011120795A1 (en) Method for ascertaining the three-dimensional volume data, and imaging apparatus
DE102010020287B4 (en) Method, data carrier with computer program stored thereon and device for determining the position of an examination object
DE102012200686A1 (en) Method for positioning X-ray device, involves acquiring image data set by imaging device, where image data set has examination area of examination object, and coordinates are obtained inside image data set for determining positioning data
DE102019214302A1 (en) Method for registering an X-ray image data set with a navigation system, computer program product and system

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE