DE102010020287A1 - Verfahren und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts - Google Patents

Verfahren und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts Download PDF

Info

Publication number
DE102010020287A1
DE102010020287A1 DE102010020287A DE102010020287A DE102010020287A1 DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1 DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A DE102010020287 A DE 102010020287A DE 102010020287 A1 DE102010020287 A1 DE 102010020287A1
Authority
DE
Germany
Prior art keywords
image data
virtual
data
parameter values
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010020287A
Other languages
English (en)
Other versions
DE102010020287B4 (de
Inventor
Dr. Barth Karl
Dr. Graumann Rainer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SIEMENS HEALTHINEERS AG, DE
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102010020287.8A priority Critical patent/DE102010020287B4/de
Publication of DE102010020287A1 publication Critical patent/DE102010020287A1/de
Application granted granted Critical
Publication of DE102010020287B4 publication Critical patent/DE102010020287B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/565Correction of image distortions, e.g. due to magnetic field inhomogeneities
    • G01R33/56509Correction of image distortions, e.g. due to magnetic field inhomogeneities due to motion, displacement or flow, e.g. gradient moment nulling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Abstract

Um die Lage eines Untersuchungsobjekts zu bestimmen, wird ein Satz von 2D-Bilddaten (28, 29), die das Untersuchungsobjekt repräsentieren, erfasst. Aus 3D-Volumendaten (21) des Untersuchungsobjekts werden rechnerisch virtuelle 2D-Bilddaten (48, 49) abhängig von Abbildungsparametern ermittelt. Werte der Abbildungsparameter werden verändert, um unterschiedliche Lagen des durch die 3D-Volumendaten (21) repräsentierten Volumens auszutesten und die Übereinstimmung der virtuellen 2D-Bilddaten (48, 49) mit den erfassten 2D-Bilddaten (28, 29) zu erhöhen. Abhängig von den Werten der Abbildungsparameter wird die Lage des Untersuchungsobjekts ermittelt.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts. Die Erfindung betrifft insbesondere ein Verfahren und eine Vorrichtung, das bzw. die eine Lagebestimmung abhängig von vorab aufgenommenen dreidimensionalen (3D) Volumendaten des Untersuchungsobjekts erlaubt.
  • Die dreidimensionale Bild- oder Objekterfassung ist in der medizinischen Technik weit verbreitet. 3D-Volumendaten dienen häufig zur Vorbereitung von therapeutischen und/oder chirurgischen Maßnahmen. Ein Anwendungsbeispiel ist die Traumarekonstruktion, beispielsweise zur Behandlung von Knochenbrüchen, bei der anhand vorab aufgenommener 3D-Volumendaten des Untersuchungsobjekts weitere Behandlungsschritte geplant werden können. Wenn eine 3D-Bildgebung bei oder unmittelbar vor einer Therapie, und während das Untersuchungsobjekt bereits für die Therapie positioniert ist, durchgeführt wird, ist die Lage des Untersuchungsobjekts bei der Erfassung der 3D-Volumendaten bekannt. Dies erlaubt es, die 3D-Volumendaten unmittelbar zur Therapie heranzuziehen. Jedoch kann eine derartige in-situ-3D-Bildgebung aus zeitlichen Gründen oder aufgrund der damit einhergehenden Strahlenbelastung unerwünscht sein. Aus diesen Gründen kann es wünschenswert sein, vorab aufgenommene 3D-Volumendaten des Untersuchungsobjekts später erneut zu verwenden.
  • Für eine zuverlässige Verwendung von vorab aufgenommenen 3D-Volumendaten kann es erforderlich sein, eine räumliche Zuordnung der 3D-Volumendaten zur Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt, beispielsweise während eines Eingriffs, zu bestimmen. Beispielsweise kann es für eine zielgerichtete Therapie einer Knochenfraktur, deren Lage und Verlauf vorab in 3D-Volumendaten aufgenommen wurde, erforderlich sein, die Lage des Untersuchungsobjekts vor Beginn eines Eingriffs mit den 3D-Volumendaten in Beziehung zu setzen.
  • Eine Möglichkeit, 3D-Volumendaten mit einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt in Beziehung zu setzen, besteht in der so genannten Registrierung unter Verwendung von Marken. Dabei können eine oder mehrere Marken an dem Untersuchungsobjekt angebracht werden. Die Marken, beispielsweise verschiedenfarbige Kugeln, werden mit einem Stereokamerasystem aufgenommen. Die Position der Untersuchungsobjekts wird durch eine Bildauswertung ermittelt. Eine derartige markenbasierte Registrierung kann zusätzlichen apparativen Aufwand erfordern, der aus Kostengründen unerwünscht sein kann. Die Marken müssen gegebenenfalls über einen längeren Zeitraum an wohldefinierten Positionen an dem Untersuchungsobjekt angebracht bleiben.
  • Ein Verfahren, bei dem die Bewegung eines Untersuchungsobjekts basierend auf einer 2D/3D-Registrierung verfolgt wird, ist in der DE 10 2004 004 603 A1 beschrieben.
  • Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung anzugeben, das bzw. die es erlaubt, die Lage eines Untersuchungsobjekts mit vorab aufgenommenen 3D-Volumendaten in Beziehung zu setzen. Insbesondere liegt der Erfindung die Aufgabe zugrunde, ein derartiges Verfahren und eine derartige Vorrichtung anzugeben, bei dem bzw. bei der die Beziehung zwischen der Lage des Untersuchungsobjekts mit den vorab aufgenommenen 3D-Volumendaten abhängig von 2D-Bilddaten erfolgen kann, ohne die Stellung der zum Erfassen der 2D-Bilddaten verwendeten Datenerfassungseinrichtung relativ zu dem Untersuchungsobjekt genau kennen zu müssen.
  • Erfindungsgemäß werden ein Verfahren, ein Computerprogramm und eine Vorrichtung angegeben, wie sie in den unabhängigen Ansprüchen definiert sind. Die abhängigen Ansprüche definieren bevorzugte oder vorteilhafte Ausführungsformen der Erfindung.
  • Bei einem Verfahren zum Bestimmen einer Lage eines Untersuchungsobjekts nach einem Aspekt der Erfindung wird ein Satz von 2D-Bilddaten, der das Untersuchungsobjekt repräsentiert, mit einer Datenerfassungseinrichtung erfasst. Eine Lage des Untersuchungsobjekts wird abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten ermittelt. Zum Ermitteln der Lagen werden virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern rechnerisch ermittelt. Die Abbildungsparameter beschreiben eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten. Die virtuellen 2D-Bilddaten werden für mehrere Sätze von Abbildungsparameterwerten der Abbildungsparameter ermittelt, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen. Die Lage des Untersuchungsobjekts wird abhängig von wenigstens einem Satz von Abbildungsparameterwerten ermittelt.
  • Bei dem Verfahren kann die Lage des Untersuchungsobjekts durch einen Vergleich von aus den 3D-Volumendaten rechnerisch ermittelten virtuellen 2D-Bilddaten und dem tatsächlich erfassten Satz von 2D-Bilddaten ermittelt werden. Durch Wählen von verschiedenen Sätzen von Abbildungsparameterwerten können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten ermittelt werden. Das Erfassen eines einzigen Satzes von 2D-Bilddaten, der genau eine 2D-Abbildung des Untersuchungsobjekts repräsentiert, kann für die Ermittlung der Lage ausreichen. Es ist jedoch nicht ausgeschlossen, dass auch mehrere Sätze von 2D-Bilddaten erfasst werden können, um die Lage des Untersuchungsobjekts zu einem Zeitpunkt oder mehrere unterschiedliche Lagen des Untersuchungsobjekts zu unterschiedlichen Zeitpunkten zu ermitteln. Im Vergleich zu einer vollständigen erneuten 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden. Die Lage des Objekts kann bei dem Verfahren auch implizit ermittelt werden, beispielsweise durch Speichern des zuletzt eingestellten Satzes von Abbildungsparameterwerten oder von daraus abgeleiteten Größen.
  • Die Abbildungsparameter können Einträge einer Projektionsmatrix umfassen. Mit Projektionsmatrizen lassen sich Abbildungen von Voxel-Koordinatentripeln in Pixel-Koordinatentupel bei der 2D-Röntgenbildgebung gut beschreiben. Die virtuellen 2D-Bilddaten können für die mehreren Sätze von Abbildungsparameterwerten durch eine radiographische Projektion ermittelt werden. Auf diese Weise lassen sich verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens bei der 2D-Röntgenbildgebung rechnerisch simulieren.
  • Die Lage des Untersuchungsobjekts kann abhängig von einem Satz von Abbildungsparameterwerten ermittelt werden, für den die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten vorgegebene Ähnlichkeitskriterien erfüllen. Verschiedene Ähnlichkeitsmaße können verwendet werden, beispielsweise Kreuzkorrelationen, wechselseitige Entropie, wechselseitige Information, Gradienten-Kreuzkorrelationen, Zählraten von Bildsignaldifferenzen, Musterintensitäten und dergleichen, um das Erfüllen von Ähnlichkeitskriterien zu überprüfen. Auf diese Weise kann die Ähnlichkeit zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten quantifiziert werden. Es können diejenigen Werte von Abbildungsparametern ermittelt werden, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut, insbesondere am besten, übereinstimmen. Aus diesen Werten kann die Lage des Untersuchungsobjekts ermittelt werden.
  • Die mehreren Sätze von Abbildungsparameterwerten können so bestimmt werden, dass sie die Abbildung zwischen den Voxel-Koordinatentripeln und den Pixel-Koordinatentupeln für mehrere unterschiedliche Lagen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Strahlenbündel beschreiben. Auf diese Weise können unterschiedliche Lagen des Volumens relativ zu Strahlen eines Strahlenbündels ausgetestet werden. Das durch die 3D-Volumendaten repräsentierte Volumen kann gewissermaßen relativ zu einer Strahlungsquelle und einem Detektor der Datenerfassungseinrichtung translatorisch verschoben und/oder rotiert werden, um jeweils die resultierenden virtuellen 2D-Bilddaten zu ermitteln und schließlich mit den erfassten 2D-Bilddaten möglichst gut zur Deckung zu bringen.
  • Die mehreren Sätze von Abbildungsparameterwerten können derart bestimmt werden, dass die unterschiedlichen Lagen sich in einer Orientierung des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem vorgegebenen Strahl, beispielsweise dem Zentralstrahl, des Strahlenbündels unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem lateralen Versatz des durch die 3D-Volumendaten repräsentierten Volumens relativ zu dem Zentralstrahl des Strahlenbündels oder zu einer Bildebene unterscheiden. Alternativ oder zusätzlich können sich die unterschiedlichen Lagen in einem Abstand des durch die 3D-Volumendaten repräsentierten Volumens von dem Fokus des Strahlenbündels oder der Bildebene unterscheiden. Auf diese Weise können verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden, die den mit verschiedenen Datenerfassungseinrichtungen realisierbaren Änderungen von Relativpositionen entsprechen.
  • Wenigstens ein Satz von Abbildungsparameterwerten kann abhängig von einer Benutzereingabe bestimmt werden. Auf diese Weise kann der Benutzer kontrollieren, welche verschiedenen Lagen des durch die 3D-Volumendaten repräsentierten Volumens simuliert werden sollen.
  • Die Benutzereingabe kann über eine Eingabeeinrichtung der Datenerfassungseinrichtung erfolgen. Die aus der Benutzereingabe resultierende Änderung der Abbildungsparameterwerte kann derart sein, dass sie einer aus dieser Benutzereingabe resultierenden Änderung der Relativposition und Relativorientierung zwischen dem Untersuchungsobjekt und der Datenerfassungseinrichtung entspricht, die resultiert, wenn mit der Eingabeeinrichtung der Betrieb der Datenerfassungseinrichtung gesteuert wird. Auf diese Weise kann der Benutzer intuitiv und mit einer ihm bekannten Steuerung den Parameterraum austesten.
  • Alternativ oder zusätzlich zu einer benutzerdefinierten Variation der Abbildungsparameterwerte kann bei der iterativen rechnerischen Ermittlung von virtuellen 2D-Bilddaten wenigstens ein Satz von Abbildungsparameterwerten automatisch bestimmt werden. Dazu kann bei einer Ausführungsform abhängig von einem Vergleich der für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten mit den erfassten 2D-Bilddaten automatisch überprüft werden, ob ein vorgegebenes Gütekriterium erfüllt ist. Falls das Gütekriterium nicht erfüllt ist, beispielsweise falls ein Ähnlichkeitsmaß zwischen den erfassten 2D-Bilddaten und den für den Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kleiner als eine vorgegebene Schranke ist, kann automatisch ein weiterer Satz von Abbildungsparameterwerten derart ermittelt werden, dass ein Ähnlichkeitsmaß zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten erhöht wird. Dies erlaubt eine rechnergestützte Automatisierung bei der Ermittlung neuer Werte der Abbildungsparameter.
  • An dem Untersuchungsobjekt kann wenigstens eine Marke vorgesehen sein, die in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten sichtbar ist. Abhängig von Lagen der Marke in den erfassten 2D-Bilddaten und den für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten kann abhängig von einer Benutzereingabe oder automatisch ein neuer Satz von Abbildungsparameterwerten ermittelt werden. Marken, wie beispielsweise Implantate, können starke Signaturen in den erfassten 2D-Bilddaten hinterlassen, die zur Ermittlung der Lage des Untersuchungsobjekts genutzt werden können.
  • Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können über eine optische Ausgabeeinrichtung ausgegeben werden. Dies erlaubt es einem Benutzer, die Güte der erreichten Übereinstimmung abzuschätzen und/oder eine benutzerdefinierte Änderung der Abbildungsparameterwerte vorzunehmen.
  • Die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten können gleichzeitig und kodiert, beispielsweise farbkodiert und/oder polarisationskodiert, über die optische Ausgabeeinrichtung ausgegeben werden. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe, z. B. rot, und die virtuellen 2D-Bilddaten in einer zweiten Farbe, z. B. grün, ausgegeben werden. Aus der Homogenität des bei einer Überlagerung resultierenden Farbtons kann der Benutzer die Güte der erreichten Übereinstimmung abschätzen.
  • Weitere 2D-Bilddaten, die das Untersuchungsobjekt repräsentieren und von den 2D-Bilddaten verschieden sind, können mit der Datenerfassungseinrichtung erfasst werden. Vorteilhaft werden die weiteren 2D-Bilddaten nach einer Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung erfasst. Weitere virtuelle 2D-Bilddaten können aus den 3D-Volumendaten basierend auf weiteren Abbildungsparameterwerten rechnerisch ermittelt werden. Die Ermittlung der weiteren Abbildungsparameterwerte kann wie oben beschrieben derart durchgeführt werden, dass mehrere Lagen des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden. Durch Zusammenführen der Ergebnisse, die aus einem Vergleich der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten einerseits und der weiteren virtuellen 2D-Bilddaten und der weiteren erfassten 2D-Bilddaten andererseits gewonnen werden, kann die Genauigkeit der Lagebestimmung erhöht werden. Falls sich das Untersuchungsobjekt zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten unkontrolliert verschoben hat, kann durch die Erfassung der weiteren 2D-Bilddaten erneut die Lage des Untersuchungsobjekts ermittelt werden.
  • Aus den virtuellen 2D-Bilddaten und den weiteren virtuellen 2D-Bilddaten kann eine stereoskopische Darstellung erzeugt werden. Gleichzeitig kann aus den erfassten 2D-Bilddaten und den weiteren erfassten 2D-Bilddaten eine stereoskopische Darstellung der erfassten 2D-Bilddaten erzeugt werden. Dazu werden die weiteren 2D-Bilddaten nach einer Relativdrehung zwischen Datenerfassungseinrichtung und Untersuchungsobjekt um einen vorgegebenen Winkel erfasst. Die weiteren Abbildungsparameterwerte, auf deren Basis die weiteren virtuellen 2D-Bilddaten ermittelt werden, können abhängig von den Abbildungsparameterwerten, auf deren Basis die virtuellen 2D-Bilddaten ermittelt werden, so festgelegt werden, dass sie die Relativdrehung berücksichtigen. Die stereoskopische Darstellung der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten erleichtert es dem Benutzer aufgrund der darin enthaltenen Tiefeninformationen, die Güte der erreichten Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten abzuschätzen und/oder Änderungen der Werte der Abbildungsparameter benutzerdefiniert vorzunehmen.
  • Die weiteren Abbildungsparameterwerte können abhängig von den zur rechnerischen Ermittlung der virtuellen 2D-Bilddaten verwendeten Abbildungsparameterwerten bestimmt werden. Falls eine Änderung der Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung der 2D-Bilddaten und der weiteren 2D-Bilddaten bekannt ist, kann diese Änderung der Relativlage als Zwangsbedingung für die Ermittlung der virtuellen 2D-Bilddaten und der weiteren virtuellen 2D-Bilddaten berücksichtigt werden. So kann die Genauigkeit der Lagebestimmung erhöht werden.
  • Eine geometrische Verzeichnung der erfassten 2D-Bilddaten kann bei einem Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten berücksichtigt werden. Dazu kann eine Verzeichnungskorrektur der erfassten 2D-Bilddaten vorgenommen werden. Alternativ oder zusätzlich können die virtuellen 2D-Bilddaten rechnerisch verzeichnet werden. Auf diese Weise können Verzeichnungseffekte bei der Beurteilung der Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten berücksichtigt werden.
  • Die Datenerfassungseinrichtung kann eine Vorrichtung zur Röntgenbildgebung sein oder eine sonstige Bildaufnahmevorrichtung, beispielsweise eine photographische oder ultraschallbasierte Bildaufnahmevorrichtung, umfassen. Beispielsweise kann die Datenerfassungseinrichtung eine Röntgenquelle und einen Röntgenflächendetektor umfassen. Die Datenerfassungseinrichtung kann als C-Arm-Gerät ausgebildet sein.
  • Wenigstens zwei Sätze von Abbildungsparameterwerten können so bestimmt werden, dass die virtuellen 2D-Bilddaten für unterschiedliche Lagen eines Röntgendetektors relativ zu einer Strahlungsquelle der Datenerfassungseinrichtung ermittelt werden. Auf diese Weise können, falls die Lage des Röntgendetektors relativ zu der Strahlungsquelle nicht mit hoher Genauigkeit bekannt ist, verschiedene Lagen des Detektors relativ zu der Strahlungsquelle ausgetestet werden.
  • Nach einem weiteren Aspekt der Erfindung wird ein Computerprogramm angegeben, das eine Befehlsfolge umfasst, die bei Ausführung durch eine elektronische Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Das Computerprogramm kann beispielsweise in den Speicher eines Steuer- und Auswerterechners einer Bildgebungsvorrichtung, beispielsweise eines C-Arm-Systems, geladen werden. Das Computerprogramm kann als Quellcode oder als eine kompilierte Befehlsfolge vorliegen. Durch das Computerprogramm kann die Vorrichtung programmmäßig zur Durchführung des Verfahrens eingerichtet werden.
  • Die 2D-Bilddaten können unter Verwendung elektromagnetischer Strahlung, insbesondere optisch, erfasst werden. Die virtuellen 2D-Bilddaten können abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik rechnerisch ermittelt werden. Insbesondere können die virtuellen 2D-Bilddaten so ermittelt werden, dass berücksichtigt wird, wie abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik Voxelwerte der 3D-Bilddaten in Pixelwerte der 2D-Bilddaten eingehen. Falls beispielsweise die 2D-Bilddaten mit einer Kamera, die im sichtbaren Spektralbereich des elektromagnetischen Spektrums sensitiv ist, erfasst werden, werden die virtuellen 2D-Bilddaten vorteilhaft rechnerisch aus den 3D-Bilddaten so ermittelt, dass sie eine Abbildung der Oberfläche des Untersuchungsobjekts repräsentieren. Falls Infrarotstrahlung zum Erfassen der 2D-Bilddaten eingesetzt wird, wird bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten entsprechend die Eindringtiefe bzw. ortsabhängige Abschwächung dieser Strahlung in dem Untersuchungsobjekt berücksichtigt.
  • Nach einem weiteren Aspekt der Erfindung wird ein Datenträger angegeben, auf dem ein eine Befehlsfolge umfassendes Computerprogramm gespeichert ist, das bei Ausführung durch eine Recheneinrichtung einer Vorrichtung zur medizinischen Bildgebung die Vorrichtung zur Durchführung des Verfahrens nach einem Aspekt oder Ausführungsbeispiel der Erfindung veranlasst. Der Datenträger kann beispielsweise eine CD-ROM, eine DVD, ein Magnetband, ein Flash-Speicher oder ein USB-Stick sein, auf welchem das Computerprogramm als elektronisch lesbare Steuerinformationen gespeichert ist. Wenn diese Steuerinformationen von dem Datenträger gelesen und von einer Recheneinrichtung der Vorrichtung ausgeführt werden, kann das Verfahren nach den verschiedenen Aspekten oder Ausführungsformen von der Vorrichtung automatisch durchgeführt werden.
  • Nach einem weiteren Aspekt der Erfindung wird eine Vorrichtung zum Erfassen einer Lage eines Untersuchungsobjekts angegeben. Die Vorrichtung umfasst eine Erfassungseinrichtung zum Erfassen eines Satzes von 2D-Bilddaten des Untersuchungsobjekts, eine Speichereinrichtung zum Speichern von 3D-Volumendaten des Untersuchungsobjekts und eine Recheneinrichtung. Die Recheneinrichtung ist mit der Speichereinrichtung und der Erfassungseinrichtung gekoppelt und eingerichtet, um die Lage des Untersuchungsobjekts abhängig von 3D-Volumendaten des Untersuchungsobjekts und den erfassten 2D-Bilddaten zu bestimmen. Die Recheneinrichtung ist eingerichtet, um virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch zu ermitteln. Die Recheneinrichtung ist weiterhin eingerichtet, um die virtuellen 2D-Bilddaten für mehrere Sätze von Abbildungsparameterwerten zu ermitteln, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten zu erhöhen, und um die Lage des Untersuchungsobjekts abhängig von wenigstens einem Satz von Abbildungsparameterwerten zu ermitteln.
  • Die Vorrichtung erlaubt, verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens auszutesten und so die tatsächliche Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten zu ermitteln. Die Vorrichtung erlaubt weiterhin, intrinsische Parameter der Datenerfassungseinrichtung zu ermitteln. Das Erfassen eines einzigen Satzes von 2D-Bilddaten kann für das Ermitteln der Lage ausreichen. Im Vergleich zu einer erneuten vollständigen 3D-Bildgebung kann Zeit eingespart und eine Strahlenbelastung verringert werden.
  • Die Vorrichtung kann zur Durchführung des Verfahrens nach einem der Aspekte oder nach einer der Ausführungsformen eingerichtet sein.
  • Ausführungsformen der Erfindung sind geeignet, um die Lage eines Untersuchungsobjekts aus vorab aufgenommenen 3D-Volumendaten und erfassten 2D-Bilddaten zu ermitteln. Anwendungsfelder liegen insbesondere in der medizinischen Technik.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die Zeichnung detailliert erläutert.
  • 1 ist eine schematische Darstellung einer Vorrichtung nach einem Ausführungsbeispiel.
  • 2 ist eine schematische Darstellung eines Abschnitts eines Untersuchungsobjekts, der durch 3D-Volumendaten repräsentiert wird.
  • 3 ist eine schematische Darstellung von erfassten 2D-Bilddaten.
  • 4 ist eine Flussdiagrammdarstellung eines Verfahrens nach einem Ausführungsbeispiel.
  • 5 ist eine schematische Darstellung zur Erläuterung der Ermittlung von virtuellen 2D-Bilddaten bei dem Verfahren nach einem Ausführungsbeispiel.
  • 6 ist eine schematische Darstellung zur Erläuterung der Ermittlung von virtuellen 2D-Bilddaten mit im Vergleich zu 5 veränderten Abbildungsparameterwerten.
  • 7 ist eine Flussdiagrammdarstellung eines Verfahrens nach einem weiteren Ausführungsbeispiel.
  • 8 ist eine Flussdiagrammdarstellung von Schritten zum Ermitteln einer Lage des Untersuchungsobjekts.
  • Die Merkmale der nachfolgend beschriebenen Ausführungsbeispiele können miteinander kombiniert werden, sofern dies nicht ausdrücklich anders angegeben ist.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung im Kontext einer 2D-Röntgenbildgebung beschrieben. Die Verfahren und Vorrichtungen nach Ausführungsbeispielen der Erfindung können jedoch ebenso auf anderen Gebieten angewendet werden, bei denen eine Zuordnung von vorab erfassten 3D-Volumendaten eines Untersuchungsobjekts zu einer Lage des Untersuchungsobjekts zu einem späteren Zeitpunkt erfolgen soll.
  • 1 ist eine schematische Darstellung einer Vorrichtung 1 zum Erfassen der Lage eines Untersuchungsobjekts nach einem Ausführungsbeispiel. Die Vorrichtung 1 umfasst ein C-Arm-Gerät 2 und eine Recheneinrichtung 11. Das C-Arm-Gerät 2 weist einen C-Arm 3 auf, der um wenigstens eine Achse schwenkbar gelagert ist und an dem eine Röntgenröhre 4 und ein der Röntgenröhre gegenüberliegender Detektor 5 befestigt sind. Die Röntgenröhre 4 gibt Röntgenstrahlung ab, die ein Volumen, das beispielsweise durch einen Strahlenkonus 6 definiert ist, durchsetzt und von dem Detektor 5 erfasst wird. Der Detektor 5 kann ein flächenhafter Detektor sein. Beispiele für derartige Detektoren beinhalten so genannte Bildverstärker (Image Intensifier)- und Kamerasystem oder so genannte Flachdetektoren („Flat Panel Detektor”). Eine Antriebseinrichtung 7 ist mit dem C-Arm wirkverbunden, so dass der C-Arm 3 zwischen einer Mehrzahl von Stellungen verstellt werden kann. Eine Bewegung des C-Arms 3 ist bei 8 dargestellt. Der C-Arm ist in einer weiteren Stellung mit durchbrochenen Linien bei 3' dargestellt. Das Verstellen des C-Arms 3 führt zu einer entsprechenden Änderung des von der Röntgenstrahlung durchsetzten Volumens 6'. Ein Patiententisch 9 stützt ein Untersuchungsobjekt P, beispielsweise einen Patienten, ab. Eine Steuereinrichtung 10 steuert die Röntgenröhre 4, den Detektor 5 und die Antriebseinrichtung 7. Während die Vorrichtung 1 schematisch mit einem C-Arm-Gerät 2 dargestellt ist, können Verfahren und Vorrichtungen nach verschiedenen Ausführungsbeispielen auch mit anderen Datenerfassungseinrichtungen zum Erfassen von 2D-Bilddaten durchgeführt werden.
  • Die Recheneinrichtung 11 ist mit dem C-Arm-Gerät 2 verbunden. Während die Recheneinrichtung 11 und die mit ihr verbundenen Komponenten 1214 zur Erläuterung der Funktion als separate Elemente dargestellt sind, können diese Elemente auch baulich in das C-Arm-Gerät 2 integriert sein. Die Recheneinrichtung 11 ist mit einer optischen Anzeigeeinrichtung 12 gekoppelt. Die Recheneinrichtung 11 steuert die Anzeigeeinrichtung 12, um erfasste 2D-Bilddaten und/oder rechnerisch ermittelte virtuelle 2D-Bilddaten darzustellen. Die Recheneinrichtung 11 weist einen Speicher 13 auf oder ist mit dem Speicher 13 gekoppelt. In dem Speicher 13 sind 3D-Volumendaten des Untersuchungsobjekts P gespeichert. Die 3D-Volumendaten können mit verschiedenen Methoden und Einrichtungen zur 3D-Bildgebung ermittelt werden, beispielsweise mit einer Computertomographie, mit einer gefilterten Rückprojektion (FBP) einer Mehrzahl von 2D-Röntgenaufnahmen, mit einer Kernspintomographie oder mit anderen Techniken. Die 3D-Volumendaten können ermittelt werden, bevor das Untersuchungsobjekt relativ zu dem C-Arm-Gerät 2 positioniert wird. Beispielsweise können die 3D-Volumendaten in einer Voruntersuchung ermittelt werden. Die 3D-Volumendaten können beispielsweise als DICOM-Daten gespeichert sein.
  • Die Recheneinrichtung 11 ist eingerichtet, um aus den in dem Speicher 13 gespeicherten 3D-Volumendaten virtuelle 2D-Bilddaten zu ermitteln. Mit dem Begriff „virtuelle 2D-Bilddaten” werden hier 2D-Bilddaten bezeichnet, die nicht durch eine tatsächliche 2D-Datenerfassung, sondern rechnerisch aus den 3D-Volumendaten ermittelt werden. Die Recheneinrichtung 11 kann die 2D-Bilddaten als so genannte radiographische Projektion ermitteln. Verschiedene Methoden zur Berechnung der radiographischen Projektion aus 3D-Volumendaten sind in der Technik bekannt. Beispielsweise kann mit Röntgen-Raycasting-Methoden die Abschwächung von Röntgenstrahlung gemäß dem Gesetz von Lambert-Beer entlang verschiedener, durch das von den 3D-Volumendaten repräsentierte Volumen verlaufender Strahlen berechnet werden. So können rechnerisch virtuelle 2D-Bilddaten ermittelt werden. Derartige 2D-Bilddaten werden auch als digital rekonstruierte Röntgenbilder bezeichnet. Effiziente Methoden zur digitalen Röntgenbildrekonstruktion, beispielsweise unter Verwendung von so genannte Lichtfeldern, sind bekannt und können von der Recheneinrichtung 11 eingesetzt werden. Ein Beispiel für eine effiziente Technik zur Ermittlung von digital rekonstruierte Röntgenbildern ist in Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 beschrieben. Bei weiteren Ausführungsformen kann alternativ oder zusätzlich aus den 3D-Volumendaten eine Oberflächendarstellung rechnerisch ermittelt werden, die sich eignet, um im Folgenden beispielsweise mit einer optischen 2D-Aufnahme der Oberfläche des Untersuchungsobjekts in Übereinstimmung gebracht zu werden.
  • Die virtuellen 2D-Bilddaten sind von der Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einer Bildebene und einem Strahlenfokus bei der digitalen Röntgenbildrekonstruktion abhängig. Mit Lage wird hier die Gesamtheit translatorischer und rotatorischer Freiheitsgrade bezeichnet. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Bildebene und dem Strahlenfokus kann beispielsweise durch die Position eines Volumenmittelpunkts des Volumens relativ zu dem Strahlenfokus (drei Koordinaten) und eine Rotation des Volumens relativ zu einem Zentralstrahl eines Strahlenbündels (drei Winkel) bestimmt sein. Die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu charakteristischen Punkten eines Strahlenbündels bei der radiographischen Projektion kann durch Abbildungsparameter beschrieben werden. Sofern hier auf eine Bestimmung der Lage oder ein Ausgeben lageabhängiger Information Bezug genommen wird, versteht es sich, dass die Information über die Lage nicht in Form von kartesischen und Winkel-Koordinaten vorliegen muss, sondern auch implizit, beispielsweise als ermittelter Satz von Abbildungsparameterwerten, vorliegen kann.
  • Die Abbildungsparameter bestimmen, in welches Bildpunkt-Koordinatentupel der ermittelten 2D-Bilddaten Voxel-Koordinatentripel der 3D-Volumendaten für eine gegebene Lage der 3D-Volumendaten abgebildet werden. Die Abbildungsparameter können beispielsweise Einträge einer Projektionsmatrix sein. Indem Werte der Abbildungsparameter verändert werden, können virtuelle 2D-Bilddaten für mehrere verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens ermittelt werden. So können verschiedene Positionen und/oder Orientierungen des durch die 3D-Volumendaten repräsentierten Volumens relativ zu der Röntgenquelle 4 und dem Detektor 5 des C-Arm-Geräts 2 ausgetestet werden. Die für jede der Lagen ermittelten virtuellen 2D-Bilddaten können mit den erfassten 2D-Bilddaten verglichen werden. Wenn eine ausreichende Übereinstimmung zwischen virtuellen 2D-Bilddaten und erfassten 2D-Bilddaten besteht, kann aus den entsprechenden Werten der Abbildungsparameter die Lage des Untersuchungsobjekts P relativ zu dem C-Arm-Gerät 2 ermittelt werden. Auf diese Weise wird ermittelt, in welcher Lage das durch die 3D-Volumendaten repräsentierte Volumen sich im Wesentlichen mit dem entsprechenden Abschnitt des Untersuchungsobjekts P bei der Erfassung der 2D-Bilddaten deckt. Somit wird ein Bezug zwischen dem Koordinatensystem der 3D-Volumendaten, dem abgebildeten Untersuchungsobjekt P bei der Datenerfassung und dem Koordinatensystem des C-Arm-Geräts 2 oder einer anderen Datenerfassungseinrichtung hergestellt.
  • Die Werte der Abbildungsparameter können abhängig von der zur Datenerfassung verwendeten Datenerfassungseinrichtung gewählt werden. Falls beispielsweise wie bei der Vorrichtung 1 eine 2D-Röntgenbildgebung erfolgt, kann die Abbildung von Voxel-Koordinatentripeln von 3D-Volumendaten in Pixel-Koordinatentupel der virtuellen 2D-Bilddaten gut durch die Elemente einer Projektionsmatrix beschrieben werden. Allgemein kann die Projektionsmatrix aus einer 4×4-Matrix der Form (in homogenen Koordinaten)
    Figure 00160001
    abgeleitet werden. Durch die Matrixelemente r1–r9 und t1–t3 wird eine Rotation bzw. Translation des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Zentralstrahl eines Strahlenbündels bzw. einem Fokus des Strahlenbündels beschrieben. Die Matrixelemente p1–p3 beschreiben die perspektivische Projektion aufgrund der Abbildung in einem Strahlenkegel. Für den vorliegenden Fall der Abbildung von 3D nach 2D, also von Voxel-Koordinatentripeln nach Pixel-Koordinatentupeln, kann die Projektionsmatrix in homogenen Koordinaten auf eine 4×3-Matrix reduziert werden. Falls beispielsweise die Mittelachse des Strahlenkegels entlang der y-Achse gerichtet ist und der Detektor in einer zu der y-Achse senkrechten Ebene (x-z-Ebene) und in einem Abstand d vom Projektionszentrum liegt, kann die Projektionsmatrix Mi dargestellt werden als
    Figure 00170001
  • Allgemein sind die Matrixelemente der Projektionsmatrix Mi so definiert, dass für einen Satz i von virtuellen 2D-Bilddaten vb,i = Mi·vv (3) gilt. Dabei ist vv = (x, y, z, w = 1)T ein Spaltenvektor, dessen erste drei Vektorkomponenten das Koordinatentripel (x, y, z) eines Voxels der 3D-Volumendaten repräsentieren. vb = (r, s, t)T ist ein Spaltenvektor, aus dem das Koordinatentupel (u, v) des Pixels in dem Satz von Bilddaten, in das das Voxel mit den Koordinaten x, y und z abgebildet wird, gemäß u = r/t und v = s/t ermittelt werden kann. Der Index i bezeichnet einen Satz von Abbildungsparameterwerten. Basierend auf den durch Gleichungen der Form (2) und (3) definierten Abbildung kann ein Volumenrendern bzw. eine digitale Röntgenbildrekonstruktion erfolgen.
  • Werte der Abbildungsparameter können auf verschiedene Weisen geändert werden. Bei einer Ausführungsform kann die Recheneinrichtung 11 automatisch ein Ähnlichkeitsmaß für die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten bestimmen. Dazu können verschiedene Ähnlichkeitsmaße verwendet werden, beispielsweise Kreuzkorrelationen, wechselseitige Entropie, wechselseitige Information, Gradienten-Kreuzkorrelationen, Musterintensitäten und dergleichen. Abhängig von dem Vergleich kann die Recheneinrichtung 11 neue Werte für die Abbildungsparameter wählen, um zu prüfen, ob dadurch die Übereinstimmung zwischen den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten erhöht wird. Die Wahl der neuen Werte für die Abbildungsparameter kann durch systematisches Austesten des Parameterraums erfolgen. Alternativ oder zusätzlich kann die Recheneinrichtung 11 die neuen Werte für die Abbildungsparameter unter Verwendung von Registrierungstechniken, stochastischen Methoden oder Merkmalsextraktion in den virtuellen 2D-Bilddaten und den erfassten 2D-Bilddaten durchführen. Die Lage des Untersuchungsobjekts kann aus den Abbildungsparametern rückgerechnet werden, für die ein automatisch bestimmtes Ähnlichkeitsmaß zwischen den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten einen vorgegebenen Schwellenwert erreicht.
  • Bei einer weiteren Ausführungsform können die Werte der Abbildungsparameter abhängig von einer Benutzereingabe eingestellt werden. Dazu ist die Recheneinrichtung 11 mit einem Eingabegerät 14 gekoppelt. Das Eingabegerät 14 erlaubt es dem Benutzer, eine Veränderung von Werten der extrinsischen oder intrinsischen Abbildungsparameter hervorzurufen, die zur Ermittlung der virtuellen 2D-Bilddaten verwendet werden. Intrinsische Parameter sind hierbei die Parameteranteile, welche die Datenerfassungseinrichtung in sich beschreiben. Beispiele für derartige intrinsische Parameter sind der Fokus-Detektorabstand oder eine Kippung der Detektorfläche. Extrinsische Parameter sind die Parameter, welche die Lage des Untersuchungsobjekts P relativ zu der Datenerfassungseinrichtung beschreiben. Dabei können die Recheneinrichtung 11 und das Eingabegerät 14 so ausgestaltet sein, dass die Änderung der Werte der Abbildungsparameter als Antwort auf eine Betätigung des Eingabegeräts 14 derart ist, dass sie einer korrespondierenden translatorischen und/oder rotatorischen Verstellung zwischen C-Arm-Gerät 2 und Untersuchungsobjekt P als Antwort auf die Benutzereingabe entspricht. Es sollte beachtet werden, dass die Reaktion auf die Bedienung des Eingabegeräts 14 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten in einer Anpassung der Abbildungsparameterwerte besteht, wobei die Komponenten des C-Arm-Geräts 2 oder einer anderen Datenerfassungseinrichtung jedoch nicht tatsächlich verstellt werden. Die rechnerische Ermittlung der virtuellen 2D-Bilddaten als Antwort auf die Benutzereingabe kann unter Verwendung effizienter Methoden in Echtzeit oder annähernd in Echtzeit erfolgen. Dabei wird unter einer Ermittlung der virtuellen 2D-Bilddaten in Echtzeit verstanden, dass die rechnerische Ermittlung für neue Werte der Abbildungsparameter und eine entsprechende Darstellung der virtuellen 2D-Bilddaten auf der Anzeigeeinrichtung 12 schritthaltend mit der interaktiven Bedienung des Eingabegeräts 14 erfolgt.
  • Das Eingabegerät 14 hat mindestens zwei Freiheitsgrade, beispielsweise sechs Freiheitsgrade. Das Eingabegerät 14 kann einen oder mehrere beweglich gelagerte Abschnitte 15, 15a aufweisen. Wenigstens ein Abschnitt 15 kann gelenkig derart gelagert sein, dass er in zwei orthogonale Richtungen verkippbar ist. Mehrere Abschnitte 15, 15a des Eingabegeräts können mit einem Gelenk 16 verbunden sein. Die Freiheitsgrade eines derartigen Eingabegeräts 14, wie es auch als Eingabegerät von C-Arm-Geräten oder anderen Datenerfassungseinrichtungen Verwendung finden kann, erlauben eine für den Benutzer intuitive und aus der Bedienung des C-Arm-Geräts bekannte Methode zur Änderung der Abbildungsparameter. Beispielsweise können in einem Modus durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung der Orientierung des durch die 3D-Volumendaten repräsentierten Volumens entspricht. Alternativ oder zusätzlich können durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung der Position eines charakteristischen Punkts, beispielsweise des Volumenmittelpunkts, des durch die 3D-Volumendaten repräsentierten Volumens entspricht. Auf diese Weise können Veränderungen extrinsischer Parameterwerte ausgetestet werden. Alternativ oder zusätzlich können durch Bewegen wenigstens eines Abschnitts 15, 15a die Werte der Abbildungsparameter so verändert werden, dass dies einer Änderung des Abstands des Detektors vom Fokus oder eines anderen intrinsischen Parameters entspricht. Auf diese Weise können Werte der intrinsischen Parameter ermittelt werden.
  • Um einem Benutzer einen Vergleich der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten zu erleichtern, kann die Recheneinrichtung 11 sowohl die erfassten 2D-Bilddaten als auch die virtuellen 2D-Bilddaten in einer überlagerten Darstellung über die optische Anzeigeeinrichtung 12 ausgeben. Dabei kann eine geeignete Kodierung der erfassten und virtuellen 2D-Bilddaten erfolgen. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe und die virtuellen 2D-Bilddaten in einer zweiten Farbe dargestellt werden. Ein Benutzer kann durch Benutzereingabe die Werte der Abbildungsparameter einstellen, bis sich ein möglichst einheitlicher Farbton, jedoch immer noch mit räumlich variierender Intensität, für das überlagerte Bild ergibt. Beispielsweise können die erfassten 2D-Bilddaten in grün und die virtuellen 2D-Bilddaten in rot dargestellt werden. Durch Benutzereingabe können die Werte der Abbildungsparameter und somit die virtuellen 2D-Bilddaten angepasst werden, bis ein Gesamtbild mit im Wesentlichen grauem Farbton entsteht. Die Ausgabe der erfassten und virtuellen 2D-Bilddaten über die optische Anzeigeeinrichtung 12 kann auch erfolgen, wenn die Werte der Abbildungsparameter zumindest teilweise automatisch durch die Recheneinrichtung 11 festgelegt werden, um einem Benutzer eine Kontrolle der gefundenen Werte der Abbildungsparameter, und somit eine Kontrolle der ermittelten Lage des Untersuchungsobjekts, zu erlauben.
  • Zusätzlich zur überlagerten Darstellung der erfassten 2D-Bilddaten und der virtuellen 2D-Bilddaten kann die Recheneinrichtung 11 auch ein Ähnlichkeitsmaß der erfassten und virtuellen 2D-Bilddaten ermitteln und über die Anzeigeeinrichtung 12 ausgeben.
  • Unabhängig davon, ob die Werte der Abbildungsparameter benutzerdefiniert und/oder automatisch eingestellt werden, können zusätzliche Maßnahmen vorgesehen sein, um die Ermittlung der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten gut übereinstimmen, zu erleichtern.
  • Alternativ oder zusätzlich kann eine oder können mehrere Marken eingesetzt werden, die eine deutliche Signatur in den erfassten 2D-Bilddaten aufweisen. Die Marken können anatomisch oder nicht-anatomisch sein. Beispielsweise kann ein Implantat, z. B. ein Nagel oder eine Platte, an dem Abschnitt des Untersuchungsobjekts P als nicht-anatomische Marke dienen, die in den erfassten 2D-Bilddaten erkennbar ist. Anhand der Signatur der Marke kann das benutzerdefinierte oder automatische Auffinden der Werte der Abbildungsparameter, für die die virtuellen 2D-Bilddaten die erfassten 2D-Bilddaten gut approximieren, erleichtert werden.
  • Mit der Vorrichtung 1 kann eine lageabhängige Information ermittelt werden, die beispielsweise aus dem Satz von Abbildungsparameterwerten besteht, für den eine möglichst gute Übereinstimmung zwischen den virtuellen und erfassten 2D-Bilddaten erzielt wird. Dieser Satz von Abbildungsparameterwerten kann verwendet werden, um einem Benutzer beispielsweise Informationen dazu bereitzustellen, wie ein therapeutisches Instrument oder Diagnoseinstrument relativ zu dem Untersuchungsobjekt positioniert ist. Dazu kann mit einem Navigationssystem die Position des therapeutisches Instruments oder Diagnoseinstruments in einem Weltkoordinatensystem erfasst werden. Abhängig von dem zuletzt ermittelten Satz von Abbildungsparameterwerten kann, beispielsweise durch geeignete Matrizenmultiplikationen, die Position des Instruments mit den vorab aufgenommenen 3D-Volumendaten in Beziehung gesetzt und graphisch dargestellt werden, um die Navigation mit dem Instrument zu erleichtern.
  • 2 ist eine schematische Darstellung eines durch 3D-Volumendaten 21 repräsentierten Volumens. Die 3D-Volumendaten können mit verschiedenen Untersuchungsmodalitäten erfasst werden, beispielsweise unter Verwendung von CT, Kernspintomographie, 3D-Röntgenbildgebung oder dergleichen. Die 3D-Volumendaten repräsentieren einen Abschnitt des Untersuchungsobjekts. Schematisch dargestellt ist ein Gliedmaß, beispielsweise ein Oberschenkel 22, mit einem Knochen 23, beispielsweise einem Femurknochen. Der Knochen 23 weist eine Bruchlinie 24 auf. Je nachdem, mit welcher Untersuchungsmodalität die 3D-Volumendaten erfasst wurden, können die Voxelwerte der 3D-Volumendaten verschiedene Bedeutungen haben. Falls die 3D-Volumendaten röntgenbasiert ermittelt wurden, können die Voxelwerte beispielsweise den Hounsfield-Werten entsprechen.
  • 3 ist eine schematische Darstellung von erfassten 2D-Bilddaten 26 des Abschnitts des Untersuchungsobjekts P. Die 2D-Bilddaten 26 zeigen eine in eine Bildebene projizierte Abbildung 27 des Oberschenkels 22, eine Abbildung 28 des Knochens 23 und eine Abbildung 29 der Bruchlinie 24.
  • Mit den Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen können aus den 3D-Volumendaten 21 rechnerisch mehrere Sätze von virtuellen 2D-Bilddaten ermittelt werden. Die virtuellen 2D-Bilddaten können jeweils mit den erfassten 2D-Bilddaten 26 verglichen werden. Durch Ändern von Abbildungsparameterwerten, beispielsweise durch Ändern der Elemente einer Projektionsmatrix, können verschiedene fiktive Positionen und/oder Orientierungen des durch die 3D-Volumendaten 21 repräsentierten Volumens relativ zu einer Röntgenquelle und einem Röntgendetektor ausgetestet werden. Auf diese Weise kann anhand der 3D-Volumendaten 21 und dem einen Satz von erfassten 2D-Bilddaten 26 die Lage des Untersuchungsobjekts bei der Erfassung der 2D-Bilddaten 26 ermittelt werden.
  • 4 ist eine Flussdiagrammdarstellung eines Verfahrens 30 zum Ermitteln der Lage eines Untersuchungsobjekts nach einem Ausführungsbeispiel. Bei dem Verfahren werden aus vorab ermittelten 3D-Volumendaten rechnerisch virtuelle 2D-Bilddaten ermittelt. Die virtuellen 2D-Bilddaten werden für mehrere Werte von Abbildungsparametern ermittelt, um verschiedene Lagen des Volumens, das durch die 3D-Volumendaten repräsentiert wird, relativ zu einem Strahlenbündel auszutesten. Das Verfahren 30 kann von der Vorrichtung 1 durchgeführt werden.
  • Bei 31 werden 2D-Bilddaten erfasst. Die 2D-Bilddaten können mit einem Röntgen-Flächendetektor erfasst werden.
  • Bei 32 werden 3D-Volumendaten des Untersuchungsobjekts ausgelesen, die vorab erfasst wurden. Die 3D-Volumendaten können beispielsweise als DICOM-Daten vorliegen. Die 3D-Volumendaten können mit einer geeigneten Untersuchungsmodalität erfasst worden sein. Insbesondere müssen die 3D-Volumendaten nicht mit der Datenerfassungseinrichtung erfasst werden, die zum Erfassen der 2D-Bilddaten bei 31 verwendet wird. Beispielsweise können die 3D-Volumendaten mit einer Computertomographie, mit einer gefilterten Rückprojektion (FBP) einer Mehrzahl von 2D-Röntgenaufnahmen, mit einer Kernspintomographie oder mit anderen Techniken erfasst werden.
  • Bei 33 werden Werte von Abbildungsparametern initialisiert. Dazu kann beispielsweise ein Fokus-Bildebenenen-Abstand auf einen vorgegebenen Wert, z. B. 1100 mm, gesetzt werden. Der Wert für den Fokus-Bildebenen-Abstand kann abhängig von dem für die Bilderfassung tatsächlich eingestellten Abstand zwischen dem Detektor 5 und der Röntgenquelle 4 der Datenerfassungseinrichtung 2 gewählt werden, die zur Erfassung der 2D-Bilddaten verwendet wird. Der Abstand zwischen dem Fokus und dem durch die 3D-Volumendaten repräsentierten Volumen kann auf die Hälfte des Fokus-Bildebenen-Abstands voreingestellt werden. Die Werte der weiteren Abbildungsparameter können so voreingestellt werden, dass ein Zentralstrahl eines Strahlenbündels eine vorgegebene Richtung relativ zu dem Koordinatensystem der 3D-Volumendaten aufweist, beispielsweise parallel zu einer der Koordinatenachsen der 3D-Volumendaten verläuft, und durch einen vorgegebenen Punkt, beispielsweise den Volumenmittelpunkt, des durch die 3D-Volumendaten repräsentierten Volumens verläuft. Falls mit einer separaten Einrichtung die Lage des Untersuchungsobjekts abgeschätzt werden kann, kann die Initialisierung der Werte von Abbildungsparametern bei 33 abhängig von der Abschätzung der Lage erfolgen. Sofern hier und im Kontext der folgenden Schritte des Verfahrens 30 von einer Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu Strahlen, einem Fokus eines Strahlenbündels oder einer Bildebene gesprochen wird, bezieht sich dies auf die rechnerische Ermittlung der virtuellen 2D-Bilddaten. Eine Änderung der Werte der Abbildungsparameter muss, und wird typischerweise, nicht mit einer tatsächlichen Verstellung von Komponenten der Datenerfassungseinrichtung einhergehen. Vielmehr werden verschiedene Lagen rechnerisch ausgetestet, um einen Vergleich mit dem einen erfassten Satz von 2D-Bilddaten durchzuführen.
  • Bei 34 werden aus den 3D-Volumendaten virtuelle 2D-Bilddaten abhängig von den Werten der Abbildungsparameter rechnerisch ermittelt. Verschiedene Methoden können verwendet werden, um die 2D-Bilddaten rechnerisch zu ermitteln. Beispielsweise kann Volumenrendern eingesetzt werden, bei dem jedes Voxel der 3D-Volumendaten in Richtung eines Sehstrahls auf ein Pixel einer Bildebene projiziert wird. Entlang des Sehstrahls wird ein Helligkeitswert aufintegriert. Aus den 3D-Volumendaten kann die Schwächung eines Röntgenstrahls entlang eines Sehstrahls rechnerisch ermittelt werden. Die Schwächung bei Durchtritt durch einen Körper bzw. ein Voxel erfolgt nach dem Gesetz von Lambert-Beer gemäß I = I0·exp(–μ·d), (4) wobei I die Intensität des austretenden Strahls, I0 die Intensität des eintretenden Strahls, μ ein Schwächungskoeffizient und d eine Durchdringungstiefe ist. Durch Aufintegration von Gleichung (4) entlang eines Sehstrahls kann ein Pixelwert eines Pixels der virtuellen 2D-Bilddaten rechnerisch ermittelt werden. Dabei wird die Abschattung zweier entlang des Sehstrahls hintereinander liegender Voxel und die Materialeigenschaft jedes Voxels berücksichtigt. Insbesondere kann der Schwächungskoeffizient μ als Materialkonstante von Voxel zu Voxel variieren. Falls die 3D-Volumendaten mit Computertomographie-Methoden oder durch FBP mehrerer Sätze von 2D-Bilddaten ermittelt wurden, geben die Voxelwerte beispielsweise die Hounsfield-Werte an und können unmittelbar zur radiographischen Projektion herangezogen werden. Alternativ oder zusätzlich können materialangepasste Lookup-Tabellen verwendet werden, um den Voxelwerten der 3D-Volumendaten Schwächungskoeffizienten zuzuordnen. Dies kann insbesondere dann erfolgen, wenn die 3D-Volumendaten beispielsweise unter Verwendung von Magnetresonanztomographie-Methoden oder anderen Techniken, die keinen unmittelbaren Rückschluss auf Röntgenabsorptionseigenschaften des jeweiligen Materials zulassen, ermittelt wurden. Effiziente Methoden zur digitalen Röntgenbildrekonstruktion, beispielsweise unter Verwendung von so genannte Lichtfeldern, sind bekannt und können bei 34 eingesetzt werden. Ein Beispiel für eine effiziente Technik zur Ermittlung von digital rekonstruierten Röntgenbilder ist in Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 beschrieben.
  • Bei 35 werden die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten ausgegeben. Die erfassten und virtuellen 2D-Bilddaten können farblich kodiert und überlagert ausgegeben werden, um dem Benutzer eine Überprüfung der Übereinstimmung zu erleichtern. Beispielsweise können die erfassten 2D-Bilddaten in einer ersten Farbe, z. B. rot, und die virtuellen 2D-Bilddaten in einer zweiten Farbe, z. B. grün, ausgegeben werden.
  • Bei 36 wird überprüft, ob eine Benutzereingabe zur Änderung der Werte der Abbildungsparameter innerhalb einer vorgegebenen Zeit erfolgt. Falls dies bejaht wird, werden bei 37 die Werte der Abbildungsparameter gemäß der Benutzereingabe verändert, und das Verfahren kehrt zu 34 zurück. Die Benutzereingabe bei 36 kann unter Verwendung des Eingabegeräts 14 der Datenerfassungs- oder Recheneinrichtung erfolgen. Es können verschiedene Benutzereingaben empfangen werden, die es dem Benutzer erlauben, die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Strahlenbündel zu verändern. Das Ändern der Werte der Abbildungsparameter bei 37 kann derart erfolgen, dass bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten eine der Bedienung des Eingabegeräts 14 entsprechende Lageänderung des Untersuchungsobjekts P relativ zu der Datenerfassungseinrichtung simuliert wird, ohne dass das Untersuchungsobjekt P oder die Datenerfassungseinrichtung tatsächlich im Raum bewegt werden. Falls beispielsweise eine Bedienung des Eingabegeräts im normalen Betrieb der Datenerfassungseinrichtung zu einer translatorischen Verschiebung des Untersuchungsobjekts P relativ zu der Röntgenquelle 4 führen würde, können die Werte der Abbildungsparameter bei 36 und 37 als Antwort auf diese Bedienung so verändert werden, dass die virtuellen 2D-Bilddaten für eine ebenso translatorisch verschobene Position des durch die 3D-Volumendaten repräsentierten Volumens relativ zu einem Fokus des Strahlenbündels ermittelt werden. Ähnlich können bei 37 die Werte der Abbildungsparameter als Antwort auf eine Bedienung, die im normalen Betrieb eine relative Drehung zwischen Untersuchungsobjekt P und Datenerfassungseinrichtung 2 hervorrufen würde, so geändert werden, dass die entsprechende Rotation bei der Ermittlung der virtuellen 2D-Bilddaten in Echtzeit simuliert wird.
  • Falls bei 36 innerhalb einer vorgegebenen Zeit keine Benutzereingabe erfolgt, die zu einer Änderung der Werte der Abbildungsparameter führt, oder falls bei 36 eine Benutzereingabe erfolgt, die anzeigt, dass der Benutzer mit der Übereinstimmung von virtuellen und erfassten 2D-Bilddaten zufrieden ist, fährt das Verfahren bei 38 fort. Bei 38 wird eine lageabhängige Information ausgegeben. Die lageabhängige Information ist in den zuletzt eingestellten Werten der Abbildungsparameter implizit. Beispielsweise kann der zuletzt eingestellte Satz von Abbildungsparameterwerten selbst gespeichert werden. Die bei 38 ausgegebene Information kann auch von den in der Schleife 3437 ermittelten Werte intrinsischer Parameter der Datenerfassungseinrichtung abhängen. Die Information über die Lage kann auf verschiedene Weisen ausgegeben werden.
  • Beispielsweise können auch Koordinaten eines benutzerdefiniert gewählten Punkts der 3D-Volumendaten relativ zu einem Labor-Koordinatensystem oder Koordinatensystem der Datenerfassungseinrichtung ermittelt und ausgegeben werden. Die Ausgabe der Lageinformation kann beispielsweise auch derart erfolgen, dass dem Benutzer die Lage des von ihm gewählten Punkts unmittelbar, beispielsweise mit einem optischen Signal, angezeigt wird. Bei einer Ausführungsform kann das Röntgengerät als Antwort auf die ermittelte Lage automatisch derart positioniert werden, dass der von dem Benutzer in den 3D-Volumendaten gewählte Punkt bei der nächsten Datenerfassung zentral und aus einer gewünschten Richtung abgebildet wird. Auf diese Weise kann das Röntgengerät beispielsweise automatisch so positioniert werden, dass eine Bruchlinie anschließend in einer orthogonalen Draufsicht aufgenommen wird. Bei einer Ausführungsform kann die Lage eines weiteren Instruments, beispielsweise eines therapeutischen Instruments, im Raum erfasst werden. Die Ausgabe der Lage des Untersuchungsobjekts kann so erfolgen, dass eine Relativlage zwischen dem weiteren Instrument und der Position des benutzerdefiniert in den 3D-Volumendaten gewählten Punkts ermittelt und angezeigt wird. Der Benutzer kann das weitere Instrument an der von ihm in den 3D-Volumendaten vorgewählten Stelle positionieren, indem er den ausgegebenen relativen Abstand minimiert.
  • Für die praktische Anwendung, insbesondere bei Einsatz der Vorrichtungen und Verfahren nach verschiedenen Ausführungsformen in Verbindung mit therapeutischen Instrumenten, kann es vorteilhaft sein, von einem zusätzlichen dritten Koordinatensystem, einem so genannten Weltkoordinatensystem, auszugehen, zu dem alles in Beziehung gesetzt wird. Der Patient liegt in diesem Weltkoordinatensystem. Die Lage von therapeutischen Instrumenten ist ebenfalls in Bezug auf das Weltkoordinatensystem definiert. Es kann ein Navigationssystem vorgesehen sein, mit dem die Lage von therapeutischen Instrumenten in dem Weltkoordinatensystem erfasst wird. Im allgemeinen Fall wird durch eine Registrierung der Bezug der 3D-Volumendaten zu dem Weltkoordinatensystem hergestellt. Bei Ausführungsformen können, wie beispielhaft beschrieben wurde, die 3D-Volumendaten auch direkt in dem Weltkoordinatensystem angeordnet sein. Dies kann erreicht werden, indem das Koordinatensystem der 3D-Volumendaten gleichzeitig als das Weltkoordinatensystem definiert wird.
  • Unter Bezugnahme auf 5 und 6 wird die Vorrichtung und das Verfahren nach Ausführungsformen der Erfindung weiter beschrieben.
  • 5 ist eine schematische Darstellung, die die digitale Röntgenbildrekonstruktion anhand der 3D-Volumendaten von 2 illustriert. Die Ermittlung der 2D-Bilddaten erfolgt durch Aufsummierung bzw. Aufintegration von Helligkeitswerten entlang mehrerer Strahlen eines Strahlenbündels. Der Fokus des Strahlenbündels ist bei 40 dargestellt. Das Strahlenbündel weist eine Mehrzahl von Strahlen 41 auf. Ein Geräte-Koordinatensystem ist bei 42 dargestellt. Der Ursprung des Geräte-Koordinatensystems 42 liegt hier beispielhaft im Fokus 40, und die y-Achse des Geräte-Koordinatensystems 42 stellt den Zentralstrahl 42a des Strahlenbündels 41 dar. In einer Bildebene 43 ergeben sich virtuelle 2D-Bilddaten, die eine Abbildung 48 des Knochens 23 und eine Abbildung 49 der Bruchlinie 24 aufweisen. Die virtuellen 2D-Bilddaten unterscheiden sich von den schematisch in der Bildebene 43 dargestellten erfassten 2D-Bilddaten, die die Darstellung 28 des Knochens 23 und die Darstellung 29 der Bruchlinie 24 aufweisen. Durch Austesten verschiedener Orientierungen und/oder Positionen des Volumens, das durch die 3D-Volumendaten 21 repräsentiert wird, relativ zu dem Geräte-Koordinatensystem 42 können Werte von Abbildungsparametern ermittelt werden, für die die erfassten 2D-Bilddaten und die virtuellen 2D-Bilddaten gut übereinstimmen. Zum Austesten der verschiedenen Lagen des Volumens 21 kann die Orientierung des Volumens 21 relativ zu dem Geräte-Koordinatensystem 42 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten variiert werden. Dazu können Werte von Abbildungsparametern so verändert werden, dass sie unterschiedlichen Drehungen des volumeneigenenen Koordinatensystems mit den Koordinatenachsen 4547 relativ zu dem Geräte-Koordinatensystem 42 entsprechen. Zum Austesten der verschiedenen Lagen des Volumens 21 kann weiterhin die Position des Volumens 21 relativ zu dem Fokus 40 bei der rechnerischen Ermittlung der virtuellen 2D-Bilddaten variiert werden. Dazu können Werte von Abbildungsparametern so verändert werden, dass der Abstand 44 zwischen dem Fokus 40 und einem Volumenmittelpunkt des Volumens 21 und eine transversale Verschiebung des Volumens 21 in den zwei Richtungen transversal zu dem Zentralstrahl 42a verändert werden. Weiterhin kann eine Variation von Werten der Abbildungsparameter derart vorgesehen werden, dass bei der Ermittlung der virtuellen 2D-Bilddaten auch unterschiedliche Abstände zwischen Fokus 40 und Bildebene 43 und/oder eine Verkippung der Bildebene 43 aus der in 5 dargestellten, zu dem Zentralstrahl 42 orthogonalen Lage simuliert werden können.
  • 6 ist eine schematische Darstellung, welche das Ergebnis der optimalen Überlagerung der tatsächlichen 2D-Bilddaten mit den virtuellen 2D-Bilddaten anhand der 3D-Volumendaten von 2 illustriert. Im Vergleich zu der in 5 dargestellten Rekonstruktion wurde die Orientierung des Volumens 21 relativ zu dem Geräte-Koordinatensystem, das in 6 bei 52 dargestellt ist, und ein Abstand von einem Fokus des Strahlenbündels verändert. Der Fokus des Strahlenbündels ist bei 50 dargestellt. Das Strahlenbündel weist eine Mehrzahl von Strahlen 51 auf. Der Zentralstrahl ist bei 52a dargestellt. In einer Bildebene 53 ergeben sich virtuelle 2D-Bilddaten, die eine Abbildung 58 des Knochens 23 und eine Abbildung 59 der Bruchlinie 24 aufweisen. Durch eine relative Drehung des Strahlenbündels gegenüber dem Volumen 21 um ca. 90° um eine Achse, die parallel zu der Achse 46 verläuft, und durch eine Verringerung des Abstands zwischen dem Fokus 50 des Strahlenbündels und dem Volumenmittelpunkt des Volumens 21 auf einen Abstand 54 wird eine gute Übereinstimmung zwischen den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten erzielt. Dabei sind beispielsweise die jeweiligen Knochenkonturen 28, 58 und die Bruchlinien 29, 59 in der Bildebene 53 gut in Deckung.
  • 7 ist eine Flussdiagrammdarstellung eines Verfahrens 60 zum Ermitteln der Lage eines Untersuchungsobjekts nach einem weiteren Ausführungsbeispiel. Bei dem Verfahren werden aus vorab ermittelten 3D-Volumendaten rechnerisch virtuelle 2D-Bilddaten ermittelt. Die virtuellen 2D-Bilddaten werden für mehrere Werte von Abbildungsparametern ermittelt, um verschiedene Lagen des Volumen, das durch die 3D-Volumendaten repräsentiert wird, relativ zu einem Strahlenbündel auszutesten. Das Austesten von Werten von Abbildungsparametern erfolgt dabei automatisch. Das Verfahren 60 kann von der Vorrichtung 1 durchgeführt werden.
  • Bei dem Verfahren 60 werden bei 31 2D-Bilddaten erfasst, bei 32 vorab aufgenommene 3D-Volumendaten ausgelesen, bei 33 Werte von Abbildungsparametern initialisiert und bei 34 virtuelle 2D-Bilddaten aus den 3D-Volumendaten abhängig von den Werten der Abbildungsparameter ermittelt. Diese Schritte können wie unter Bezugnahme auf 4 beschrieben durchgeführt werden.
  • Bei 61 werden die virtuellen 2D-Bilddaten und die erfassten 2D-Bilddaten rechnergestützt verglichen. Das Vergleichen bei 61 kann das Auswerten eines Ähnlichkeitsmaßes beinhalten. Verschiedene bekannte Ähnlichkeitsmaße können verwendet werden.
  • Bei 62 wird abhängig von dem Vergleich bei 61 überprüft, ob die virtuellen und erfassten 2D-Bilddaten ein Ähnlichkeitskriterium erfüllen. Das Überprüfen bei 62 kann das Vergleichen eines bei 61 bestimmten Ähnlichkeitsmaßes mit einem Schwellenwert beinhalten. Falls bei 62 ermittelt wird, dass die erfassten und virtuellen 2D-Bilddaten das Ähnlichkeitskriterium nicht erfüllen, werden bei 63 neue Werte der Abbildungsparameter gewählt. Die neuen Werte können abhängig von einem Vergleich der virtuellen 2D-Bilddaten und der erfassten 2D-Bilddaten gewählt werden. Beispielsweise kann eine rechnergestützte Merkmalsextraktion in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten durchgeführt werden, um neue Werte der Abbildungsparameter zu ermitteln, die zu einer größeren Ähnlichkeit zwischen den erfassten und den virtuellen 2D-Bilddaten führen. Das Wählen der neuen Werte der Abbildungsparameter bei 63 kann abhängig von der Position einer Marke in den virtuellen und erfassten 2D-Bilddaten erfolgen. Nach dem Wählen der neuen Werte der Abbildungsparameter kehrt das Verfahren zu 34 zurück.
  • Falls bei 62 ermittelt wird, dass die virtuellen und erfassten 2D-Bilddaten das Ähnlichkeitskriterium erfüllen, werden bei 38 lageabhängige Informationen ausgegeben. Der Schritt 38 kann wie unter Bezugnahme auf 3 beschrieben ausgeführt werden.
  • Die unter Bezugnahme auf 3 beschriebene Änderung von Abbildungsparameterwerten abhängig von einer Benutzereingabe und die unter Bezugnahme auf 6 beschriebene Änderung von Abbildungsparameterwerten, die rechnergestützt durchgeführt wird, um verschiedene Lagen auszutesten, können bei Verfahren und Vorrichtungen nach weiteren Ausführungsformen auch kombiniert sein.
  • Sowohl bei der benutzerdefinierten als auch bei der automatischen Veränderung der Abbildungsparameterwerte können die Abbildungsparameterwerte so verändert werden, dass verschiedene Lagen des durch die 3D-Volumendaten repräsentierten Volumens systematisch und intuitiv ausgetestet werden können, wie unter Bezugnahme auf 8 näher beschrieben werden wird. Bei einer benutzerdefinierten Veränderung der Werte kann die Vorrichtung bzw. das Verfahren so ausgestaltet sein, dass dem Benutzer entsprechende Eingabemöglichkeiten zum Hervorrufen der genannten Einstellungen zur Verfügung gestellt werden.
  • 8 ist eine Flussdiagrammdarstellung von Verfahrensschritten 70, die ein systematisches Auffinden von Abbildungsparameterwerten ermöglichen, für die eine gute Übereinstimmung mit den erfassten 2D-Bilddaten erreicht wird. Während eine Folge von Verfahrensschritten dargestellt ist, müssen die Schritte nicht notwendig in dieser Reihenfolgen und nicht notwendig sequentiell ausgeführt werden. Schritte können wiederholt werden, um die Übereinstimmung zwischen virtuellen und erfassten 2D-Bilddaten weiter zu verbessern.
  • Bei 71 werden die Abbildungsparameterwerte so verändert, dass verschiedene Orientierungen des Zentralstrahls eines Strahlenbündels relativ zu dem durch die 3D-Volumendaten repräsentierten Volumen ausgetestet werden. Eine derartige Veränderung der relativen Orientierung ist in 5 und 6 schematisch dargestellt. Die Wahl der Orientierung des Zentralstrahls kann anhand eines Vergleichs von Merkmalen in den erfassten 2D-Bilddaten und den virtuellen 2D-Bilddaten erfolgen. Beispielsweise kann aus der Abbildung von Knochen in den erfassten und virtuellen 2D-Bilddaten die Orientierung festgelegt werden.
  • Bei 72 werden die Abbildungsparameterwerte so verändert, dass verschiedene Verschiebungen des durch die 3D-Volumendaten repräsentierten Volumens in den Richtungen transversal zu dem Zentralstrahl des Strahlenbündels ausgetestet werden. Bei der schematischen Darstellung von 5 entspricht dies einer Verschiebung entlang den Achsen 45 und 46. Bei der schematischen Darstellung von 6 entspricht dies einer Verschiebung entlang der Achsen 46 und 47. Auf diese Weise kann die Transversalposition bestimmter Merkmale des Untersuchungsobjekts in den virtuellen 2D-Bilddaten festgelegt werden.
  • Bei 73 werden die Abbildungsparameterwerte so verändert, dass verschiedene Abstände zwischen einem Fokus des Strahlenbündels und einem Volumenmittelpunkt des durch die 3D-Volumendaten repräsentierten Volumens ausgetestet werden. Dies führt im Wesentlichen zu einer Größenskalierung in den virtuellen 2D-Bilddaten. Verschiedene Fokus-Volumen-Abstände sind in 5 und 6 schematisch bei 44 und 54 dargestellt.
  • Mit den Schritten 7173 kann die Lage des durch die 3D-Volumendaten repräsentierten Volumens relativ zu dem Strahlenbündel, das die Projektion beschreibt, verändert werden. Bei bekannter Lage der Strahlungsquelle 4 und des Detektors 5 der Vorrichtung 1 von 1 wird somit das durch die 3D-Volumendaten repräsentierte Volumen gewissermaßen relativ zu der Strahlungsquelle 4 und dem Detektor 5 so lange virtuell verschoben, bis sich eine ausreichende Übereinstimmung zwischen den virtuellen und erfassten 2D-Bilddaten ergibt. Die 3D-Volumendaten in der entsprechenden Lage befinden sich im Wesentlichen in Deckung mit dem entsprechenden Abschnitt des Untersuchungsobjekts. Auf diese Weise wird ein Bezug zwischen der tatsächlichen Position des Untersuchungsobjekts und den 3D-Volumendaten hergestellt.
  • Optional können bei 74 und 75 noch die Werte der Abbildungsparameter so verändert werden, dass verschiedene Abstände zwischen Fokus des Strahlenbündels und Bildebene und/oder verschiedene Ausrichtungen der Bildebene relativ zu einem Zentralstrahl des Strahlenbündels ausgetestet werden. Typischerweise ist hier das Austesten eines kleinen Teils des Parameterraums ausreichend, da der Fokus-Detektor-Abstand und die Ausrichtung des Detektors relativ zu einem Zentralstrahl typischerweise wenigstens näherungsweise bekannt sind. Mit Schritten 74 und 75 kann die Übereinstimmung zwischen erfassten und virtuellen 2D-Bilddaten weiter erhöht werden.
  • Unter Bezugnahme auf die Figuren wurden Ausführungsformen beschrieben, bei denen die Lage eines Untersuchungsobjekts durch Vergleichen mehrerer Sätze von rechnerisch ermittelten, virtuellen 2D-Bilddaten mit einem einzigen Satz von erfassten 2D-Bilddaten ermittelt werden kann. Die Verfahren und Vorrichtungen können auch zur Lageermittlung eingesetzt werden, wenn mehrere Sätze von 2D-Bilddaten erfasst werden. Bei einer Ausführungsform können zeitsequentiell mehrere Sätze von 2D-Bilddaten erfasst werden. Mit den unter Bezugnahme auf die Figuren beschriebenen Prozeduren kann jeweils die Lage des Untersuchungsobjekts ermittelt werden. So kann beispielsweise während eines therapeutischen Eingriffs die Lage wiederholt bestimmt werden, auch wenn das Untersuchungsobjekt zwischen den verschiedenen Datenerfassungen unkontrolliert bewegt wurde. Bei Ausführungsformen kann auch die Relativlage zwischen Untersuchungsobjekt und Datenerfassungseinrichtung zwischen der Erfassung unterschiedlicher Sätze von 2D-Bilddaten kontrolliert verändert werden. Für jeden der Sätze von 2D-Bilddaten können mit den beschriebenen Prozeduren Werte von Abbildungsparametern ermittelt derart ermittelt werden, dass die entsprechenden virtuellen 2D-Bilddaten die verschiedenen Sätze von erfassten 2D-Bilddaten gut approximieren. Die für die unterschiedlichen Sätze von 2D-Bilddaten ermittelten Werte der Abbildungsparameter können zusammengeführt werden, um eine Lagebestimmung mit höherer Genauigkeit durchzuführen. Bei Ausführungsformen können 2D-Bilddaten und weitere 2D-Bilddaten so erfasst werden, dass sie zu einer stereoskopischen Darstellung kombiniert werden können. Dazu kann beispielsweise eine entsprechende Projektion in unterschiedliche Augen des Benutzers erfolgen. Es können zugeordnete virtuelle 2D-Bilddaten und weitere virtuelle 2D-Bilddaten ermittelt werden, die ebenfalls zu einer stereoskopischen Darstellung kombiniert werden können. Die Tiefeninformation erleichtert einem Benutzer die Überprüfung, ob eine gewünschte Übereinstimmung zwischen erfassten und virtuellen 2D-Bilddaten erreicht ist.
  • Während unter Bezugnahme auf die Figuren Ausführungsbeispiele detailliert beschrieben wurden, können bei weiteren Ausführungsformen Abwandlungen dieser Ausführungsbeispiele realisiert werden. Während Ausführungsbeispiele im Kontext von C-Arm-Geräten beschrieben wurden, können Vorrichtungen und Verfahren nach Ausführungsformen der Erfindung auch bei anderen Geräten eingesetzt werden, bei denen ein Satz von 2D-Bilddaten oder wenige Sätze von 2D-Bilddaten erfasst werden, und bei denen die Lage des Untersuchungsobjekts bestimmt werden soll.
  • Ausführungsbeispiele der Erfindung erlauben die Ermittlung der Position eines Untersuchungsobjekts abhängig von einem Satz von erfassten 2D-Bilddaten und vorab erfassten 3D-Volumendaten und bieten aktuelle 3D-Informationen, ohne dass die 3D-Volumendaten erneut aufgenommen werden müssen. Anwendungsfelder bestehen beispielsweise bei der medizinischen Technik.
  • Bezugszeichenliste
  • 1
    Vorrichtung zur Lagebestimmung
    2
    C-Arm-Gerät
    3
    C-Arm
    3'
    C-Arm in weiterer Stellung
    4
    Röntgenquelle
    5
    Röntgendetektor
    6
    Strahlenkonus
    6'
    weiterer Strahlenkonus
    7
    C-Arm-Antrieb
    8
    Bewegung des C-Arms
    9
    Patiententisch
    10
    Steuereinrichtung
    11
    Recheneinrichtung
    12
    Ausgabeeinrichtung
    13
    Speichereinrichtung
    14
    Eingabeeinrichtung
    15
    Abschnitt der Eingabeeinrichtung
    15a
    Abschnitt der Eingabeeinrichtung
    16
    Gelenk
    20
    Marke
    21
    3D-Volumendaten
    22
    Oberschenkel
    23
    Knochen
    24
    Bruchlinie
    26
    2D-Bilddaten
    27
    Unterschenkel in erfassten 2D-Bilddaten
    28
    Knochen in erfassten 2D-Bilddaten
    29
    Bruchlinie in erfassten 2D-Bilddaten
    30
    Verfahren
    31–38
    Verfahrensschritte
    40
    Fokus
    41
    Strahlen eines Strahlenkonus
    42
    Geräte-Koordinatensystem
    42a
    Zentralstrahl
    43
    Bildebene
    44
    Abstand
    45–47
    Koordinatenachsen des Volumens
    48
    Knochen in virtuellen 2D-Bilddaten
    49
    Bruchlinie in virtuellen 2D-Bilddaten
    50
    Fokus
    51
    Strahlen eines Strahlenkonus
    52
    Geräte-Koordinatensystem
    52a
    Zentralstrahl
    53
    Bildebene
    54
    Abstand
    55–57
    Koordinatenachsen des Volumens
    58
    Knochen in virtuellen 2D-Bilddaten
    59
    Bruchlinie in virtuellen 2D-Bilddaten
    60
    Verfahren
    61–63
    Verfahrensschritte
    70
    Verfahren
    71–75
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102004004603 A1 [0005]
  • Zitierte Nicht-Patentliteratur
    • Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0046]
    • Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1–4 [0066]

Claims (21)

  1. Verfahren zum Bestimmen einer Lage eines Untersuchungsobjekts (P), umfassend: – Erfassen eines Satzes von 2D-Bilddaten (26, 28, 29), der das Untersuchungsobjekt (P) repräsentiert, mit einer Datenerfassungseinrichtung (2), und – Ermitteln der Lage des Untersuchungsobjekts (P) abhängig von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und den erfassten 2D-Bilddaten (26, 28, 29), dadurch gekennzeichnet, dass virtuelle 2D-Bilddaten (48, 49; 58, 59) aus den 3D-Volumendaten (21) abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten (21) repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch ermittelt werden, wobei die virtuellen 2D-Bilddaten (48, 49; 58, 59) für mehrere Sätze von Abbildungsparameterwerten der Abbildungsparameter ermittelt werden, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den erfassten 2D-Bilddaten (26, 28, 29) zu erhöhen, und dass die Lage des Untersuchungsobjekts (P) abhängig von wenigstens einem Satz von Abbildungsparameterwerten der mehreren Sätze von Abbildungsparameterwerten ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Abbildungsparameter Einträge einer Projektionsmatrix umfassen, und dass die virtuellen 2D-Bilddaten (48, 49; 58, 59) für die mehreren Sätze von Abbildungsparameterwerten durch eine radiographische Projektion ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Lage des Untersuchungsobjekts (P) abhängig von einem Satz von Abbildungsparameterwerten ermittelt wird, für den die virtuellen 2D-Bilddaten (48, 49; 58, 59) und die erfassten 2D-Bilddaten (26, 28, 29) vorgegebene Ähnlichkeitskriterien erfüllen.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mehreren Sätze von Abbildungsparameterwerten so bestimmt werden, dass sie die Abbildung zwischen den Voxel-Koordinatentripeln und den Pixel-Koordinatentupeln für mehrere unterschiedliche Lagen des durch die 3D-Volumendaten (21) repräsentierten Volumens relativ zu einem Strahlenbündel (41, 42a; 51, 52a) beschreiben.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die mehreren Sätze von Abbildungsparameterwerten derart bestimmt werden, dass unterschiedliche Orientierungen und/oder translatorische Verschiebungen des durch die 3D-Volumendaten (21) repräsentierten Volumens relativ zu einem Koordinatensystem (42; 52) des Strahlenbündels (41, 42a; 51, 52a) und/oder unterschiedliche Orientierungen und/oder translatorische Verschiebungen eines Detektors (5) der Datenerfassungseinrichtung (2) relativ zu dem Koordinatensystem (42; 52) des Strahlenbündels (41, 42a; 51, 52a) ausgetestet werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein Satz von Abbildungsparameterwerten abhängig von einer Benutzereingabe bestimmt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Benutzereingabe über eine Eingabeeinrichtung (14), insbesondere über eine Eingabeeinrichtung (14) mit wenigstens sechs Freiheitsgraden, der Datenerfassungseinrichtung (2) erfolgt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die für einen Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten (48, 49; 58, 59) mit den erfassten 2D-Bilddaten (26, 28, 29) verglichen werden, um zu ermitteln, ob die virtuellen 2D-Bilddaten (48, 49; 58, 59) und die erfassten 2D-Bilddaten (26, 28, 29) ein vorgegebenes Ähnlichkeitskriterium erfüllen, und dass automatisch wenigstens ein weiterer Satz von Abbildungsparameterwerten bestimmt wird, falls das vorgegebene Ähnlichkeitskriterium nicht erfüllt ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass an dem Untersuchungsobjekt (P) wenigstens eine Marke (20) vorgesehen ist, die in den erfassten 2D-Bilddaten und in den virtuellen 2D-Bilddaten sichtbar ist, und dass der weitere Satz von Abbildungsparameterwerten abhängig von Lagen der wenigstens einen Marke in den erfassten 2D-Bilddaten und in den für den Satz von Abbildungsparameterwerten ermittelten virtuellen 2D-Bilddaten automatisch bestimmt wird.
  10. Verfahren nach einem der Ansprüche dadurch gekennzeichnet, dass die erfassten 2D-Bilddaten (26, 28, 29) und die virtuellen 2D-Bilddaten (48, 49; 58, 59) über eine optische Ausgabeeinrichtung (12) ausgegeben werden.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die erfassten 2D-Bilddaten (26, 28, 29) und die virtuellen 2D-Bilddaten (48, 49; 58, 59) gleichzeitig und kodiert, insbesondere farbkodiert und/oder polarisationskodiert, über die optische Ausgabeeinrichtung (12) ausgegeben werden.
  12. Verfahren nach einem der Ansprüche dadurch gekennzeichnet, dass weitere 2D-Bilddaten, die das Untersuchungsobjekt (P) repräsentieren und von den erfassten 2D-Bilddaten (26, 28, 29) verschieden sind, mit der Datenerfassungseinrichtung (2) erfasst werden, und dass weitere virtuelle 2D-Bilddaten aus den 3D-Volumendaten (21) basierend auf weiteren Abbildungsparameterwerten rechnerisch ermittelt werden.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass aus den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den weiteren virtuellen 2D-Bilddaten eine stereoskopische Darstellung erzeugt wird.
  14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die weiteren Abbildungsparameterwerte abhängig von den zur rechnerischen Ermittlung der virtuellen 2D-Bilddaten (48, 49; 58, 59) verwendeten Abbildungsparameterwerten bestimmt werden.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine geometrische Verzeichnung der erfassten 2D-Bilddaten (26) bei einem Vergleich der erfassten 2D-Bilddaten (26) und der virtuellen 2D-Bilddaten (48, 49; 58, 59) berücksichtigt wird.
  16. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Datenerfassungseinrichtung (2) eine Vorrichtung zur Röntgenbildgebung ist.
  17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass wenigstens zwei Sätze von Abbildungsparameterwerten so bestimmt werden, dass die virtuellen 2D-Bilddaten für unterschiedliche Lagen eines Röntgendetektors (5) relativ zu einer Strahlungsquelle (4) der Datenerfassungseinrichtung (2) ermittelt werden.
  18. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die 2D-Bilddaten unter Verwendung elektromagnetischer Strahlung, insbesondere optisch, erfasst werden, und dass die virtuellen 2D-Bilddaten abhängig von der zum Erfassen der 2D-Bilddaten verwendeten Technik rechnerisch ermittelt werden.
  19. Computerprogramm umfassend eine Befehlsfolge, die bei Ausführung durch eine elektronische Recheneinrichtung (11) einer Vorrichtung (1) zur medizinischen Bildgebung die Vorrichtung (1) zur Durchführung des Verfahrens nach einem der Ansprüche 1–18 veranlasst.
  20. Vorrichtung zum Erfassen einer Lage eines Untersuchungsobjekts (P), umfassend: – eine Erfassungseinrichtung (2) zum Erfassen eines Satzes von 2D-Bilddaten (26, 28, 29) eines Untersuchungsobjekts (P), – eine Speichereinrichtung (13) zum Speichern von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und – eine Recheneinrichtung (11), die mit der Speichereinrichtung (13) und der Erfassungseinrichtung (2) gekoppelt und eingerichtet ist, um die Lage des Untersuchungsobjekts (P) abhängig von 3D-Volumendaten (21) des Untersuchungsobjekts (P) und den erfassten 2D-Bilddaten (26, 28, 29) zu bestimmen, dadurch gekennzeichnet, dass die Recheneinrichtung (11) eingerichtet ist, um virtuelle 2D-Bilddaten (48, 49; 58, 59) aus den 3D-Volumendaten (21) abhängig von Abbildungsparametern, die eine Abbildung zwischen Voxel-Koordinatentripeln eines durch die 3D-Volumendaten (21) repräsentierten Volumens und Pixel-Koordinatentupeln von 2D-Bilddaten beschreiben, rechnerisch zu ermitteln, wobei die Recheneinrichtung (11) eingerichtet ist, um die virtuellen 2D-Bilddaten (48, 49; 58, 59) für mehrere Sätze von Abbildungsparameterwerten zu ermitteln, um eine Übereinstimmung zwischen den virtuellen 2D-Bilddaten (48, 49; 58, 59) und den erfassten 2D-Bilddaten (26, 28, 29) zu erhöhen, und um die Lage des Untersuchungsobjekts (P) abhängig von wenigstens einem Satz von Abbildungsparameterwerten der mehreren Sätze von Abbildungsparameterwerten zu ermitteln.
  21. Vorrichtung nach Anspruch 20, dadurch gekennzeichnet, dass die Vorrichtung (1) zur Durchführung des Verfahrens nach einem der Ansprüche 2–18 eingerichtet ist.
DE102010020287.8A 2010-05-12 2010-05-12 Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts Active DE102010020287B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010020287.8A DE102010020287B4 (de) 2010-05-12 2010-05-12 Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010020287.8A DE102010020287B4 (de) 2010-05-12 2010-05-12 Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts

Publications (2)

Publication Number Publication Date
DE102010020287A1 true DE102010020287A1 (de) 2011-11-17
DE102010020287B4 DE102010020287B4 (de) 2018-11-08

Family

ID=44859572

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010020287.8A Active DE102010020287B4 (de) 2010-05-12 2010-05-12 Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts

Country Status (1)

Country Link
DE (1) DE102010020287B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200661A1 (de) * 2012-01-18 2013-07-18 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung von Bildaufnahmeparametern
WO2014008613A1 (de) * 2012-07-12 2014-01-16 Ao Technology Ag Verfahren zur herstellung eines graphischen 3d computermodells mindestens einer anatomischen struktur in einem wählbaren prä-, intra- oder post-operativen status

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144759A (en) * 1997-02-14 2000-11-07 U.S. Philips Corporation Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method
DE102004004603A1 (de) 2004-01-29 2005-08-18 Siemens Ag Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes
US20060281971A1 (en) * 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
DE102006055934A1 (de) * 2006-11-27 2008-06-12 Siemens Ag Auswertungsverfahren für eine Anzahl zweidimensionaler Projektionsbilder eines dreidimensionalen Untersuchungsobjekts
US20100002839A1 (en) * 2008-07-04 2010-01-07 Kabushiki Kaisha Toshiba X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144759A (en) * 1997-02-14 2000-11-07 U.S. Philips Corporation Method of determining the transformation between an object and its three-dimensional representation, and device for carrying out the method
DE102004004603A1 (de) 2004-01-29 2005-08-18 Siemens Ag Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes
US20060281971A1 (en) * 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
DE102006055934A1 (de) * 2006-11-27 2008-06-12 Siemens Ag Auswertungsverfahren für eine Anzahl zweidimensionaler Projektionsbilder eines dreidimensionalen Untersuchungsobjekts
US20100002839A1 (en) * 2008-07-04 2010-01-07 Kabushiki Kaisha Toshiba X-ray imaging apparatus that displays analysis image with taken image, x-ray imaging method, and image processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Aodong Shen und Limin Luo, Point-based digitally reconstructed radiograph, 19th International Conference on Pattern Recognition, 2008. ICPR 2008. IEEE (2008), S. 1-4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200661A1 (de) * 2012-01-18 2013-07-18 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung von Bildaufnahmeparametern
DE102012200661B4 (de) 2012-01-18 2019-01-03 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Bestimmung von Bildaufnahmeparametern
WO2014008613A1 (de) * 2012-07-12 2014-01-16 Ao Technology Ag Verfahren zur herstellung eines graphischen 3d computermodells mindestens einer anatomischen struktur in einem wählbaren prä-, intra- oder post-operativen status

Also Published As

Publication number Publication date
DE102010020287B4 (de) 2018-11-08

Similar Documents

Publication Publication Date Title
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
DE102015208929B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
EP2189940B1 (de) Bestimmung von Indikator-Körperelementen und Pre-Indikator-Trajektorien
EP2119397B1 (de) Bestimmung einer Kalibrier-Information für ein Röntgengerät
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
EP0880109B1 (de) Verfahren zur Ermittlung der Transformation zwischen einem Objekt und seiner dreidimensionalen Darstellung und Anordnung zur Durchführung des Verfahrens
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE102006012945B4 (de) Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
DE10301075B4 (de) Patientenpositionierung durch Videobildgebung
DE102016210131A1 (de) Positionieren eines Untersuchungsobjekts für ein Bildgebungsverfahren
DE102014218557B4 (de) Benutzerschnittstelle und Verfahren zur automatisierten Positionierung eines Patiententisches relativ zu einer medizintechnischen Anlage
DE102007013807A1 (de) Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystem zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen
DE112004002435B4 (de) Bestimmung von patientenbezogenen Informationen zur Position und Orientierung von MR-Bildern durch Individualisierung eines Körpermodells
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102006007254A1 (de) Verfahren und Vorrichtung zur Bestimmung der Bewegung eines Objekts in einer bildgebenden Einrichtung
DE102011076930A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Volumendaten eines Objektes
EP1348394A1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientdaten mit zweidimensionaler Anpassung
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
DE102017203438A1 (de) Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP1498851A1 (de) Bestimmung einer dreidimensionalen Form eines Körpers, insbesondere einer anatomischen Struktur, aus zweidimensionalen Projektionsbildern
WO2011120795A1 (de) Verfahren zum ermitteln von dreidimensionalen volumendaten und bildgebungsvorrichtung
DE102010020287B4 (de) Verfahren, Datenträger mit darauf gespeichertem Computerprogramm und Vorrichtung zur Lagebestimmung eines Untersuchungsobjekts
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers

Legal Events

Date Code Title Description
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE