DE102011083634B4 - Vorrichtung und Verfahren für eine Bilddarstellung - Google Patents

Vorrichtung und Verfahren für eine Bilddarstellung Download PDF

Info

Publication number
DE102011083634B4
DE102011083634B4 DE102011083634.9A DE102011083634A DE102011083634B4 DE 102011083634 B4 DE102011083634 B4 DE 102011083634B4 DE 102011083634 A DE102011083634 A DE 102011083634A DE 102011083634 B4 DE102011083634 B4 DE 102011083634B4
Authority
DE
Germany
Prior art keywords
unit
sbn
image
data
visualization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011083634.9A
Other languages
English (en)
Other versions
DE102011083634A1 (de
Inventor
Rainer Graumann
Sorin-Alexandru Neagu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102011083634.9A priority Critical patent/DE102011083634B4/de
Priority to CN201280046614.2A priority patent/CN103841895B/zh
Priority to PCT/EP2012/067134 priority patent/WO2013045220A1/de
Publication of DE102011083634A1 publication Critical patent/DE102011083634A1/de
Application granted granted Critical
Publication of DE102011083634B4 publication Critical patent/DE102011083634B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Vorrichtung zur Visualisierung von Bildern (SB1, ..., SBn, DRR) aus einem Objekt (O) zugeordneten 3D-Datensatz (KO) auf einer Visualisierungseinheit (DP),dass eine Markereinheit (OM) an einer Diagnoseeinheit (C, D, RQ) vorgesehen ist,dass die Visualisierungseinheit (DP) mindestens einen Sensor (K, K1, K2) aufweist, womit die Ausrichtung und Lage der Visualisierungseinheit (DP) zu der an der Diagnoseeinheit (C, D, RQ) angeordneten Markereinheit (OM) erfasst und daraus die Lage eines Schnittbildes (SBn) und/oder eines digital rekonstruierten Röntgenbildes (DRR) aus dem 3D-Datensatz (KO) abgeleitet und die Daten des Bildes (SBn, DRR) errechnet und auf der Visualisierungseinheit (DP) abgebildet werden/wird.

Description

  • Die Erfindung bezieht sich auf eine Vorrichtung und ein dazugehöriges Verfahren für eine Bilddarstellung aus einem 3D-Datensatz auf einer Visualisierungseinheit.
  • Nachdem in vorgebbaren Abständen beispielsweise entlang einer kreissegment- oder kreisbogenförmigen Trajektorie Röntgenaufnahmen von einem Objekt angelegt wurden, können die 2D-Datensätze der Röntgenaufnahmen zu einem 3D-Datensatz verrechnet werden. Auf der Grundlage des 3D-Datensatzes können Schichtbilder oder beliebige Schnittansichten von dem Objekt innerhalb des 3D-Datensatzes errechnet werden. Mit der Vorgabe einer Schnittart, -richtung sowie etwa einer Schnittneigung in eine Eingabemaske kann der Arzt oder Chirurg eine Schnittansicht durch das Objekt auf einem stationären Bildschirm abbilden.
  • Die DE 698 15 260 T2 und die EP 1 321 105 A1 beschreiben eine Vorrichtung und ein Verfahren zur Visualisierung von Bildern aus einem einem Objekt zugeordneten Datensatz auf einer Visualisierungseinheit.
  • Der Erfindung liegt die Aufgabe zugrunde, eine weitere Vorrichtung und ein dazugehöriges Verfahren zur Visualisierung von Bildern anzugeben.
  • Die Aufgabe wird durch die Merkmale der Patentansprüche 1 oder 8 gelöst.
  • Mit der Vorrichtung und dem dazugehörigen Verfahren können Schnittbilder oder virtuelle Röntgenbilder aus einem einen Objekt zugeordneten 3D-Datensatz errechnet und auf einer portablen Visualisierungseinheit abgebildet werden. Zu diesem Zweck wird über mindestens einen Sensor an der Visualisierungseinheit dessen Ausrichtung und Lage bezüglich einer an einer Diagnoseeinheit angeordneten Markereinheit ermittelt. Mit Hilfe der Ausrichtung der Visualisierungseinheit wird die Lage des Schnittbildes im 3D-Datensatz und/oder die Blickrichtung für eine virtuelle Röntgenaufnahme abgeleitet und die Bilddaten des Schnittbildes oder digital rekonstruierten Röntgenbildes errechnet und auf der Visualisierungseinheit abgebildet.
  • Die Erfindung bringt den Vorteil mit sich, dass mobile Displays zur Darstellung von Schnittflächen oder digital rekonstruierte Röntgenbilder durch einen 3D-Datensatz intraoperativ verwendet werden, wobei sich jeweils die dargestellte Schnittfläche oder das digital rekonstruierte Röntgenbild nach der Lage des Patienten, des rekonstruierten Volumens und der Lage und Position der Visualisierungseinheit orientiert.
  • Die Erfindung bringt den Vorteil mit sich, dass eine Orientierung für eine darzustellende Schnittfläche sich anhand der Ortskoordinaten des 3D-Datensatzes sowie einer Relation zwischen der Diagnostikanlage und der Visualisierungseinheit ergibt.
  • Die Erfindung bringt den Vorteil mit sich, dass der behandelnde Arzt schnell und umfassend eine der Ausrichtung des 3D-Datensatzes entsprechende Darstellung von einem für ihn relevanten Bereich erhält.
  • Die Erfindung bringt den Vorteil mit sich, dass rechenintensive Algorithmen zur Bildberechnung von einer leistungsstarken Recheneinheit intern oder extern von der Visualisierungseinheit oder des Operationsraumes durchgeführt werden können.
  • Die Erfindung bringt den Vorteil mit sich, dass die Daten des Schnittbildes über eine WLAN-Verbindung mit hoher Datenübertragungsrate an Empfangseinheiten des mobilen Displays übertragbar sind.
  • Die Erfindung bringt den Vorteil mit sich, dass die Schnittbilddarstellungen vor Ort unmittelbar neben dem Patienten in der richtigen Lagen und Orientierung betrachtet werden können.
  • Die Erfindung wird im Folgenden mittels Zeichnungen anhand eines Ausführungsbeispiels erläutert.
  • Dabei zeigen:
    • 1 eine Übersichtdarstellung,
    • 2 eine erste Schnittdarstellung,
    • 3 eine zweite Schnittdarstellung,
    • 4 eine dritte Schnittdarstellung und
    • 5 eine weitere Übersichtsdarstellung.
  • Mit der Vorrichtung und dem dazugehörigen Verfahren wird eine patientenorientierte Schnittbilddarstellung auf der Grundlage eines 3D-Datensätzes an einem portablen Display möglich.
  • In der Übersichtsdarstellung ist beispielsweise eine Anordnung zur Abbildung eines Schnittbildes dargestellt. Dargestellt ist eine an einem C-förmigen Trägerelement C angeordnete Röntgeneinrichtung die auch als Diagnostikeinheit bezeichnet werden kann. Eine Diagnostikeinheit kann hier auch eine Computertomographie-, eine Magnetresonanz- oder eine Ultraschallanlage sein. Zu dieser Diagnostikeinheit ist eine Rechenanlage RE beigestellt. In dieser sind, wie in 5 in einem Blockschaltbild angedeutet, die einzelnen Module bzw. Einheiten zur Ermittlung der Ortskomponenten zur relativen Ausrichtung des mobilen Displays und zur dazugehörigen Schnittbilderstellung aus dem ebenfalls in der Recheneinheit RE vorliegenden 3D-Datensatz angeordnet.
  • Die hier für das Ausführungsbeispiel schematisch abgebildete Röntgeneinrichtung, bestehend aus Röntgenquelle RQ und einem Detektor D, wird jeweils auf ein zu röntgendes Objekt O ausgerichtet. Diese Röntgeneinrichtung wird von einer hier nicht explizit dargestellten Steuerungseinheit entsprechend einer vorgebbaren Trajektorie um das Objekt O oder über Teilbereiche des Objekts O geführt. Hier können beispielsweise während einer Orbitalbewegung der C-bogenförmigen Vorrichtung eine Vielzahl von Röntgenaufnahmen von einem Teilbereich des Körpers gemacht werden. Neben einer Orbitalbewegung OB, einer Angulationsbewegung AG ist auch eine Transversalbewegung des C-Bogens möglich. Während der Trajektorie werden eine Vielzahl von Röntgenaufnahmen von einem zu diagnostizierenden oder zu beurteilenden Objekt- bzw. Körperbereich angefertigt. Die 2D-Röntgenaufnahmen werden jeweils von einer hier nicht explizit dargestellten Recheneinheit aus der Detektoreinheit D ausgelesen und mittels eines Rekonstruktionsalgorithmus zu einem 3D-Datensatz verrechnet. Dieser 3D-Datensatz KO kann in einer der Röntgeneinrichtung C zugeordneten mobilen Einheit abgespeichert oder auf einen Datenserver zwischengespeichert werden. Aus dem zwischengespeicherten 3D-Datensatz KO können beliebige Schnittansichten oder virtuelle Röntgenprojektionen die auch als digital rekonstruierte Röntgenbilder DRR's bezeichnet werden berechnet werden. Bei einem digital rekonstruierten Röntgenbild kann der gesamte 3D-Datensatz jeweils aus der Sicht der Visualisierungseinheit betrachtet werden. Diese Schnittansichten oder Schnittbilder bzw. digital rekonstruierten Röntgenbilder können an einem stationären oder an einer portablen Bildschirmeinheit zusätzlich betrachtet werden. In dem hier betrachteten Ausführungsbeispiel kann die portable Bildschirmeinheit bzw. Visualisierungseinheit als ein mobiles Display DP mit entsprechender Rechenkapazität zur Erstellung der jeweiligen Bilddaten eines Schnittbildes ausgebildet sein. Mittels einer vorangegangenen Registrierung des auf einem Operationstisch OPT angeordneten Objektes O ist die Orientierung des angelegten 3D-Datensatzes diesem beigefügt. Die zur Registrierung nötige Markereinheit OM, die beispielsweise am Detektor D der Bilderstellungseinheit angeordnet ist kann durch optische Sensoren die in dem mobilen Display DP integriert sind erkannt werden. Wie in 5 angedeutet ist dem Objekt O ein erstes Koordinatensystem KS1, der Markereinheit OM ein zweites Koordinatensystem KS2 und dem mobilen Display DP ein drittes Koordinatensystem KS3 zugeordnet. Die Markereinheit OM kann aus optischen Markern gebildet sein. Die Markereinheit OM kann beispielsweise aus vier nicht in einer Ebene liegenden Markern gebildet sein. Der am Rand des Displays angeordnete optische Sensor kann in Form einer CCD-Kamera oder einer optischen Kamera K, K1, K2 die jeweils eine Objekterkennungseinheit aufweist ausgebildet sein. Die Diagnostikanlage wird zwischen Datenaufnahme und Visualisierung nicht hinsichtlich Ort und Orientierung verändern.
  • Durch die Anordnung von beispielsweise mindestens einem ersten und/oder einem zweiten optischen Systemen K1, K2 im Randbereich des mobilen Displays DP kann die Position und Orientierung relativ zum optischen Marker OM erfasst werden. Berechnungen hierzu können in einem Orientierungsmodul ODP in einer dem mobilen Display DP zugeordneten Recheneinheit RE ermittelt werden. Die Datenübertragung hierzu kann kabellos erfolgen.
  • Eine örtliche Beziehung zwischen dem 3D-Datensatz KO und den beispielsweise am Detektor D angeordneten optischen Markern OM, wird durch Ermittlung einer ersten Transformationsvorschrift Tm k vorgegeben und in der Recheneinheit RE in einem ersten Modul ET ermittelt.
  • Eine zweite Transformationsvorschrift Tm i beschreibt die örtliche Beziehung zwischen dem optischen Marker OM und dem mobilen Display DP und wird in einem zweiten Modul ZT ermittelt.
  • Eine resultierende Transformationsvorschrift Tk i zwischen dem 3D-Datensatz KO und dem mobilen Display DP wird durch die Verknüpfung der ersten und zweiten Transformationsvorschriften Tm i und Tm k in einem dritten Modul DT ermittelt sowie die relative Lage des Displays DP und der jeweilige Schnitt durch den 3D-Datensatz errechnet. Die Rechenoperationen für ein Schnittbild SB1,..., SBn können mittels der Recheneinheit RE ausgeführt werden. Bei einer entsprechenden Rechenkapazität im portablen Display DP wird das Schnittbild SB1,..., SBn in diesem ausgerechnet. Die resultierende Transformationsvorschrift lautet Tk i = Tm k · Tm i. Die Erfindung bringt den Vorteil mit sich, dass prä- oder intraoperativ gewonnene Bilddaten in geometrisch korrekter Beziehung zum Patienten betrachtet werden können. Die vorliegenden Daten der Schnittbilder SB1,..., SBn können zusätzlich entweder auf einem Bildschirm eines Monitorwagens oder einem separaten Bildschirm angezeigt werden. Die Auswahl bestimmter Schichten oder Schnittbilder SB1,..., SBn, sowie die digital rekonstruierte Röntgenbilder DRR , können durch beispielsweise eine Ausrichtung, Neigung, Rotation und/oder einen Versatz um beispielsweise den Schwerpunkt des portablen Displays DP in Bezug zum vorliegenden 3D-Datensatz erfolgen. Sind bestimmte Bilder SBn, SBx oder DRR's von besonderem Interesse, so können beispielsweise diese durch betätigen einer Funktionstaste am Rand des Displays ausgewählt und abgespeichert oder zur Ansicht bereitgestellt werden.
  • Mit der Anordnung und dem dazugehörigen Verfahren wird die Position und Lage des mobilen Displays zum vorhandenen 3D-Datensatzes KO mit einbezogen. Der hier gezeigte Gegenstand und das dazugehörige Verfahren berücksichtigt die Position des rekonstruierten 3D-Datensatzes KO in Relation zu einem Fixpunkt und/oder Marker bzw. Markeranordnung, beispielsweise an der Röntgeneinrichtung. Der Fixpunkt und/oder Marker bzw. die Markereinheit kann durch optische Marker, Ultraschallsensoren oder elektromagnetische Sensoren ausgebildet sein.
  • Die Lage des portablen Displays DP zum Patienten bzw. zu einer an der Röntgeneinrichtung RQ, D angeordneten Markereinheit OM oder Fixpunkte kann mittels der in dem portablen Display DP angeordneten Erkennungsmittel K, K1, K2, beispielsweise einer ersten und/oder zweiten Kamera, durchgeführt werden.
  • Ist das mobile Display DP mit mindestens zwei Kameras ausgebildet, so kann jeweils der Abstand und dessen Orientierung zu den Markern der Markereinheit OM ermittelt werden. Sind die optischen Sensoren in allen vier Kanten oder Eckbereichen des portablen Displays DP integriert, so können immer mindestens zwei Kameras K, K1, K2, den optischen Marker OM oder den Fixpunkt erfassen. Die Position und Orientierung des mobilen Displays DP relativ zu der Markereinheit OM oder den Fixpunkten lässt sich dann beispielsweise über eine Triangulierung berechnen.
  • Verfügt das mobile Display DP über nur einen Sensor bzw. eine Kamera, dann wird die Orientierung des mobilen Displays über die mit wenigstens vier nicht in einer Ebene liegenden Marker der optischen Markereinheit OM ermittelt.
  • Eine Orientierung des mobilen Displays DP könnte mittels einer ersten und zweiten Aufnahme mit einer im Randbereich des portablen Displays DP angeordneten Kamera K von der optischen Markereinheit OM ermittelt werden, wenn zwischen der ersten und zweiten Aufnahmen das portable Display DP um eine Wegstrecke versetzt wird. Die Orte des portablen Displays DP können jeweils durch die in das portable Display integrierte Sensorik erfasst und die Wegstrecke ermittelt werden. Mit den zu der ersten und zweiten Aufnahme abgespeicherten Ortsdaten kann dann mittels einer Triangulierung die Position und Orientierung des portablen Displays DP durch die beigestellte Recheneinheit berechnet werden.
  • Die Schichtbilder und/oder Schnittbilder bzw. virtuellen Röntgenprojektionen werden dann entsprechend der Orientierung des 3D-Datensatzes KO und der Ausrichtung des portablen Displays DP, DP', DP'' auf diesem dargestellt. Ebenso kann die Ausrichtung des portablen Displays DP fixiert, das Display entfernt und das Schnittbild oder die virtuelle Röntgenprojektion an einem anderen Ort betrachtet werden. Teile oder ganze Abschnitte von Rechenprozessen können in externen Recheneinheiten RE durchgeführt und über einen Datentransfer zum mobilen Display DP online übertragen werden. Ebenso können ganze Berechnungen von entsprechenden Schichten oder digital rekonstruierten Röntgenbildern auf externen Rechnern erfolgen, wobei die aktuelle Position und Orientierung des mobilen Displays DP jeweils als Input dient.
  • In den 2 bis 4 sind jeweils Positionen des portablen Displays DP, DP', DP'' in Bezug zu einem diesem zugeordneten dritten Koordinatensystem KS3 gezeigt.
  • In der 2 ist das portable Display DP horizontal in z-Richtung sowie entlang einer Winkelhalbierenden in der xy-Ebene ausgerichtet. Der 3D-Datensatz KO ist jeweils parallel zu einem diesem zugrundeliegenden zweiten Koordinatensystem KS2 ausgerichtet. In dem Ausführungsbeispiel haben das zweite und dritte Koordinatensystem KS2, KS3 die gleiche Ausrichtung. Der 3D-Datensatz KO ist mit einer unterbrochenen Linienführung dargestellt. Die Schnittfläche durch den hier quaderförmig dargestellten 3D-Datensatz KO ergibt das Schnittbild SB1. Dieses Schnittbild SB1 ist auf dem portablen Display DP schraffiert dargestellt.
  • In der 3 verbleibt das portable Display DP' mit einer Kante auf der Winkelhalbierenden der xy-Ebene des Koordinatensystems KS3 während das portable Display DP' nach hinten geneigt wird. Die Folge davon ist, dass jetzt nur noch ein trapezförmiger Ausschnitt aus dem 3D-Datensatz KO abgebildet wird. Das Schnittbild SB2 ist schraffiert dargestellt.
  • In 4 wird das parallel zur y-Koordinate ausgerichtete portable Display DP, DP', DP'' und entlang der x-Koordinate verschoben. Entsprechend werden unterschiedliche Schnittbilder SB3, SB4, SBn aus dem 3D-Datensatz KO errechnet.
  • In 5 ist die dem portablem Display DP beigeordnete Recheneinheit RE näher dargestellt. In der Recheneinheit RE sind zur Datenauswertung sowie zur Berechnung der nötigen Koordinaten und Schnittbilder die nötigen Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM angedeutet. Mögliche Ausrichtungen des portablen Displays DP sind angedeutet. In einem Orientierungsmodul ODP wird die Ausrichtung des mobilen Displays DP, DP', DP'' ermittelt. In einer ersten Speichereinheit 3D wird der 3D-Datensatz KO zwischengespeichert. In dem ersten, zweiten und dritten Modul ET, ZT und DT werden die beschriebenen Transformationsvorschriften umgesetzt und im Schnittbildmodul SBM jeweils die Schnittbilder SBn errechnet sowie die errechneten Schnittbilder SB1,..., SBn zwischengespeichert. Das digitale rekonstruierte Röntgenbild DRR wird in dem Röntgenbildmodul DRRM ermittelt und zwischengespeichert. Die in der Recheneinheit RE angeordneten Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM können auch einem in dem portablen Display DP integrierten Prozessor zugeordnet sein und die Schnittbilder vor Ort berechnet werden.
  • Bezugszeichenliste
  • C
    C-Bogen
    P
     iPad®
    DP
    Display
    K
    Kamera
    OM
    Markereinheit
    O
    Objekt
    KO
    Kubus/3D-Datensatz
    OPT
    Operationstisch
    D
    Detektor
    RQ
    Röntgenquelle
    Tmi
    1. Transformationsvorschrift opt.Markeri/Pad®
    Tmk
    2. Transformationsvorschrift opt. Marker/Kubus
    Tki
    Transformation Kubus/iPad®
    K
    optischer Sensor
    K1
    erste Kamera
    K2
    zweite Kamera
    3D
    erste Speichereinheit
    ODP
    Orientierungsmodul
    ET
    erstes Modul
    ZT
    zweites Modul
    DT
    drittes Modul
    SB1, ..., SBn
    Schnittbilder
    DRR
    digital rekonstruiertes Röntgenbild
    DRRM
    Röntgenbildmodul
    SBM
    Schnittbildmodul
    KS1
    erstes Koordinatensystem
    KS2
    zweites Koordinatensystem
    KS3
    drittes Koordinatensystem

Claims (8)

  1. Vorrichtung zur Visualisierung von Bildern (SB1, ..., SBn, DRR) aus einem Objekt (O) zugeordneten 3D-Datensatz (KO) auf einer Visualisierungseinheit (DP), dass eine Markereinheit (OM) an einer Diagnoseeinheit (C, D, RQ) vorgesehen ist, dass die Visualisierungseinheit (DP) mindestens einen Sensor (K, K1, K2) aufweist, womit die Ausrichtung und Lage der Visualisierungseinheit (DP) zu der an der Diagnoseeinheit (C, D, RQ) angeordneten Markereinheit (OM) erfasst und daraus die Lage eines Schnittbildes (SBn) und/oder eines digital rekonstruierten Röntgenbildes (DRR) aus dem 3D-Datensatz (KO) abgeleitet und die Daten des Bildes (SBn, DRR) errechnet und auf der Visualisierungseinheit (DP) abgebildet werden/wird.
  2. Vorrichtung nach Patentanspruch 1, dadurch gekennzeichnet, dass ein Orientierungsmodul (ODP) zur Ermittlung der Ausrichtung der Visualisierungseinheit (DP) gegenüber der Markereinheit (OM) vorgesehen ist.
  3. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein Schnittbildermodul (SBM) zur Errechnung der Daten des Schnittbildes (SBn) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (O) zugeordneten 3D-Datensatzes vorgesehen ist.
  4. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein Röntgenbildmodul (DRRM) zur Errechnung der Daten des digital rekonstruierten Röntgenbildes (DRR) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (O) zugeordneten 3D-Datensatzes vorgesehen ist.
  5. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein erstes Modul (ET) zur Umsetzung einer ersten Transformationsvorschrift (Tm i) zwischen Markereinheit (OM) und dem 3D-Datensatz (KO), dass ein zweites Modul (ZT) zur Umsetzung einer zweiten Transformationsvorschrift (Tm k) zwischen der Markierungseinheit (OM) und der Visualisierungseinheit (DP) dass ein drittes Modul (DT) zur Verknüpfung der ersten und zweiten Transformationsvorschrift (Tk i) vorgesehen ist.
  6. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ie Visualisierungseineinheit (DP) an mindestens zwei Kanten optische Sensoren (K, K1, K2) aufweist
  7. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ie Visualisierungseineinheit (DP) ein portables Display (DP) ist, dass die Visualisierungseinheit (DP) eine Recheneinheit (RE) zur Ermittlung der Bilddaten von Schnittbildern (SB1, ..., SBn) und virtuellen Röntgenbildern (DRR) aufweist
  8. Verfahren zur Visualisierung von Schnittbildern (SB1, ..., SBn) aus einem einem Objekt (O) zugeordneten 3D-Datensatz (KO), das ine Ausrichtung einer Visualisierungseinheit (DP) erfasst und daraus die Lage des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DDR) aus dem 3D-Datensatz (KO) ableitet und die Bilddaten des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DRR) errechnet werden/wird.
DE102011083634.9A 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung Active DE102011083634B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102011083634.9A DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung
CN201280046614.2A CN103841895B (zh) 2011-09-28 2012-09-03 用于图像显示的装置和方法
PCT/EP2012/067134 WO2013045220A1 (de) 2011-09-28 2012-09-03 Vorrichtung und verfahren für eine bilddarstellung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011083634.9A DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung

Publications (2)

Publication Number Publication Date
DE102011083634A1 DE102011083634A1 (de) 2013-03-28
DE102011083634B4 true DE102011083634B4 (de) 2021-05-06

Family

ID=46826486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011083634.9A Active DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung

Country Status (3)

Country Link
CN (1) CN103841895B (de)
DE (1) DE102011083634B4 (de)
WO (1) WO2013045220A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116409A (ja) * 2013-12-19 2015-06-25 株式会社日立メディコ X線ct装置
JP6452936B2 (ja) * 2014-01-17 2019-01-16 キヤノンメディカルシステムズ株式会社 X線診断装置および着用可能デバイス
JP6548383B2 (ja) * 2014-11-28 2019-07-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
US10478149B2 (en) * 2017-02-21 2019-11-19 Siemens Healthcare Gmbh Method of automatically positioning an X-ray source of an X-ray system and an X-ray system
US10413363B2 (en) * 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1321105A1 (de) * 2001-12-18 2003-06-25 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder
DE69815260T2 (de) * 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000201925A (ja) * 1999-01-12 2000-07-25 Toshiba Corp 3次元超音波診断装置
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7203277B2 (en) * 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7097357B2 (en) * 2004-06-02 2006-08-29 General Electric Company Method and system for improved correction of registration error in a fluoroscopic image
WO2006086223A2 (en) * 2005-02-08 2006-08-17 Blue Belt Technologies, Inc. Augmented reality device and method
EP2501320A4 (de) * 2009-11-19 2014-03-26 Univ Johns Hopkins Kostengünstige bildgesteuerte navigations- und interventionssysteme mit kooperativen sätzen lokaler sensoren

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69815260T2 (de) * 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung
EP1321105A1 (de) * 2001-12-18 2003-06-25 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder

Also Published As

Publication number Publication date
CN103841895A (zh) 2014-06-04
CN103841895B (zh) 2016-09-07
DE102011083634A1 (de) 2013-03-28
WO2013045220A1 (de) 2013-04-04

Similar Documents

Publication Publication Date Title
DE60128722T2 (de) Fluoroskopische röntgentomographiebildgebung
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
CN1981717B (zh) 利用医学诊断成像工作站整合三维和二维监视器的方法和装置
DE102011083634B4 (de) Vorrichtung und Verfahren für eine Bilddarstellung
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
DE10162272A1 (de) Verfahren zur Unterstützung der Orientierung im Gefäßsystem
DE102008025151A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
EP1127545A2 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE102012215922B4 (de) Medizintechnische Anlage und Verfahren zur Erzeugung von Bildern
DE102008017111A1 (de) System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt
DE102008037424A1 (de) Verbessertes System und Verfahren für auf Volumen basierende Registrierung
DE102007026520A1 (de) Bildakquisitons-, Bildarchivierungs- und Bildrenderingsystem zur Reproduzierung von eingestellten Untersuchungsparametern einer CT-, PET-CT- bzw. MRT- gestützten Erstuntersuchung bei nachfolgenden radiologischen Kontrolluntersuchungen
DE102014200915A1 (de) Verfahren zum Bereitstellen eines räumlichen anatomischen Modells eines Körperteils eines Patienten
WO2019149400A1 (de) Verfahren zur positionsplanung eines aufnahmesystems eines medizinischen bildgebenden geräts und medizinisches bildgebendes gerät
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
DE19807884A1 (de) Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte
EP2164042B1 (de) Verfahren zur Überprüfung der relativen Lage von Knochenstrukturen
EP1052937B1 (de) Röntgenuntersuchungsgerät und verfahren zur erzeugung verzerrungsfreier röntgenbilder
DE102009031400A1 (de) Vorrichtung und Verfahren zur rechnergestützten 2D-Navigation
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
DE102017203438A1 (de) Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE10108633A1 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Beziehung von einander unabhängig aufgenommenen Röntgendatensätzen (2D oder 3D)
DE102019214302B4 (de) Verfahren zum Registrieren eines Röntgenbilddatensatzes mit einem Navigationssystem, Computerprogrammprodukt und System
US6710783B2 (en) Presentation device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE