DE102011083634A1 - Vorrichtung und Verfahren für eine Bilddarstellung - Google Patents

Vorrichtung und Verfahren für eine Bilddarstellung Download PDF

Info

Publication number
DE102011083634A1
DE102011083634A1 DE102011083634A DE102011083634A DE102011083634A1 DE 102011083634 A1 DE102011083634 A1 DE 102011083634A1 DE 102011083634 A DE102011083634 A DE 102011083634A DE 102011083634 A DE102011083634 A DE 102011083634A DE 102011083634 A1 DE102011083634 A1 DE 102011083634A1
Authority
DE
Germany
Prior art keywords
unit
image
data
sbn
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011083634A
Other languages
English (en)
Other versions
DE102011083634B4 (de
Inventor
Rainer Graumann
Sorin-Alexandru Neagu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102011083634.9A priority Critical patent/DE102011083634B4/de
Priority to PCT/EP2012/067134 priority patent/WO2013045220A1/de
Priority to CN201280046614.2A priority patent/CN103841895B/zh
Publication of DE102011083634A1 publication Critical patent/DE102011083634A1/de
Application granted granted Critical
Publication of DE102011083634B4 publication Critical patent/DE102011083634B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Mit der Vorrichtung und dem dazugehörigen Verfahren wird eine patientenorientierte Bilddarstellung auf der Grundlage der Ausrichtung eines portablen Displays zu einem einen Patienten zugeordneten 3D-Datensatz auf dem portablen Display möglich.

Description

  • Die Erfindung bezieht sich auf eine Vorrichtung und ein dazugehöriges Verfahren für eine Bilddarstellung aus einem 3D-Datensatz auf einer Visualisierungseinheit.
  • Nachdem in vorgebbaren Abständen beispielsweise entlang einer kreissegment- oder kreisbogenförmigen Trajektorie Röntgenaufnahmen von einem Objekt angelegt wurden, können die 2D-Datensätze der Röntgenaufnahmen zu einem 3D-Datensatz verrechnet werden. Auf der Grundlage des 3D-Datensatzes können Schichtbilder oder beliebige Schnittansichten von dem Objekt innerhalb des 3D-Datensatzes errechnet werden. Mit der Vorgabe einer Schnittart, -richtung sowie etwa einer Schnittneigung in eine Eingabemaske kann der Arzt oder Chirurg eine Schnittansicht durch das Objekt auf einem stationären Bildschirm abbilden.
  • Der Erfindung liegt die Aufgabe zugrunde, eine weitere Vorrichtung und ein dazugehöriges Verfahren zur Visualisierung von Bildern anzugeben.
  • Die Aufgabe wird durch die Merkmale der Patentansprüche 1 oder 8 gelöst.
  • Mit der Vorrichtung und dem dazugehörigen Verfahren können Schnittbilder oder virtuelle Röntgenbilder aus einem einen Objekt zugeordneten 3D-Datensatz errechnet und auf einer portablen Visualisierungseinheit abgebildet werden. Zu diesem Zweck wird über mindestens einen Sensor an der Visualisierungseinheit dessen Ausrichtung und Lage bezüglich einer an einer Diagnoseeinheit angeordneten Markereinheit ermittelt.
  • Mit Hilfe der Ausrichtung der Visualisierungseinheit wird die Lage des Schnittbildes im 3D-Datensatz und/oder die Blickrichtung für eine virtuelle Röntgenaufnahme abgeleitet und die Bilddaten des Schnittbildes oder digital rekonstruierten Röntgenbildes errechnet und auf der Visualisierungseinheit abgebildet.
  • Die Erfindung bringt den Vorteil mit sich, dass mobile Displays zur Darstellung von Schnittflächen oder digital rekonstruierte Röntgenbilder durch einen 3D-Datensatz intraoperativ verwendet werden, wobei sich jeweils die dargestellte Schnittfläche oder das digital rekonstruierte Röntgenbild nach der Lage des Patienten, des rekonstruierten Volumens und der Lage und Position der Visualisierungseinheit orientiert.
  • Die Erfindung bringt den Vorteil mit sich, dass eine Orientierung für eine darzustellende Schnittfläche sich anhand der Ortskoordindaten des 3D-Datensatzes sowie einer Relation zwischen der Diagnostikanlage und der Visualisierungseinheit ergibt.
  • Die Erfindung bringt den Vorteil mit sich, dass der behandelnde Arzt schnell und umfassend eine der Ausrichtung des 3D-Datensatzes entsprechende Darstellung von einem für ihn relevanten Bereich erhält.
  • Die Erfindung bringt den Vorteil mit sich, dass rechenintensive Algorithmen zur Bildberechnung von einer leistungsstarken Recheneinheit interen oder extern von der Visualisierungseinheit oder des Operationsraumes durchgeführt werden können.
  • Die Erfindung bringt den Vorteil mit sich, dass die Daten des Schnittbildes über eine WLAN-Verbindung mit hoher Datenübertragungsrate an Empfangseinheiten des mobilen Displays übertragbar sind.
  • Die Erfindung bringt den Vorteil mit sich, dass die Schnittbilddarstellungen vor Ort unmittelbar neben dem Patienten in der richtigen Lagen und Orientierung betrachtet werden können.
  • Die Erfindung wird im Folgenden mittels Zeichnungen anhand eines Ausführungsbeispiels erläutert. Dabei zeigen:
  • 1 eine Übersichtdarstellung,
  • 2 eine erste Schnittdarstellung,
  • 3 eine zweite Schnittdarstellung,
  • 4 eine dritte Schnittdarstellung und
  • 5 eine weitere Übersichtsdarstellung.
  • Mit der Vorrichtung und dem dazugehörigen Verfahren wird eine patientenorientierte Schnittbilddarstellung auf der Grundlage eines 3D-Datensätzes an einem portablen Display möglich.
  • In der Übersichtsdarstellung ist beispielsweise eine Anordnung zur Abbildung eines Schnittbildes dargestellt. Dargestellt ist eine an einem C-förmigen Trägerelement C angeordnete Röntgeneinrichtung die auch als Diagnostikeinheit bezeichnet werden kann. Eine Diagnostikeinheit kann hier auch eine Computertomographie-, eine Magnetresonanz- oder eine Ultraschallanlage sein. Zu dieser Diagnostikeinheit ist eine Rechenanlage RE beigestellt. In dieser sind, wie in 5 in einem Blockschaltbild angedeutet, die einzelnen Module bzw. Einheiten zur Ermittlung der Ortskomponenten zur relativen Ausrichtung des mobilen Displays und zur dazugehörigen Schnittbilderstellung aus dem ebenfalls in der Recheneinheit RE vorliegenden 3D-Datensatz angeordnet.
  • Die hier für das Ausführungsbeispiel schematisch abgebildete Röntgeneinrichtung, bestehend aus Röntgenquelle RQ und einem Detektor D, wird jeweils auf ein zu röntgendes Objekt O ausgerichtet. Diese Röntgeneinrichtung wird von einer hier nicht explizit dargestellten Steuerungseinheit entsprechend einer vorgebbaren Trajektorie um das Objekt O oder über Teilbereiche des Objekts O geführt. Hier können beispielsweise während einer Orbitalbewegung der C-bogenförmigen Vorrichtung eine Vielzahl von Röntgenaufnahmen von einem Teilbereich des Körpers gemacht werden. Neben einer Orbitalbewegung OB, einer Angulationsbewegung AG ist auch eine Transversalbewegung des C-Bogens möglich. Während der Trajektorie werden eine Vielzahl von Röntgenaufnahmen von einem zu diagnostizierenden oder zu beurteilenden Objekt- bzw. Körperbereich angefertigt. Die 2D-Röntgenaufnahmen werden jeweils von einer hier nicht explizit dargestellten Recheneinheit aus der Detektoreinheit D ausgelesen und mittels eines Rekonstruktionsalgorithmus zu einem 3D-Datensatz verrechnet. Dieser 3D-Datensatz KO kann in einer der Röntgeneinrichtung C zugeordneten mobilen Einheit abgespeichert oder auf einen Datenserver zwischengespeichert werden. Aus dem zwischengespeicherten 3D-Datensatz KO können beliebige Schnittansichten oder virtuelle Röntgenprojektionen die auch als digital rekonstruierte Röntgenbilder DRR´s bezeichnet werden berechnet werden. Bei einem digital rekonstruierten Röntgenbild kann der gesamte 3D-Datensatz jeweils aus der Sicht der Visualisierungseinheit betrachtet werden. Diese Schnittansichten oder Schnittbilder bzw. digital rekonstruierten Röntgenbilder können an einem stationären oder an einer portablen Bildschirmeinheit zusätzlich betrachtet werden. In dem hier betrachteten Ausführungsbeispiel kann die portable Bildschirmeinheit bzw. Visualisierungseinheit als ein mobiles Display DP mit entsprechender Rechenkapazität zur Erstellung der jeweiligen Bilddaten eines Schnittbildes ausgebildet sein. Mittels einer vorangegangenen Registrierung des auf einem Operationstisch OPT angeordneten Objektes O ist die Orientierung des angelegten 3D-Datensatzes diesem beigefügt. Die zur Registrierung nötige Markereinheit OM, die beispielsweise am Detektor D der Bilderstellungseinheit angeordnet ist kann durch optische Sensoren die in dem mobilen Display DP integriert sind erkannt werden. Wie in 5 angedeutet ist dem Objekt O ein erstes Koordinatensystem KS1, der Markereinheit OM ein zweites Koordinatensystem KS2 und dem mobilen Display DP ein drittes Koordinatensystem KS3 zugeordnet. Die Markereinheit OM kann aus optischen Markern gebildet sein. Die Markereinheit OM kann beispielsweise aus vier nicht in einer Ebene liegenden Markern gebildet sein. Der am Rand des Displays angeordnete optische Sensor kann in Form einer CCD-Kamera oder einer optischen Kamera K, K1, K2 die jeweils eine Objekterkennungseinheit aufweist ausgebildet sein. Die Diagnostikanlage wird zwischen Datenaufnahme und Visualisierung nicht hinsichtlich Ort und Orientierung verändern.
  • Durch die Anordnung von beispielsweise mindestens einem ersten und/oder einem zweiten optischen Systemen K1, K2 im Randbereich des mobilen Displays DP kann die Position und Orientierung relativ zum optischen Marker OM erfasst werden. Berechnungen hierzu können in einem Orientierungsmodul ODP in einer dem mobilen Display DP zugeordneten Recheneinheit RE ermittelt werden. Die Datenübertragung hierzu kann kabellos erfolgen.
  • Eine örtliche Beziehung zwischen dem 3D-Datensatz KO und den beispielsweise am Detektor D angeordneten optischen Markern OM, wird durch Ermittlung einer ersten Transformationsvorschrift Tm k vorgegeben und in der Recheneinheit RE in einem ersten Modul ET ermittelt.
  • Eine zweite Transformationsvorschrift Tm i beschreibt die örtliche Beziehung zwischen dem optischen Marker OM und dem mobilen Display DP und wird in einem zweiten Modul ZT ermittelt.
  • Eine resultierende Transformationsvorschrift Tk i zwischen dem 3D-Datensatz KO und dem mobilen Display DP wird durch die Verknüpfung der ersten und zweiten Transformationsvorschriften Tm i und Tm k in einem dritten Modul DT ermittelt sowie die relative Lage des Displays DP und der jeweilige Schnitt durch den 3D-Datensatz errechnet. Die Rechenoperationen für ein Schnittbild SB1, ..., SBn können mittels der Recheneinheit RE ausgeführt werden. Bei einer entsprechenden Rechenkapazität im portablen Display DP wird das Schnittbild SB1, ..., SBn in diesem ausgerechnet. Die resultierende Transformationsvorschrift lautet Tki = Tm k · Tm i. Die Erfindung bringt den Vorteil mit sich, dass prä- oder intraoperativ gewonnene Bilddaten in geometrisch korrekter Beziehung zum Patienten betrachtet werden können. Die vorliegenden Daten der Schnittbilder SB1, ..., SBn können zusätzlich entweder auf einem Bildschirm eines Monitorwagens oder einem separaten Bildschirm angezeigt werden. Die Auswahl bestimmter Schichten oder Schnittbilder SB1, ..., SBn, sowie die digital rekonstruierte Röntgenbilder DRR, können durch beispielsweise eine Ausrichtung, Neigung, Rotation und/oder einen Versatz um beispielsweise den Schwerpunkt des portablen Displays DP in Bezug zum vorliegenden 3D-Datensatz erfolgen. Sind bestimmte Bilder SBn, SBx oder DRR`s von besonderem Interesse, so können beispielsweise diese durch betätigen einer Funktionstaste am Rand des Displays ausgewählt und abgespeichert oder zur Ansicht bereitgestellt werden.
  • Mit der Anordnung und dem dazugehörigen Verfahren wird die Position und Lage des mobilen Displays zum vorhandenen 3D-Datensatzes KO mit einbezogen. Der hier gezeigte Gegenstand und das dazugehörige Verfahren berücksichtigt die Position des rekonstruierten 3D-Datensatzes KO in Relation zu einem Fixpunkt und/oder Marker bzw. Markeranordnung, beispielsweise an der Röntgeneinrichtung. Der Fixpunkt und/oder Marker bzw. die Markereinheit kann durch optische Marker, Ultraschallsensoren oder elektromagnetische Sensoren ausgebildet sein.
  • Die Lage des portablen Displays DP zum Patienten bzw. zu einer an der Röntgeneinrichtung RQ, D angeordneten Markereinheit OM oder Fixpunkte kann mittels der in dem portablen Display DP angeordneten Erkennungsmittel K, K1, K2, beispielsweise einer ersten und/oder zweiten Kamera, durchgeführt werden.
  • Ist das mobile Display DP mit mindestens zwei Kameras ausgebildet, so kann jeweils der Abstand und dessen Orientierung zu den Markern der Markereinheit OM ermittelt werden. Sind die optischen Sensoren in allen vier Kanten oder Eckbereichen des portablen Displays DP integriert, so können immer mindestens zwei Kameras K, K1, K2, den optischen Marker OM oder den Fixpunkt erfassen. Die Position und Orientierung des mobilen Displays DP relativ zu der Markereinheit OM oder den Fixpunkten lässt sich dann beispielsweise über eine Triangulierung berechnen.
  • Verfügt das mobile Display DP über nur einen Sensor bzw. eine Kamera, dann wird die Orientierung des mobilen Displays über die mit wenigstens vier nicht in einer Ebene liegenden Marker der optischen Markereinheit OM ermittelt.
  • Eine Orientierung des mobilen Displays DP könnte mittels einer ersten und zweiten Aufnahme mit einer im Randbereich des portablen Displays DP angeordneten Kamera K von der optischen Markereinheit OM ermittelt werden, wenn zwischen der ersten und zweiten Aufnahmen das portable Display DP um eine Wegstrecke versetzt wird. Die Orte des portablen Displays DP können jeweils durch die in das portable Display intergrierte Sensorik erfasst und die Wegstrecke ermittelt werden. Mit den zu der ersten und zweiten Aufnahme abgespeicherten Ortsdaten kann dann mittels einer Triangulierung die Position und Orientierung des portablen Displays DP durch die beigestellte Recheneinheit berechnet werden.
  • Die Schichtbilder und/oder Schnittbilder bzw. virtuellen Röntgenprojektionen werden dann entsprechend der Orientierung des 3D-Datensatzes KO und der Ausrichtung des portablen Displays DP, DP´, DP´´ auf diesem dargestellt. Ebenso kann die Ausrichtung des portablen Displays DP fixiert, das Display entfernt und das Schnittbild oder die virtuelle Röntgenprojektion an einem anderen Ort betrachtet werden. Teile oder ganze Abschnitte von Rechenprozessen können in externen Recheneinheiten RE durchgeführt und über einen Datentransfer zum mobilen Display DP online übertragen werden. Ebenso können ganze Berechnungen von entsprechenden Schichten oder digital rekonstruierten Röntgenbildern auf externen Rechnern erfolgen, wobei die aktuelle Position und Orientierung des mobilen Displays DP jeweils als Input dient.
  • In den 2 bis 4 sind jeweils Positionen des portablen Displays DP, DP´, DP´´ in Bezug zu einem diesem zugeordneten dritten Koordinatensystem KS3 gezeigt.
  • In der 2 ist das portable Display DP horizontal in z-Richtung sowie entlang einer Winkelhalbierenden in der xy-Ebene ausgerichtet. Der 3D-Datensatz KO ist jeweils parallel zu einem diesem zugrundeliegenden zweiten Koordinatensystem KS2 ausgerichtet. In dem Ausführungsbeispiel haben das zweite und dritte Koordinatensystem KS2, KS3 die gleiche Ausrichtung. Der 3D-Datensatz KO ist mit einer unterbrochenen Linienführung dargestellt. Die Schnittfläche durch den hier quaderförmig dargestellten 3D-Datensatz KO ergibt das Schnittbild SB1. Dieses Schnittbild SB1 ist auf dem portablen Display DP schraffiert dargestellt.
  • In der 3 verbleibt das portable Display DP´ mit einer Kante auf der Winkelhalbierenden der xy-Ebene des Koordinatensystems KS3 während das portable Display DP´ nach hinten geneigt wird. Die Folge davon ist, dass jetzt nur noch ein trapezförmiger Ausschnitt aus dem 3D-Datensatz KO abgebildet wird. Das Schnittbild SB2 ist schraffiert dargestellt.
  • In 4 wird das parallel zur y-Koordinate ausgerichtete portable Display DP, DP´, DP´´ und entlang der x-Koordinate verschoben. Entsprechend werden unterschiedliche Schnittbilder SB3, SB4, SBn aus dem 3D-Datensatz KO errechnet.
  • In 5 ist die dem portablem Display DP beigeordnete Recheneinheit RE näher dargestellt. In der Recheneinheit RE sind zur Datenauswertung sowie zur Berechnung der nötigen Koordinaten und Schnittbilder die nötigen Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM angedeutet. Mögliche Ausrichtungen des portablen Displays DP sind angedeutet. In einem Orientierungsmodul ODP wird die Ausrichtung des mobilen Displays DP, DP´, DP´´ ermittelt. In einer ersten Speichereinheit 3D wird der 3D-Datensatz KO zwischengespeichert. In dem ersten, zweiten und dritten Modul ET, ZT und DT werden die beschriebenen Transformationsvorschriften umgesetzt und im Schnittbildmodul SBM jeweils die Schnittbilder SBn errechnet sowie die errechneten Schnittbilder SB1, ..., SBn zwischengespeichert. Das digitale rekonstruierte Röntgenbild DRR wird in dem Röntgenbildmodul DRRM ermittelt und zwischengespeichert. Die in der Recheneinheit RE angeordneten Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM können auch einem in dem portablen Display DP integrierten Prozessor zugeordnet sein und die Schnittbilder vor Ort berechnet werden.
  • Bezugszeichenliste
    • C
      C-Bogen
      P
      iPad
      DP
      Display
      K
      Kamera
      OM
      Markereinheit
      O
      Objekt
      KO
      Kubus/3D-Datensatz
      OPT
      Operationstisch
      D
      Detektor
      RQ
      Röntgenquelle
      Tm i
      1. Transformationsvorschrift opt. Marker/iPad
      Tm k
      2. Transformationsvorschrift opt. Marker/Kubus
      Tk i
      Transformation Kubus/iPad
      K
      optischer Sensor
      K1
      erste Kamera
      K2
      zweite Kamera
      3D
      erste Speichereinheit
      ODP
      Orientierungsmodul
      ET
      erstes Modul
      ZT
      zweites Modul
      DT
      drittes Modul
      SB1, ..., SBn
      Schnittbilder
      DRR
      digital rekonstruiertes Röntgenbild
      DRRM
      Röntgenbildmodul
      SBM
      Schnittbildmodul
      KS1
      erstes Koordinatensystem
      KS2
      zweites Koordinatensystem
      KS3
      drittes Koordinatensystem

Claims (8)

  1. Vorrichtung zur Visualisierung von Bildern (SB1, ..., SBn, DRR) aus einem einen Objekt (O) zugeordneten 3D-Datensatz (KO) auf einer Visualisierungseinheit (DP), dass eine Markereinheit (OM) an einer Diagnoseeinheit (C, D, RQ) vorgesehen ist, dass die Visualisierungseinheit (DP) mindestens einen Sensor (K, K1, K2) aufweist, womit die Ausrichtung und Lage der Visualisierungseinheit (DP) zu der an der Diagnoseeinheit (C, D, RQ) angeordneten Markereinheit (OM) erfasst und daraus die Lage eines Schnittbildes (SBn) und/oder eines digital rekonstruierten Röntgenbildes (DRR) aus dem 3D-Datensatz (KO) abgeleitet und die Daten des Bildes (SBn, DRR) errechnet und auf der Visualisierungseinheit (DP) abgebildet werden/wird.
  2. Vorrichtung nach Patentanspruch 1, dadurch gekennzeichnet, dass ein Orientierungsmodul (ODP) zur Ermittlung der Ausrichtung der Visualisierungseinheit (DP) gegenüber der Markereinheit (OM) vorgesehen ist.
  3. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein Schnittbildermodul (SBM) zur Errechnung der Daten des Schnittbildes (SBn) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (O) zugeordneten 3D-Datensatzes vorgesehen ist.
  4. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein Röntgenbildmodul (DRRM) zur Errechnung der Daten des digital rekonstruierten Röntgenbildes (DRR) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (O) zugeordneten 3D-Datensatzes vorgesehen ist.
  5. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, dass ein erstes Modul (ET) zur Umsetzung einer ersten Transformationsvorschrift (Tm i) zwischen Markierungseinheit (OM) und dem 3D-Datensatz (KO), dass ein zweites Modul (ZT) zur Umsetzung einer zweiten Transformationsvorschrift (Tm k) zwischen der Markierungseinheit (OM) und dem Display, dass ein drittes Modul (DT) zur Verknüpfung der ersten und zweiten Transformationsvorschrift (Tk i) vorgesehen ist.
  6. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, das die Visualisierungseineinheit (DP) an mindestens zwei Kanten optische Sensoren (K, K1, K2) aufweisen.
  7. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet, das die Visualisierungseineinheit (DP) ein portables Display (DP) ist, dass die Visualisierungseinheit (DP) eine Recheneinheit (RE) zur Ermittlung der Bilddaten von Schnittbildern (SB1, ..., SBn) und virtuellen Röntgenbildern (DRR) aufweist.
  8. Verfahren zur Visualisierung von Schnittbildern (SB1, ..., SBn) aus einem einem Objekt (O) zugeordneten 3D-Datensatz (KO), dass eine Ausrichtung einer Visualisierungseinheit (DP) erfasst und daraus die Lage des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DDR) aus dem 3D-Datensatz (KO) ableitet und die Bilddaten des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DRR) errechnet werden/wird.
DE102011083634.9A 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung Active DE102011083634B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102011083634.9A DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung
PCT/EP2012/067134 WO2013045220A1 (de) 2011-09-28 2012-09-03 Vorrichtung und verfahren für eine bilddarstellung
CN201280046614.2A CN103841895B (zh) 2011-09-28 2012-09-03 用于图像显示的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011083634.9A DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung

Publications (2)

Publication Number Publication Date
DE102011083634A1 true DE102011083634A1 (de) 2013-03-28
DE102011083634B4 DE102011083634B4 (de) 2021-05-06

Family

ID=46826486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011083634.9A Active DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung

Country Status (3)

Country Link
CN (1) CN103841895B (de)
DE (1) DE102011083634B4 (de)
WO (1) WO2013045220A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3364214A1 (de) * 2017-02-21 2018-08-22 Siemens Healthcare GmbH Verfahren zur automatischen positionierung einer röntgenquelle eines röntgensystems und ein röntgensystem

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116409A (ja) * 2013-12-19 2015-06-25 株式会社日立メディコ X線ct装置
JP6452936B2 (ja) * 2014-01-17 2019-01-16 キヤノンメディカルシステムズ株式会社 X線診断装置および着用可能デバイス
JP6548383B2 (ja) * 2014-11-28 2019-07-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
US10413363B2 (en) * 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1321105A1 (de) * 2001-12-18 2003-06-25 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder
DE69815260T2 (de) * 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000201925A (ja) * 1999-01-12 2000-07-25 Toshiba Corp 3次元超音波診断装置
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7203277B2 (en) * 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7097357B2 (en) * 2004-06-02 2006-08-29 General Electric Company Method and system for improved correction of registration error in a fluoroscopic image
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
WO2011063266A2 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69815260T2 (de) * 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung
EP1321105A1 (de) * 2001-12-18 2003-06-25 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3364214A1 (de) * 2017-02-21 2018-08-22 Siemens Healthcare GmbH Verfahren zur automatischen positionierung einer röntgenquelle eines röntgensystems und ein röntgensystem
US10478149B2 (en) 2017-02-21 2019-11-19 Siemens Healthcare Gmbh Method of automatically positioning an X-ray source of an X-ray system and an X-ray system

Also Published As

Publication number Publication date
DE102011083634B4 (de) 2021-05-06
CN103841895A (zh) 2014-06-04
CN103841895B (zh) 2016-09-07
WO2013045220A1 (de) 2013-04-04

Similar Documents

Publication Publication Date Title
DE60128722T2 (de) Fluoroskopische röntgentomographiebildgebung
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
US6999811B2 (en) Method and device for the registration of two 3D image data sets
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
DE102011083634B4 (de) Vorrichtung und Verfahren für eine Bilddarstellung
DE102008025151A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
DE10162272A1 (de) Verfahren zur Unterstützung der Orientierung im Gefäßsystem
DE102008017111A1 (de) System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt
EP1894538A1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
DE102008046345B4 (de) Verfahren und Vorrichtung zum Überwachen der räumlichen Umgebung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
DE102010040634A1 (de) Verfahren zur 2D/3D-Registrierung
DE102007034218A1 (de) Vorrichtung und Verfahren zur Bildzusammensetzung
DE102007050343A1 (de) Vorrichtungen und Verfahren zur Kalibrierung eines Endoskops
DE102019209543A1 (de) Verfahren zum Bereitstellen einer Kollisionsinformation und medizinische Bildgebungsvorrichtung
US10242452B2 (en) Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
DE102017203438A1 (de) Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP2164042B1 (de) Verfahren zur Überprüfung der relativen Lage von Knochenstrukturen
DE102019214302B4 (de) Verfahren zum Registrieren eines Röntgenbilddatensatzes mit einem Navigationssystem, Computerprogrammprodukt und System
DE112016001224T5 (de) Bildverarbeitungsvorrichtung, Verfahren und Programm
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE10108633A1 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Beziehung von einander unabhängig aufgenommenen Röntgendatensätzen (2D oder 3D)

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE