WO2013045220A1 - Vorrichtung und verfahren für eine bilddarstellung - Google Patents

Vorrichtung und verfahren für eine bilddarstellung Download PDF

Info

Publication number
WO2013045220A1
WO2013045220A1 PCT/EP2012/067134 EP2012067134W WO2013045220A1 WO 2013045220 A1 WO2013045220 A1 WO 2013045220A1 EP 2012067134 W EP2012067134 W EP 2012067134W WO 2013045220 A1 WO2013045220 A1 WO 2013045220A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
sbn
data
data set
Prior art date
Application number
PCT/EP2012/067134
Other languages
English (en)
French (fr)
Inventor
Rainer Graumann
Sorin-Alexandru Neagu
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to CN201280046614.2A priority Critical patent/CN103841895B/zh
Publication of WO2013045220A1 publication Critical patent/WO2013045220A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display

Definitions

  • the invention relates to a device and an associated method for an image representation from a 3D data record on a visualization unit.
  • the 2D data sets of the X-ray recordings can be charged to a 3D data set.
  • slice images or arbitrary sectional views of the object within the 3D data set can be calculated.
  • the physician or surgeon can image a sectional view through the object on a stationary image ⁇ screen.
  • the invention is based on the object of specifying a further device and an associated method for visualizing images.
  • the object is solved by the features of claims 1 or 8.
  • sectional images or virtual X-ray images can be calculated from a 3D data set assigned to an object and imaged on a portable visualization unit. For this purpose is determined using at least one sensor on the visualization ⁇ approximation unit whose orientation and position with respect to a diagnostic unit is arranged on a label moiety. With the aid of the alignment of the visualization unit, the position of the sectional image in the 3D data set and / or the viewing direction for a virtual X-ray image is derived and the image data of the sectional image or digitally reconstructed X-ray image is calculated and imaged on the visualization unit.
  • the invention has the advantage that mobile Dis ⁇ plays of displaying cross sectional areas or digitally reconstructed x-ray images are used intra-operatively by a 3D data set, whereby each of the dargestell ⁇ te-sectional area or the digitally reconstructed x-ray after the patient's position , the reconstructed volume and the position and position of the visualization unit.
  • the invention has the advantage that a Orien ⁇ tation for to be displayed sectional area are based on the ER Ortskoordinaries of the 3D data set and a relationship between the diagnostic system and the visualization unit.
  • the invention has the advantage that the attending physician quickly and comprehensively receives a representation corresponding to the orientation of the 3D data record from a region which is relevant for him.
  • the invention has the advantage that computation-intensive algorithms for image computation can be performed internally or externally by the high-performance arithmetic unit of the visualization unit or of the operating room.
  • the invention has the advantage that the data of the sectional image can be transmitted over a WLAN connection with high data transmission. transmission rate to receiving units of the mobile display can be transmitted.
  • the invention has the advantage that the sectional image representations can be viewed on-site directly next to the patient in the correct positions and orientation.
  • FIG. 1 is an overview
  • FIG. 2 is a first sectional view
  • FIG. 3 is a second sectional view
  • Figure 4 is a third sectional view
  • FIG. 5 is another overview.
  • a patient-oriented slice image representation based on a 3D data record on a portable display is possible.
  • a Anord ⁇ voltage is illustrated, for example for imaging a tomogram.
  • Darge ⁇ represents is a arranged on a C-shaped support member C X-ray device which can be also as a diagnostic unit be ⁇ draws.
  • a diagnostic unit can also be a computed tomography, magnetic resonance or ultrasound system here.
  • a computer RE is provided to this diagnostic unit.
  • the X-ray device shown schematically here for the exemplary embodiment consisting of X-ray source RQ and a detector D, is respectively aligned with an object 0 to be X-rayed.
  • This X-ray device is run by a not explicitly shown here, control unit according to a predetermined trajectory around the object 0 or part of preparation ⁇ che the object 0th
  • a plurality of X-ray images may be taken of a portion of the body.
  • an angulation movement AG is also a transverse movement of the C-arm possible.
  • a large number of x-ray images are made of an object or body area to be diagnosed or assessed.
  • the 2D X-ray images are respectively read out of the detector unit D by a computing unit not explicitly shown here and are billed by means of a reconstruction algorithm to form a 3D data record.
  • This 3D data record KO can be stored in a mobile unit assigned to the X-ray device C or temporarily stored on a data server. From the cached 3D data set KO, arbitrary sectional views or virtual X-ray projections, which are also referred to as digitally reconstructed X-ray images DRRs, can be calculated. In a digitally recon ⁇ structed radiograph of the entire 3D data set can be considered in each case from the standpoint of visualization unit.
  • the portable screen unit or visualization unit can be designed as a mobile display DP with corresponding computing capacity for generating the respective image data of a sectional image. be formed.
  • OPT operating table
  • the orientation of the applied 3D data record is attached thereto.
  • the time required for registration mark OM purity that examples play as the detector D of the imaging unit is angeord ⁇ net, by optical sensors that are integrated into the mobile display DP are detected. As ⁇ indicated in Fig.
  • the marker unit OM may be formed of optical markers.
  • the marker unit OM can be formed, for example, from four markers not lying in one plane.
  • the optical sensor arranged at the edge of the display can be designed in the form of a CCD camera or an optical camera K, K1, K2, which in each case has an object recognition unit. The diagnostic system will not change between data acquisition and visualization ⁇ tion in terms of location and orientation.
  • the position and orientation relative to the optical marker OM can be detected. Calculations for this can be determined in an orientation module ODP in a computing unit RE assigned to the mobile display DP.
  • the data transfer can be done wirelessly.
  • a local relationship between the 3D data set KO and the optical markers OM arranged, for example, at the detector D is predetermined by determining a first transformation rule T m k and determined in the arithmetic unit RE in a first module ET.
  • a second transformation rule T m x describes the ört ⁇ Liche relationship between the optical markers OM and the mobile display DP and is ermit ⁇ telt in a second module ZT.
  • a resulting transformation instruction T k x between the 3D data record KO and the mobile display DP is determined by the combination of the first and second transformation instructions T m x and T m k in a third module DT and the relative position of the display DP and the respective section calculated by the 3D data set.
  • the arithmetic operations for a sectional image SB1,..., SBn can be carried out by means of the arithmetic unit RE. With a corresponding computing capacity in the portable display DP, the sectional image SB1,..., SBn in this is calculated.
  • the invention has the advantage that pre- or intraoperatively obtained image data can be viewed in geometrically correct relationship to the patient.
  • the available data of the sectional images SB1,..., SBn can additionally be displayed either on a screen of a monitor trolley or on a separate screen.
  • Sectional images SB1,..., SBn, as well as the digitally reconstructed X-ray images DRR can be made by, for example, an orientation, inclination, rotation and / or offset by, for example, the center of gravity of the portable display DP in relation to the present 3D data set. If certain images SBn, SBx or DRRs are of particular interest, they can for example be selected and stored by pressing a function key on the edge of the display or made available for viewing .
  • the position and position of the mobile display to the existing 3D Record KO included.
  • the object shown here and the associated method take into account the position of the reconstructed 3D data set KO in relation to a fixed point and / or marker or marker arrangement, for example on the X-ray device.
  • the fixed point and / or marker or the marker unit can be formed by optical markers, ultrasonic sensors or electromagnetic sensors.
  • the position and orientation of the mobile display DP relative to the marker unit OM or the fixed points can then be calculated, for example, by triangulation.
  • the orientation of the mobile display is determined by means of the markers of the optical marker unit OM that are at least four not in one plane.
  • An orientation of the mobile display DP could by means of ei ⁇ ner first and second recording with a arranged in the edge region of the portable display DP camera K of the optical Marker unit OM are determined when between the first and second shots, the portable display DP by one
  • the locations of the portable display DP can each be detected by the sensor integrated into the portable display and the distance can be determined. With the location data stored for the first and second recordings, the position and orientation of the portable display DP can then be calculated by means of a triangulation by the provided arithmetic unit.
  • the slice images and / or slice images or virtual X-ray proj elementen are then displayed according to the orientation of the 3D data set KO and the orientation of the portable Dis ⁇ plays DP, DP ', DP''on this.
  • the orientation of the portable display DP can be fixed, the display can be removed, and the sectional image or the virtual X-ray projection can be viewed in another location.
  • Parts or entire sections of computing processes can be performed in external computing units RE and transferred via a data transfer to the mobile display DP online.
  • entire calculations of corresponding layers or digitally reconstructed X-ray images can take place on external computers, with the current position and orientation of the mobile display DP serving as input.
  • FIGS. 2 to 4 respectively show positions of the portable display DP, DP ', DP "in relation to a third coordinate system KS3 assigned to it.
  • the portable display DP is aligned horizontally in the z direction and along an angle bisector in the xy plane.
  • the 3D data set KO is aligned parallel to a second coordinate system KS2 on which this is based. In the embodiment have the second and third coordinate system KS2, KS3 the same orientation.
  • the 3D data set KO is shown with a broken line. The section through the cuboid 3D-data set KO produces the
  • Sectional view SB1 This sectional image SB1 is shown hatched on the portable display DP.
  • the portable display DP ' remains with one edge on the bisector of the xy plane of the coordinate system KS3 while the portable display DP' is tilted backwards.
  • the consequence of this is that now only a trapezoidal section from the 3D data set KO is displayed.
  • the sectional image SB2 is hatched.
  • the portable display DP, DP ', DP "aligned parallel to the y-coordinate is shifted and along the x-coordinate. Accordingly, different Thomasbil ⁇ the SB3, SB4, SBn from the 3D data set KO are calculated.
  • the portable display DP adjunctive Re ⁇ unit area RE is shown in detail.
  • the necessary units 3D, ODP, DT, ET, ZT, SBM, DRRM are indicated in the arithmetic unit RE for data evaluation and for calculating the necessary coordinates and sectional images.
  • Possible orientations of the portable display DP are indicated. In a Orientie ⁇ approximately module ODP the orientation of the mobile display DP, DP 'DP' is determined.
  • the 3D data set KO is buffered.
  • the transformation procedures described are implemented and calculates respectively the sectional images SBn in the sectional view module SBM and the calcu ⁇ Neten sectional images SB1, ..., SBn cached.
  • the digitally reconstructed X-ray image DRR is determined in the X-ray image module DRRM and buffered.
  • the in the can also be assigned to a processor integrated in the portable display DP and the sectional images can be calculated on site.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Mit der Vorrichtung und dem dazugehörigen Verfahren wird eine patientenorientierte Bilddarstellung auf der Grundlage der Ausrichtung eines portablen Displays zu einem einen Patienten zugeordneten 3D-Datensatz auf dem portablen Display möglich.

Description

Beschreibung
Vorrichtung und Verfahren für eine Bilddarstellung Die Erfindung bezieht sich auf eine Vorrichtung und ein dazugehöriges Verfahren für eine Bilddarstellung aus einem 3D- Datensatz auf einer Visualisierungseinheit.
Nachdem in vorgebbaren Abständen beispielsweise entlang einer kreissegment- oder kreisbogenförmigen Trajektorie Röntgenauf¬ nahmen von einem Objekt angelegt wurden, können die 2D- Datensätze der Röntgenaufnahmen zu einem 3D-Datensatz verrechnet werden. Auf der Grundlage des 3D-Datensatzes können Schichtbilder oder beliebige Schnittansichten von dem Objekt innerhalb des 3D-Datensatzes errechnet werden. Mit der Vorga¬ be einer Schnittart, -richtung sowie etwa einer Schnittnei¬ gung in eine Eingabemaske kann der Arzt oder Chirurg eine Schnittansicht durch das Objekt auf einem stationären Bild¬ schirm abbilden.
Der Erfindung liegt die Aufgabe zugrunde, eine weitere Vor¬ richtung und ein dazugehöriges Verfahren zur Visualisierung von Bildern anzugeben. Die Aufgabe wird durch die Merkmale der Patentansprüche 1 oder 8 gelöst.
Mit der Vorrichtung und dem dazugehörigen Verfahren können Schnittbilder oder virtuelle Röntgenbilder aus einem einen Objekt zugeordneten 3D-Datensatz errechnet und auf einer portablen Visualisierungseinheit abgebildet werden. Zu diesem Zweck wird über mindestens einen Sensor an der Visualisie¬ rungseinheit dessen Ausrichtung und Lage bezüglich einer an einer Diagnoseeinheit angeordneten Markereinheit ermittelt. Mit Hilfe der Ausrichtung der Visualisierungseinheit wird die Lage des Schnittbildes im 3D-Datensatz und/oder die Blickrichtung für eine virtuelle Röntgenaufnahme abgeleitet und die Bilddaten des Schnittbildes oder digital rekonstruierten Röntgenbildes errechnet und auf der Visualisierungseinheit abgebildet .
Die Erfindung bringt den Vorteil mit sich, dass mobile Dis¬ plays zur Darstellung von Schnittflächen oder digital rekon- struierte Röntgenbilder durch einen 3D-Datensatz intraoperativ verwendet werden, wobei sich jeweils die dargestell¬ te Schnittfläche oder das digital rekonstruierte Röntgenbild nach der Lage des Patienten, des rekonstruierten Volumens und der Lage und Position der Visualisierungseinheit orientiert.
Die Erfindung bringt den Vorteil mit sich, dass eine Orien¬ tierung für eine darzustellende Schnittfläche sich anhand der Ortskoordindaten des 3D-Datensatzes sowie einer Relation zwischen der Diagnostikanlage und der Visualisierungseinheit er- gibt.
Die Erfindung bringt den Vorteil mit sich, dass der behandelnde Arzt schnell und umfassend eine der Ausrichtung des 3D-Datensatzes entsprechende Darstellung von einem für ihn relevanten Bereich erhält.
Die Erfindung bringt den Vorteil mit sich, dass rechenintensive Algorithmen zur Bildberechnung von einer leistungsstarken Recheneinheit interen oder extern von der Visualisie- rungseinheit oder des Operationsraumes durchgeführt werden können .
Die Erfindung bringt den Vorteil mit sich, dass die Daten des Schnittbildes über eine WLAN-Verbindung mit hoher Datenüber- tragungsrate an Empfangseinheiten des mobilen Displays übertragbar sind.
Die Erfindung bringt den Vorteil mit sich, dass die Schnitt- bilddarstellungen vor Ort unmittelbar neben dem Patienten in der richtigen Lagen und Orientierung betrachtet werden können .
Die Erfindung wird im Folgenden mittels Zeichnungen anhand eines Ausführungsbeispiels erläutert.
Dabei zeigen:
Figur 1 eine Übersichtdarstellung,
Figur 2 eine erste Schnittdarstellung,
Figur 3 eine zweite Schnittdarstellung,
Figur 4 eine dritte Schnittdarstellung und
Figur 5 eine weitere Übersichtsdarstellung.
Mit der Vorrichtung und dem dazugehörigen Verfahren wird eine patientenorientierte Schnittbilddarstellung auf der Grundlage eines 3D-Datensätzes an einem portablen Display möglich.
In der Übersichtsdarstellung ist beispielsweise eine Anord¬ nung zur Abbildung eines Schnittbildes dargestellt. Darge¬ stellt ist eine an einem C-förmigen Trägerelement C angeord- nete Röntgeneinrichtung die auch als Diagnostikeinheit be¬ zeichnet werden kann. Eine Diagnostikeinheit kann hier auch eine Computertomographie-, eine Magnetresonanz- oder eine Ultraschallanlage sein. Zu dieser Diagnostikeinheit ist eine Rechenanlage RE beigestellt. In dieser sind, wie in Fig.5 in einem Blockschaltbild angedeutet, die einzelnen Module bzw. Einheiten zur Ermittlung der Ortskomponenten zur relativen Ausrichtung des mobilen Displays und zur dazugehörigen
Schnittbilderstellung aus dem ebenfalls in der Recheneinheit RE vorliegenden 3D-Datensatz angeordnet. Die hier für das Ausführungsbeispiel schematisch abgebildete Röntgeneinrichtung, bestehend aus Röntgenquelle RQ und einem Detektor D, wird jeweils auf ein zu röntgendes Objekt 0 aus- gerichtet. Diese Röntgeneinrichtung wird von einer hier nicht explizit dargestellten Steuerungseinheit entsprechend einer vorgebbaren Trajektorie um das Objekt 0 oder über Teilberei¬ che des Objekts 0 geführt. Hier können beispielsweise während einer Orbitalbewegung der C-bogenförmigen Vorrichtung eine Vielzahl von Röntgenaufnahmen von einem Teilbereich des Körpers gemacht werden. Neben einer Orbitalbewegung OB, einer Angulationsbewegung AG ist auch eine Transversalbewegung des C-Bogens möglich. Während der Trajektorie werden eine Viel¬ zahl von Röntgenaufnahmen von einem zu diagnostizierenden oder zu beurteilenden Objekt- bzw. Körperbereich angefertigt. Die 2D-Röntgenaufnahmen werden jeweils von einer hier nicht explizit dargestellten Recheneinheit aus der Detektoreinheit D ausgelesen und mittels eines Rekonstruktionsalgorithmus zu einem 3D-Datensatz verrechnet. Dieser 3D-Datensatz KO kann in einer der Röntgeneinrichtung C zugeordneten mobilen Einheit abgespeichert oder auf einen Datenserver zwischengespeichert werden. Aus dem zwischengespeicherten 3D-Datensatz KO können beliebige Schnittansichten oder virtuelle Röntgenproj ektionen die auch als digital rekonstruierte Röntgenbilder DRR's be- zeichnet werden berechnet werden. Bei einem digital rekon¬ struierten Röntgenbild kann der gesamte 3D-Datensatz jeweils aus der Sicht der Visualisierungseinheit betrachtet werden. Diese Schnittansichten oder Schnittbilder bzw. digital rekonstruierten Röntgenbilder können an einem stationären oder an einer portablen Bildschirmeinheit zusätzlich betrachtet wer¬ den. In dem hier betrachteten Ausführungsbeispiel kann die portable Bildschirmeinheit bzw. Visualisierungseinheit als ein mobiles Display DP mit entsprechender Rechenkapazität zur Erstellung der jeweiligen Bilddaten eines Schnittbildes aus- gebildet sein. Mittels einer vorangegangenen Registrierung des auf einem Operationstisch OPT angeordneten Objektes 0 ist die Orientierung des angelegten 3D-Datensatzes diesem beigefügt. Die zur Registrierung nötige Markereinheit OM, die bei- spielsweise am Detektor D der Bilderstellungseinheit angeord¬ net ist kann durch optische Sensoren die in dem mobilen Display DP integriert sind erkannt werden. Wie in Fig. 5 ange¬ deutet ist dem Objekt 0 ein erstes Koordinatensystem KSl, der Markereinheit OM ein zweites Koordinatensystem KS2 und dem mobilen Display DP ein drittes Koordinatensystem KS3 zugeordnet. Die Markereinheit OM kann aus optischen Markern gebildet sein. Die Markereinheit OM kann beispielsweise aus vier nicht in einer Ebene liegenden Markern gebildet sein. Der am Rand des Displays angeordnete optische Sensor kann in Form einer CCD-Kamera oder einer optischen Kamera K, Kl, K2 die jeweils eine Objekterkennungseinheit aufweist ausgebildet sein. Die Diagnostikanlage wird zwischen Datenaufnahme und Visualisie¬ rung nicht hinsichtlich Ort und Orientierung verändern. Durch die Anordnung von beispielsweise mindestens einem ers¬ ten und/oder einem zweiten optischen Systemen Kl, K2 im Randbereich des mobilen Displays DP kann die Position und Orientierung relativ zum optischen Marker OM erfasst werden. Berechnungen hierzu können in einem Orientierungsmodul ODP in einer dem mobilen Display DP zugeordneten Recheneinheit RE ermittelt werden. Die Datenübertragung hierzu kann kabellos erfolgen .
Eine örtliche Beziehung zwischen dem 3D-Datensatz KO und den beispielsweise am Detektor D angeordneten optischen Markern OM, wird durch Ermittlung einer ersten Transformationsvorschrift Tm k vorgegeben und in der Recheneinheit RE in einem ersten Modul ET ermittelt. Eine zweite Transformationsvorschrift Tm x beschreibt die ört¬ liche Beziehung zwischen dem optischen Marker OM und dem mobilen Display DP und wird in einem zweiten Modul ZT ermit¬ telt .
Eine resultierende Transformationsvorschrift Tk x zwischen dem 3D-Datensatz KO und dem mobilen Display DP wird durch die Verknüpfung der ersten und zweiten Transformationsvorschriften Tm x und Tm k in einem dritten Modul DT ermittelt sowie die relative Lage des Displays DP und der jeweilige Schnitt durch den 3D-Datensatz errechnet. Die Rechenoperationen für ein Schnittbild SB1,..., SBn können mittels der Recheneinheit RE ausgeführt werden. Bei einer entsprechenden Rechenkapazität im portablen Display DP wird das Schnittbild SB1,..., SBn in diesem ausgerechnet. Die resultierende Transformationsvor¬ schrift lautet Tk x = Tm k · Tm x . Die Erfindung bringt den Vorteil mit sich, dass prä- oder intraoperativ gewonnene Bilddaten in geometrisch korrekter Beziehung zum Patienten betrachtet werden können. Die vorliegenden Daten der Schnitt- bilder SB1,..., SBn können zusätzlich entweder auf einem Bildschirm eines Monitorwagens oder einem separaten Bildschirm angezeigt werden. Die Auswahl bestimmter Schichten oder
Schnittbilder SB1,..., SBn, sowie die digital rekonstruierte Röntgenbilder DRR , können durch beispielsweise eine Ausrich- tung, Neigung, Rotation und/oder einen Versatz um beispielsweise den Schwerpunkt des portablen Displays DP in Bezug zum vorliegenden 3D-Datensatz erfolgen. Sind bestimmte Bilder SBn, SBx oder DRR's von besonderem Interesse, so können beispielsweise diese durch betätigen einer Funktionstaste am Rand des Displays ausgewählt und abgespeichert oder zur An¬ sicht bereitgestellt werden.
Mit der Anordnung und dem dazugehörigen Verfahren wird die Position und Lage des mobilen Displays zum vorhandenen 3D- Datensatzes KO mit einbezogen. Der hier gezeigte Gegenstand und das dazugehörige Verfahren berücksichtigt die Position des rekonstruierten 3D-Datensatzes KO in Relation zu einem Fixpunkt und/oder Marker bzw. Markeranordnung, beispielsweise an der Röntgeneinrichtung. Der Fixpunkt und/oder Marker bzw. die Markereinheit kann durch optische Marker, Ultraschallsensoren oder elektromagnetische Sensoren ausgebildet sein.
Die Lage des portablen Displays DP zum Patienten bzw. zu ei- ner an der Röntgeneinrichtung RQ, D angeordneten Markereinheit OM oder Fixpunkte kann mittels der in dem portablen Display DP angeordneten Erkennungsmittel K, Kl, K2, beispiels¬ weise einer ersten und/oder zweiten Kamera, durchgeführt werden .
Ist das mobile Display DP mit mindestens zwei Kameras ausge¬ bildet, so kann jeweils der Abstand und dessen Orientierung zu den Markern der Markereinheit OM ermittelt werden. Sind die optischen Sensoren in allen vier Kanten oder Eckbereichen des portablen Displays DP integriert, so können immer mindes¬ tens zwei Kameras K, Kl, K2, den optischen Marker OM oder den Fixpunkt erfassen. Die Position und Orientierung des mobilen Displays DP relativ zu der Markereinheit OM oder den Fixpunkten lässt sich dann beispielsweise über eine Triangulierung berechnen.
Verfügt das mobile Display DP über nur einen Sensor bzw. eine Kamera, dann wird die Orientierung des mobilen Displays über die mit wenigstens vier nicht in einer Ebene liegenden Marker der optischen Markereinheit OM ermittelt.
Eine Orientierung des mobilen Displays DP könnte mittels ei¬ ner ersten und zweiten Aufnahme mit einer im Randbereich des portablen Displays DP angeordneten Kamera K von der optischen Markereinheit OM ermittelt werden, wenn zwischen der ersten und zweiten Aufnahmen das portable Display DP um eine
Wegstrecke versetzt wird. Die Orte des portablen Displays DP können jeweils durch die in das portable Display intergrierte Sensorik erfasst und die Wegstrecke ermittelt werden. Mit den zu der ersten und zweiten Aufnahme abgespeicherten Ortsdaten kann dann mittels einer Triangulierung die Position und Orientierung des portablen Displays DP durch die beigestellte Recheneinheit berechnet werden.
Die Schichtbilder und/oder Schnittbilder bzw. virtuellen Röntgenproj ektionen werden dann entsprechend der Orientierung des 3D-Datensatzes KO und der Ausrichtung des portablen Dis¬ plays DP, DP', DP'' auf diesem dargestellt. Ebenso kann die Ausrichtung des portablen Displays DP fixiert, das Display entfernt und das Schnittbild oder die virtuelle Röntgenpro- jektion an einem anderen Ort betrachtet werden. Teile oder ganze Abschnitte von Rechenprozessen können in externen Recheneinheiten RE durchgeführt und über einen Datentransfer zum mobilen Display DP online übertragen werden. Ebenso können ganze Berechnungen von entsprechenden Schichten oder digital rekonstruierten Röntgenbildern auf externen Rechnern erfolgen, wobei die aktuelle Position und Orientierung des mobilen Displays DP jeweils als Input dient.
In den Figuren 2 bis 4 sind jeweils Positionen des portablen Displays DP, DP', DP'' in Bezug zu einem diesem zugeordneten dritten Koordinatensystem KS3 gezeigt. In der Figur 2 ist das portable Display DP horizontal in z- Richtung sowie entlang einer Winkelhalbierenden in der xy- Ebene ausgerichtet. Der 3D-Datensatz KO ist jeweils parallel zu einem diesem zugrundeliegenden zweiten Koordinatensystem KS2 ausgerichtet. In dem Ausführungsbeispiel haben das zweite und dritte Koordinatensystem KS2, KS3 die gleiche Ausrichtung. Der 3D-Datensatz KO ist mit einer unterbrochenen Linienführung dargestellt. Die Schnittfläche durch den hier quaderförmig dargestellten 3D-Datensatz KO ergibt das
Schnittbild SB1. Dieses Schnittbild SB1 ist auf dem portablen Display DP schraffiert dargestellt.
In der Figur 3 verbleibt das portable Display DP' mit einer Kante auf der Winkelhalbierenden der xy-Ebene des Koordina- tensystems KS3 während das portable Display DP' nach hinten geneigt wird. Die Folge davon ist, dass jetzt nur noch ein trapezförmiger Ausschnitt aus dem 3D-Datensatz KO abgebildet wird. Das Schnittbild SB2 ist schraffiert dargestellt. In Figur 4 wird das parallel zur y-Koordinate ausgerichtete portable Display DP, DP', DP'' und entlang der x-Koordinate verschoben. Entsprechend werden unterschiedliche Schnittbil¬ der SB3, SB4, SBn aus dem 3D-Datensatz KO errechnet. In Figur 5 ist die dem portablem Display DP beigeordnete Re¬ cheneinheit RE näher dargestellt. In der Recheneinheit RE sind zur Datenauswertung sowie zur Berechnung der nötigen Koordinaten und Schnittbilder die nötigen Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM angedeutet. Mögliche Ausrichtungen des portablen Displays DP sind angedeutet. In einem Orientie¬ rungsmodul ODP wird die Ausrichtung des mobilen Displays DP, DP', DP'' ermittelt. In einer ersten Speichereinheit 3D wird der 3D-Datensatz KO zwischengespeichert. In dem ersten, zwei¬ ten und dritten Modul ET, ZT und DT werden die beschriebenen Transformationsvorschriften umgesetzt und im Schnittbildmodul SBM jeweils die Schnittbilder SBn errechnet sowie die errech¬ neten Schnittbilder SB1,..., SBn zwischengespeichert. Das digitale rekonstruierte Röntgenbild DRR wird in dem Röntgenbild- modul DRRM ermittelt und zwischengespeichert. Die in der Re- cheneinheit RE angeordneten Einheiten 3D, ODP, DT, ET, ZT, SBM, DRRM können auch einem in dem portablen Display DP integrierten Prozessor zugeordnet sein und die Schnittbilder vor Ort berechnet werden.
Bezugs zeichenliste c C-Bogen
P iPad
DP Display
K Kamera
OM Markereinheit
0 Objekt
KO Kubus /3D-Datensatz
OPT Operationstisch
D Detektor
RQ Röntgenquelle
1
J-m 1. Transformationsvorschrift opt . Marker/ iPad k 2. Transformationsvorschrift opt . Marker/Kubus
Tk1 Transformation Kubus/iPad
K optischer Sensor
Kl erste Kamera
K2 zweite Kamera
3D erste Speichereinheit
ODP Orientierungsmodul
ET erstes Modul
ZT zweites Modul
DT drittes Modul
SB1,. .., SBn Schnittbilder
DRR digital rekonstruiertes Röntgenbild
DRRM Röntgenbildmodul
SBM Schnittbildmodul
KS1 erstes Koordinatensystem
KS2 zweites Koordinatensystem
KS3 drittes Koordinatensystem

Claims

Patentansprüche
1. Vorrichtung zur Visualisierung von Bildern (SB1 , SBn, DRR) aus einem einen Objekt (0) zugeordneten 3D-Datensatz (KO) auf einer Visualisierungseinheit (DP) ,
dass eine Markereinheit (OM) an einer Diagnoseeinheit (C, D, RQ) vorgesehen ist,
dass die Visualisierungseinheit (DP) mindestens einen Sensor (K, Kl, K2) aufweist, womit die Ausrichtung und Lage der Vi- sualisierungseinheit (DP) zu der an der Diagnoseeinheit (C,
D, RQ) angeordneten Markereinheit (OM) erfasst und daraus die Lage eines Schnittbildes (SBn) und/oder eines digital rekon¬ struierten Röntgenbildes (DRR) aus dem 3D-Datensatz (KO) abgeleitet und die Daten des Bildes (SBn, DRR) errechnet und auf der Visualisierungseinheit (DP) abgebildet werden/wird.
2. Vorrichtung nach Patentanspruch 1,
dadurch gekennzeichnet,
dass ein Orientierungsmodul (ODP) zur Ermittlung der Ausrich- tung der Visualisierungseinheit (DP) gegenüber der Markereinheit (OM) vorgesehen ist.
3. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet,
dass ein Schnittbildermodul (SBM) zur Errechnung der Daten des Schnittbildes (SBn) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (O) zugeordneten 3D-Datensatzes vorgesehen ist.
4. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet,
dass ein Röntgenbildmodul (DRRM) zur Errechnung der Daten des digital rekonstruierten Röntgenbildes (DRR) auf der Grundlage der Ausrichtung der Visualisierungseinheit (DP) gegenüber des einem Objekt (0) zugeordneten 3D-Datensatzes vorgesehen ist.
5. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet,
dass ein erstes Modul (ET) zur Umsetzung einer ersten Transformationsvorschrift (TV1) zwischen Markierungseinheit (OM) und dem 3D-Datensatz (KO) ,
dass ein zweites Modul (ZT) zur Umsetzung einer zweiten
Transformationsvorschrift (Tm k) zwischen der Markierungseinheit (OM) und dem Display,
dass ein drittes Modul (DT) zur Verknüpfung der ersten und zweiten Transformationsvorschrift (Tk x) vorgesehen ist.
6. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet,
das die Visualisierungseineinheit (DP)
an mindestens zwei Kanten optische Sensoren (K, Kl, K2) auf¬ weisen .
7. Vorrichtung nach einem der vorhergehenden Patentansprüche, dadurch gekennzeichnet,
das die Visualisierungseineinheit (DP) ein portables Display (DP) ist,
dass die Visualisierungseinheit (DP) eine Recheneinheit (RE) zur Ermittlung der Bilddaten von Schnittbildern ( SB1 , SBn) und virtuellen Röntgenbildern (DRR) aufweist .
8. Verfahren zur Visualisierung von Schnittbildern
(SB1 , SBn) aus einem einem Objekt (0) zugeordneten 3D- Datensatz (KO) ,
dass eine Ausrichtung einer Visualisierungseinheit (DP) er- fasst und daraus die Lage des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DDR) aus dem 3D-Datensatz (KO) ableitet und die Bilddaten des Schnittbildes (SBn) und/oder des digitalen Röntgenbildes (DRR) errechnet werden/wird.
PCT/EP2012/067134 2011-09-28 2012-09-03 Vorrichtung und verfahren für eine bilddarstellung WO2013045220A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201280046614.2A CN103841895B (zh) 2011-09-28 2012-09-03 用于图像显示的装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011083634.9A DE102011083634B4 (de) 2011-09-28 2011-09-28 Vorrichtung und Verfahren für eine Bilddarstellung
DE102011083634.9 2011-09-28

Publications (1)

Publication Number Publication Date
WO2013045220A1 true WO2013045220A1 (de) 2013-04-04

Family

ID=46826486

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/067134 WO2013045220A1 (de) 2011-09-28 2012-09-03 Vorrichtung und verfahren für eine bilddarstellung

Country Status (3)

Country Link
CN (1) CN103841895B (de)
DE (1) DE102011083634B4 (de)
WO (1) WO2013045220A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116409A (ja) * 2013-12-19 2015-06-25 株式会社日立メディコ X線ct装置
JP2015134108A (ja) * 2014-01-17 2015-07-27 株式会社東芝 X線診断装置および着用可能デバイス

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548383B2 (ja) * 2014-11-28 2019-07-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
US10478149B2 (en) * 2017-02-21 2019-11-19 Siemens Healthcare Gmbh Method of automatically positioning an X-ray source of an X-ray system and an X-ray system
US10413363B2 (en) * 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038467A (en) * 1997-01-24 2000-03-14 U.S. Philips Corporation Image display system and image guided surgery system
US6416476B1 (en) * 1999-01-12 2002-07-09 Kabushiki Kaisha Toshiba Three-dimensional ultrasonic diagnosis apparatus
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
US20040242988A1 (en) * 2003-02-24 2004-12-02 Kabushiki Kaisha Toshiba Operation recognition system enabling operator to give instruction without device operation
US20040263535A1 (en) * 2003-04-25 2004-12-30 Rainer Birkenbach Visualization device and method for combined patient and object image data
US20050281385A1 (en) * 2004-06-02 2005-12-22 Johnson Douglas K Method and system for improved correction of registration error in a fluoroscopic image
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
WO2011063266A2 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2215985T3 (es) * 2001-12-18 2004-10-16 Brainlab Ag Superposicion de datos de imagen de rayos x de un paciente, o datos de imagen de escaner e imagenes de video.

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038467A (en) * 1997-01-24 2000-03-14 U.S. Philips Corporation Image display system and image guided surgery system
US6416476B1 (en) * 1999-01-12 2002-07-09 Kabushiki Kaisha Toshiba Three-dimensional ultrasonic diagnosis apparatus
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
US20040242988A1 (en) * 2003-02-24 2004-12-02 Kabushiki Kaisha Toshiba Operation recognition system enabling operator to give instruction without device operation
US20040263535A1 (en) * 2003-04-25 2004-12-30 Rainer Birkenbach Visualization device and method for combined patient and object image data
US20050281385A1 (en) * 2004-06-02 2005-12-22 Johnson Douglas K Method and system for improved correction of registration error in a fluoroscopic image
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
WO2011063266A2 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116409A (ja) * 2013-12-19 2015-06-25 株式会社日立メディコ X線ct装置
JP2015134108A (ja) * 2014-01-17 2015-07-27 株式会社東芝 X線診断装置および着用可能デバイス

Also Published As

Publication number Publication date
DE102011083634B4 (de) 2021-05-06
DE102011083634A1 (de) 2013-03-28
CN103841895A (zh) 2014-06-04
CN103841895B (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
DE60128722T2 (de) Fluoroskopische röntgentomographiebildgebung
US8294709B2 (en) Method and apparatus for integrating three-dimensional and two-dimensional monitors with medical diagnostic imaging workstations
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
EP2309925B1 (de) Röntgenbild-aufnahmesystem und röntgenbild-aufnahmeverfahren zur aufnahme von bilddaten mit röntgengeräten für eine volumenrekonstruktion
DE10162272A1 (de) Verfahren zur Unterstützung der Orientierung im Gefäßsystem
DE102008025151A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
WO2019149400A1 (de) Verfahren zur positionsplanung eines aufnahmesystems eines medizinischen bildgebenden geräts und medizinisches bildgebendes gerät
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102008016286A1 (de) System und Verfahren zum Verfolgen eines Atemzyklus eines Objektes
DE102011083634B4 (de) Vorrichtung und Verfahren für eine Bilddarstellung
DE102010040634A1 (de) Verfahren zur 2D/3D-Registrierung
DE102012215922A1 (de) Medizintechnische Anlage und Verfahren zur Erzeugung von Bildern
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
DE102019209543A1 (de) Verfahren zum Bereitstellen einer Kollisionsinformation und medizinische Bildgebungsvorrichtung
EP2164042B1 (de) Verfahren zur Überprüfung der relativen Lage von Knochenstrukturen
DE10243162B4 (de) Rechnergestütztes Darstellungsverfahren für ein 3D-Objekt
DE102009031400A1 (de) Vorrichtung und Verfahren zur rechnergestützten 2D-Navigation
DE10108633A1 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Beziehung von einander unabhängig aufgenommenen Röntgendatensätzen (2D oder 3D)
WO2011120795A1 (de) Verfahren zum ermitteln von dreidimensionalen volumendaten und bildgebungsvorrichtung
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102014210051A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
EP3797697B1 (de) Tomosyntheseverfahren mit kombinierten schichtbilddatensätzen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12756439

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12756439

Country of ref document: EP

Kind code of ref document: A1