DE10315242A1 - Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung - Google Patents
Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung Download PDFInfo
- Publication number
- DE10315242A1 DE10315242A1 DE2003115242 DE10315242A DE10315242A1 DE 10315242 A1 DE10315242 A1 DE 10315242A1 DE 2003115242 DE2003115242 DE 2003115242 DE 10315242 A DE10315242 A DE 10315242A DE 10315242 A1 DE10315242 A1 DE 10315242A1
- Authority
- DE
- Germany
- Prior art keywords
- interest
- area
- camera
- arm
- measurement data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/40—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
- A61B6/4007—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units
- A61B6/4014—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units arranged in multiple source-detector units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/46—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
Abstract
Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur dreidimensionalen Bildgebung, bei dem mit einem 3-D-Bildgebungsgerät (1), mit dem 3-D-Bilder vom Körperinneren eines Untersuchungsobjekts (P) gewonnen werden können, Messdaten von einem interessierenden Bereich des Untersuchungsobjekts (P) erfasst werden und aus den Messdaten ein dreidimensionales Bild des interessierenden Bereiches rekonstruiert und in zumindest einer Ansicht als Schnitt- oder Projektionsbild (21) dargestellt wird. Bei dem vorliegenden Verfahren werden vor oder während der Erfassung der Messdaten mit zumindest einer Kamera (20) Aufnahmen des interessierenden Bereiches des Untersuchungsobjekts (P) aufgezeichnet und einer aus den Messdaten rekonstruierten Oberfläche des interessierenden Bereiches lagerichtig als Textur zugeordnet. Die auf diese Weise texturierte Oberfläche (22) des interessierenden Bereiches wird in der Ansicht perspektivisch so dargestellt, dass die Lage des Schnitt- oder Projektionsbildes (21) relativ zur Oberfläche des interessierenden Bereiches erkennbar ist. Mit dem vorliegenden Verfahren lässt sich insbesondere in der medizinischen Bildgebung eine bessere Zuordnung des dargestellten Bildes zum real untersuchten Objekt treffen.
Description
- Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur dreidimensionalen Bildgebung, bei denen mit einem 3D-Bildgebungsgerät, mit dem 3D-Bilder vom Körperinneren eines Untersuchungsobjekts gewonnen werden können, insbesondere mit einem C-Bogen-Röntgengerät, Messdaten von einem interessierenden Bereich des Untersuchungsobjektes erfasst werden und aus den Messdaten ein dreidimensionales Bild des interessierenden Bereiches rekonstruiert und in zumindest einer Ansicht als Schnitt- oder Projektionsbild dargestellt wird.
- Bei Verfahren der dreidimensionalen Bildgebung, insbesondere in der medizinischen Diagnostik, werden mittels geeigneter Messvorrichtungen, bspw. Magnetresonanzanlagen, Computertomographen oder C-Bogen-Röntgengeräte, Messdaten eines interessierenden Bereiches eines Untersuchungsobjektes gewonnen, aus denen ein dreidimensionales Bild des untersuchten Objektbereiches rekonstruiert werden kann. Neuere Entwicklungen erlauben auch eine Niedrigkontrast 3D-Rekonstruktion der Patientenanatomie durch motorgesteuerte C-Bögen von C-Bogen-Röntgengeräten. Der Vorteil des Einsatzes von C-Bogen-Röntgengeräten gegenüber konventionellen Computertomographen besteht in der verbesserten Zugänglichkeit zu den untersuchten Objektbereichen während der Bildaufnahme. C-Bogen-Röntgengeräte sind daher im Operationsraum flexibel einsetzbar und können dem aktuellen Situs entsprechend Bildinformation generieren. Dies ermöglicht dem Chirurgen die Bildaufnahme und -darstellung während der Operation. Die mit einem derartigen Gerät erreichbare Weichteilauflösung erlaubt eine Anwendung beispielsweise in den Bereichen Gastrologie, Endoskopie, Biopsie oder Brachytherapie. Der Arzt kann dabei die üblichen Darstellungsmodi für 3D-Daten, MPR, MIP oder VRT, wählen. Bei diesen Darstellungsarten hat der Betrachter jedoch keinen unmittelbaren Bezug der dargestellten Schnitt- oder Projektionsbilder zum realen Objekt. Sind die betroffenen Organe vom Chirurgen nicht frei präpariert, so kann er ohne technische Unterstützung beim Blick auf den Patienten die auf dem Monitor dargestellten Schnitt- oder Projektionsbilder nur schwer örtlich zuordnen.
- Bisher sind unterschiedliche Techniken zur Verbesserung der Orientierung des Nutzers bei derartigen 3D-Bildgebungsverfahren oder -geräten bekannt. Eine dieser Techniken setzt Augmented-Reality-Verfahren ein, um den Bezug des rekonstruierten Bildes zum untersuchten Objekt herzustellen. Dabei wird durch lagerichtige Projektion der 3D-Bilddaten auf das Objekt oder durch Einblenden der Bilddaten in ein Head-Mounted Display eindeutig die Lage des dargestellten Bildes relativ zum Patienten erkennbar.
- Weiterhin sind navigationsgestützte Verfahren bekannt, bei denen die Lage von chirurgischen Instrumenten mit geeigneten Messeinrichtungen erfasst und innerhalb des 3D-Bilddatensatzes in Echtzeit angezeigt wird. Damit kann sich der Arzt anhand seiner geführten, im Bild eingeblendeten Instrumente interaktiv orientieren.
- Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren sowie eine Vorrichtung zur dreidimensionalen Bildgebung anzugeben, die für den Betrachter des rekonstruierten Bildes einen verbesserten Bezug zum untersuchten Objekt bieten.
- Die Aufgabe wird mit dem Verfahren sowie der Vorrichtung gemäß den Patentansprüchen 1 und 6 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sowie der Vorrichtung sind Gegenstand der Unteransprüche oder lassen sich aus der nachfolgenden Beschreibung sowie den Ausführungsbeispielen entnehmen.
- Beim vorliegenden Verfahren zur dreidimensionalen Bildgebung werden in bekannter Weise mit einem 3D-Bildgebungsgerät, mit dem 3D-Bilder vom Körperinneren eines Untersuchungsobjekts gewonnen werden können, Messdaten von einem interessierenden Bereich des Untersuchungsobjektes erfasst und aus den Messdaten ein dreidimensionales Bild des interessierenden Bereiches rekonstruiert und in zumindest einer Ansicht als Schnitt- oder Projektionsbild dargestellt. Bei dem 3D-Bildgebungsgerät handelt es sich vorzugsweise um eine Tomographiegerät, insbesondere um ein C-Bogen-Röntgengerät. Das Verfahren zeichnet sich dadurch aus, dass vor oder während der Erfassung der Messdaten mit zumindest einer Kamera, beispielsweise einer Videokamera, Aufnahmen des interessierenden Bereiches des Untersuchungsobjektes aufgezeichnet und einer aus den Messdaten rekonstruierten Oberfläche des interessierenden Bereiches lagerichtig als Textur zugeordnet werden. Die auf diese Weise texturierte Oberfläche des interessierenden Bereiches wird dann in der Ansicht perspektivisch so dargestellt, dass die Lage des Schnitt- oder Projektionsbildes relativ zur Oberfläche des interessierenden Bereiches erkennbar ist. Die perspektivisch richtige Darstellung der texturierten Oberfläche wird hierbei entsprechend der gewählten Ansicht aus den Aufnahmedaten berechnet.
- Die zugehörige Vorrichtung umfasst neben den üblichen Ausgestaltungen des 3D-Bildgebungsgerätes zumindest eine Kamera, die auf das Untersuchungsvolumen des Bildgebungsgerätes gerichtet ist sowie ein Auswertungsmodul, das die lagerichtige Zuordnung der Aufnahmen der Kamera zu der aus den Messdaten des Bildgebungsgerätes rekonstruierten Oberfläche des interessierenden Bereiches vornimmt, diese rekonstruierte Oberfläche mit der zugehörigen Textur versieht und die texturierte Oberfläche des interessierenden Bereiches in der gewählten Ansicht perspektivisch so darstellt, dass die Lage des Schnitt- oder Projektionsbildes relativ zur Oberfläche des interessierenden Bereiches am Monitor erkennbar ist.
- Der Nutzer des vorliegenden Verfahrens bzw. der vorliegenden Vorrichtung sieht somit auf dem Monitor in der von ihm gewählten Ansicht zusätzlich zum Schnitt- oder Projektionsbild die Oberfläche des rekonstruierten interessierenden Bereiches des Untersuchungsobjektes genau so, wie sie sich dem Betrachter beim direkten Blick auf das Untersuchungsobjekt darstellt. Diese Darstellung erlaubt dem Betrachter, bspw. einem Arzt, unmittelbar die Relation zwischen den Bilddaten, d.h. dem gewählten Schnitt- oder Projektionsbild, und der äußeren Patientenanatomie zu verstehen. Für minimalinvasive Intervention, Biopsie oder plastische Chirurgie ist die Lage von Weichteilen relativ zur Hautoberfläche deutlich erkennbar, Zugangswege durch die Hautoberfläche also leicht zu identifizieren. Ein Vorteil des vorliegenden Verfahrens sowie der zugehörigen Vorrichtung besteht darin, dass der Nutzer keine zusätzliche Hilfsmittel, wie bspw. ein Head-Mounted-Display, tragen muss. Der Nutzer erkennt wie auch bisher die für ihn interessierenden Merkmale auch weiterhin in der Darstellung auf dem Monitor, die ihm nun jedoch die zusätzliche Orientierung und Zuordnung zum untersuchten Objekt ermöglicht.
- Das vorliegende Verfahren lässt sich bei unterschiedlichen 3D-Bildgebungsgeräten einsetzen, die ein dreidimensionales Bild des Inneren eines Untersuchungsobjektes liefern. Beispiele für derartige Bildgebungsgeräte sind bspw. Computertomographen oder Magnetresonanztomographen. Bei derartigen Geräten sollte die Kamera jedoch zumindest teilweise um das untersuchte Objekt verfahrbar angeordnet sein, um Aufnahmen unter unterschiedlichen Perspektiven zu ermöglichen. Besonders vorteilhaft lässt sich das vorliegende Verfahren jedoch in Verbindung mit einem C-Bogen-Röntgengerät einsetzen, bei dem die Kamera am C-Bogen befestigt ist. Auf diese Weise wird während der Erfassung der Messdaten durch Verschiebung des C-Bogens gleichzeitig die Kamera um das zu untersuchende Objekt bewegt, so dass automatisch Aufnahmen unter unterschiedlichen Perspektiven gemacht werden. Vorzugsweise wird die Kamera dabei im Bereich des Röntgendetektors, insbesondere seitlich am Bildverstärker oder am Flachbilddetektor, je nach dem welcher Detektortyp eingesetzt wird, befestigt. Zusätzlich kann eine zweite Kamera an der Röntgenröhre befestigt sein. Die Kameras, vorzugsweise Farbkameras, sind während der Bildaufnahme jeweils auf das Isozentrum des Rekonstruktionsvolumens des Bildgebungsgerätes ausgerichtet.
- Für die Zuordnung der Lage der durch die Kameraaufnahmen bereitgestellten Texturinformation auf der rekonstruierten Oberfläche des interessierenden Bereiches des Untersuchungsobjektes ist die Kenntnis über die Lage der Kamera bzw. Kameras relativ zum Rekonstruktionsvolumen des Bildgebungsgerätes erforderlich. Die Bestimmung dieser Lage kann auf unterschiedliche Art und Weise erfolgen. So kann diese Lage bei einem C-Bogen-Röntgengerät bspw. in einem Schritt zusammen mit der erforderlichen C-Bogen-Kalibrierung durch optische Auswertung des hierbei eingesetzten Röntgenkalibrierkörpers erfolgen. In analoger Weise zur Bestimmung der Abbildungsmatrizen des Röntgensystems des C-Bogens werden hierbei die Projektionsmatrizen für die Kamera bestimmt. In einer weiteren Ausgestaltung kann die Lage der Kamera einmalig relativ zum Röntgendetektor bestimmt werden. Bei Kenntnis dieser Lage lässt sich dann eine eindeutige Zuordnung vornehmen.
- Das vorliegende Verfahren sowie die zugehörige Vorrichtung werden nachfolgend anhand eines Ausführungsbeispiels in Verbindung mit den Figuren nochmals kurz erläutert. Hierbei zeigen:
-
1 schematisch ein Beispiel für die vorliegende Vorrichtung unter Einsatz eines C-Bogen-Gerätes; -
2 den schematischen Ablaufplan bei der Durchführung des vorliegenden Verfahrens; -
3 ein Beispiel für eine übliche Darstellung eines Schnittbildes auf Basis des aufgenommenen 3D-Bilddatensatzes; und -
4 ein Beispiel für die Darstellung gemäß dem vorliegenden Verfahren. -
1 zeigt beispielhaft den grundsätzlichen Aufbau eines C-Bogen-Röntgengerätes1 , das gemäß der vorliegenden Erfindung ausgestaltet ist. Das Gerät1 weist ein Basisteil2 auf, an dem mittels einer in1 nur schematisch angedeuteten Hubvorrichtung3 eine Säule4 in Richtung des Doppelpfeiles a höhenverstellbar angebracht ist. Die Säule4 ist außerdem um ihre Längsachse drehbar gelagert, wie die mit dem Doppelpfeil ε angedeutet ist. An der Säule4 ist ein Halteteil5 angeordnet, an dem wiederum ein Lagerteil6 zur Lagerung des um ein Isozentrum I verstellbaren, C-förmig gekrümmten und somit offenen Trägers, dem C-Bogen7 , angebracht ist. - An dem C-Bogen
7 sind einander gegenüberliegend eine Röntgenstrahlquelle8 und ein flächenhafter Röntgendetektor9 befestigt. Röntgenstrahlquelle8 und Röntgendetektor9 liegen sich gegenüber, so dass der durch das Isozentrum I verlaufende Zentralstrahl M eines von einem Fokus F der Röntgenstrahlquelle8 ausgehenden, in der1 durch seine gestrichelt eingetragenen Randstrahlen RS angedeuteten, kegelförmigen Röntgenstrahlbündels annähernd mittig auf den Röntgendetektor9 trifft. Der flächenhafte Röntgendetektor9 kann bspw. ein Röntgenbildverstärker oder wie im Falle des dargestellten Ausführungsbeispiels ein sog. Flachbilddetektor auf Basis eines Halbleiterpanels sein. Der Flachbilddetektor weist eine Vielzahl von matrixartig in bspw. orthogonalen Detektorspalten und -zeilen in einer Detektorebene angeordneten, in den Figuren nicht dargestellten Detektorelementen auf, die eine rechtwinklige Detektorfläche bilden. Der Röntgendetektor9 ist derart relativ zu der Röntgenstrahlquelle8 an dem C- Bogen7 angeordnet, dass bei idealer Geometrie der Zentralstrahl M rechtwinklig auf der Detektorebene steht. - Der C-Bogen
7 ist in an sich bekannter Weise in Richtung des Doppelpfeiles a längs seines Umfangs mittels einer nur schematisch dargestellten Antriebseinrichtung10 um das Isozentrum I und damit um die Systemachse Z als Rotationsachse des C-Bogens7 verschiebbar an dem Lagerteil6 gelagert. Die Systemachse Z steht senkrecht zur Zeichenebene der1 und damit senkrecht zu derjenigen Ebene, in der sich der Fokus der Röntgenstrahlquelle8 bei Verstellung des C-Bogens7 in α-Richtung bewegt. Die Antriebseinrichtung10 enthält hierfür bspw. einen Elektromotor und ein diesen mit dem C-Bogen koppelndes Getriebe. Durch die Bewegung der Röntgenquelle8 zusammen mit dem Röntgendetektor9 in Pfeilrichtung α lassen sich nacheinander unterschiedliche erste Zentralprojektionen eines zu untersuchenden Objektbereichs erfassen, innerhalb dessen das Isozentrum I liegt. Die Figur zeigt hierfür ein zu untersuchendes Objekt, bspw. einen Patienten P, der auf einer Lagerungsvorrichtung11 liegt. Die Lagerungsvorrichtung11 besteht aus einer Lagerungsplatte12 für den Patienten P, die an einem Sockel13 mittels einer Antriebseinrichtung14 in Richtung ihrer Längsachse verstellbar angebracht ist. - Das dargestellte 3D-Bildgebungsgerät
1 ermöglicht es, einen interessierenden Bereich des Patienten P durch Aufnahme von zweidimensionalen Zentralprojektionen aus unterschiedlichen Projektionswinkeln α abzutasten, wobei ein Rechner15 als Auswerteeinrichtung aus den aufgenommenen Projektionen entsprechenden Messdaten dreidimensionale Bildinformationen bezüglich des abgetasteten Volumens des Patienten P rekonstruiert, die bspw. in Form von Schnittbildern auf einem mit dem Rechner15 verbundenen Monitor17 dargestellt werden können. Für jede Projektion werden dabei eine der Anzahl der Detektorelemente des Röntgendetektors9 entsprechende Anzahl von Messwerten enthalten, die eine Dichteinformation des an dieser Stelle durchstrahlten Patientenkörpers liefern. An den Rechner15 sind außerdem eine Tastatur18 und eine Maus19 angeschlossen, die der Bedienung des Gerätes1 dienen. Der Rechner15 ist auch mit den Antriebseinheiten der Röntgenanlage sowie der Röntgenquelle8 verbunden, um diese steuern zu können. Zur Aufnahme von Projektionen aus unterschiedlichen Projektionswinkeln α wird der C-Bogen7 mit der Röntgenquelle8 und dem Röntgendetektor9 längs seines Umfanges in Richtung des Doppelpfeiles α über einen Winkelbereich verschwenkt, der zumindest 180° zzgl. dem Öffnungswinkel γ des kegelförmigen Röntgenstrahls beträgt. - Der C-Bogen
7 ist weiterhin über das Lagerteil6 in an sich bekannter Weise um eine gemeinsame, durch das Isozentrum I verlaufende und rechtwinklig zur Systemachse Z verlaufende Achse B des Halteteils5 und des Lagerteils6 in Richtung des gekrümmten Doppelpfeils β drehbar und in Richtung der Achse B gemäß dem Doppelpfeil b verschiebbar an dem Halteteil5 gelagert. Durch diese Drehbarkeit um die Achse B lässt sich der C-Bogen7 in eine andere Ebene drehen. - Im vorliegenden Beispiel ist seitlich am Röntgendetektor
9 eine Farbvideokamera20 angebracht, die auf das Isozentrum I des Rekonstruktionsvolumens des C-Bogen-Röntgengerätes1 gerichtet ist. Bei der Bewegung des C-Bogens in Pfeilrichtung α zur Erfassung der Röntgendaten lassen sich dabei gleichzeitig unterschiedliche Projektionen des zu untersuchenden Objektbereichs mit der Kamera20 erfassen. Die von der Kamera20 gelieferten Bilddaten werden in gleicher Weise wie die Messdaten des Röntgendetektors9 der Auswerteeinrichtung15 zugeführt, in der in der vorliegenden Ausgestaltung ein zusätzliches Auswertemodul15a für die Zuordnung der die Oberfläche des Untersuchungsobjektes P repräsentierenden Bilddaten als Texturinformation zur Oberfläche des aus den Messdaten des Röntgendetektors9 rekonstruierten untersuchten Bereiches vornimmt. Die durch die Videokamera20 aufgenommenen Bilddaten werden dabei mittels des aus der graphischen Daten verarbeitung bekannten Texturmappings auf diese Oberfläche aufgeblendet. Zusätzlich kann auch eine weitere Kamera20a beispielsweise an der Röntgenstrahlquelle8 angeordnet sein, wie dies in der1 angedeutet ist, um gleichzeitig Aufnahmen aus zwei Perspektiven zu erhalten. - Bei der Durchführung des vorliegenden Verfahrens erfolgt, wie in der
2 schematisch dargestellt, die Erfassung der Messdaten des Röntgendetektors9 parallel zur Bildaufnahme mit der Videokamera20 , die mit dem C-Bogen 7 um das Untersuchungsvolumen herum geschwenkt wird. - Anschließend wird die 3D-Rekonstruktion des untersuchten Objektbereiches aus den erhaltenen Messdaten vorgenommen, beispielsweise mittels der bekannten gefilterten Rückprojektion. Der Objektbereich wird hierbei gegenüber dem Hintergrund (Artefakte, Patientenliege, usw.) segmentiert, so dass die Oberfläche des untersuchten Objektbereiches im dreidimensionalen Bildraum bekannt ist. Anschließend erfolgt die geometrische Zuordnung der Texturinformation der durch die Videokamera erhaltenen Bilddaten zu dieser rekonstruierten Objektoberfläche. Nach dem Texturmapping entsprechend dieser Zuordnung wird dem Benutzer das dreidimensionale Bild bzw. der gewünschte dreidimensionale Bildausschnitt zusammen mit dem gewählten Schnitt- oder Projektionsbild
21 in der gewählten Ansicht am Monitor dargestellt, wie dies beispielsweise in der4 ersichtlich ist. Die texturierte Oberfläche22 des untersuchten Objektbereiches schließt sich dabei direkt an den Schnitt- oder Projektionsbildausschnitt21 an. -
3 zeigt hierbei ein übliches Schnittbild eines untersuchten Objektbereiches, im vorliegenden Fall des Gehirns eines Patienten, wobei in der3 eine Schnittdarstellung durch das Gehirn zu erkennen ist (MPR-Darstellung). Aus dieser Darstellung lässt sich für den Arzt nur sehr schwer ein Bezug zu dem vor ihm liegenden Patientenkörper herstellen. Im Vergleich hierzu zeigt4 eine Darstellung, wie sie beim Einsatz der vorliegenden Vorrichtung bzw. des vorliegenden Verfahrens erhalten wird. Hier ist zusätzlich die Oberfläche des Kopfes des Patienten mit der entsprechenden, durch die Videokamera aufgenommenen Textur versehen und lagerichtig zu dem vom Arzt gewählten Schnittbild21 durch das Gehirn dargestellt. Der Arzt sieht nun mit einem Blick genau den Ort und die Lage des betrachteten Schnittbildes zum Patientenkörper. Ein chirurgischer Eingriff ist dadurch mit wesentlich besserer Orientierung am dargestellten Bild möglich.
Claims (10)
- Verfahren zur dreidimensionalen Bildgebung, bei dem mit einem 3D-Bildgebungsgerät (
1 ), mit dem 3D-Bilder vom Körperinneren eines Untersuchungsobjekts (P) gewonnen werden können, Messdaten von einem interessierenden Bereich des Untersuchungsobjektes (P) erfasst werden und aus den Messdaten ein dreidimensionales Bild des interessierenden Bereiches rekonstruiert und in zumindest einer Ansicht als Schnitt- oder Projektionsbild (21 ) dargestellt wird, dadurch gekennzeichnet, dass vor oder während der Erfassung der Messdaten mit zumindest einer Kamera (20 ) Aufnahmen des interessierenden Bereiches des Untersuchungsobjektes (P) aufgezeichnet und einer aus den Messdaten rekonstruierten Oberfläche des interessierenden Bereiches lagerichtig als Textur zugeordnet werden, und dass die auf diese Weise texturierte Oberfläche (22 ) des interessierenden Bereiches in der Ansicht perspektivisch so dargestellt wird, dass die Lage des Schnitt- oder Projektionsbildes (21 ) relativ zur Oberfläche des interessierenden Bereiches erkennbar ist. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmen des interessierenden Bereiches mit einer Farbkamera (
20 ) aufgezeichnet werden und die texturierte Oberfläche (22 ) in Farbe dargestellt wird. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kamera (
20 ) bei Einsatz eines C-Bogen-Röntgengerätes als 3D-Bildgebungsgerät (1 ) am C-Bogen (7 ) befestigt und mit dem C-Bogen (7 ) während der Erfassung der Messdaten verfahren wird, um gleichzeitig die Aufnahmen des interessierenden Bereiches aufzuzeichnen. - Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Kamera (
20 ) an einem Bildverstärker oder Flachbilddetektor (9 ) des C-Bogen-Röntgengerätes befestigt wird. - Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine weitere Kamera (
20a ) an einer Röntgenröhre (8 ) des C-Bogen-Röntgengerätes befestigt wird, um gleichzeitig Aufnahmen aus zwei Perspektiven aufzuzeichnen. - Vorrichtung zur dreidimensionalen Bildgebung mit einem 3D-Bildgebungsgerät (
1 ), mit dem 3D-Bilder vom Körperinneren eines Untersuchungsobjekts (P) gewonnen werden können, das zumindest eine Messeinrichtung (8 ,9 ) zur Erfassung von Messdaten des interessierenden Bereiches und eine Auswerteeinheit (15 ) zur Rekonstruktion eines dreidimensionalen Bildes des interessierenden Bereiches des Untersuchungsobjektes (P) aus den Messdaten und zur Darstellung des Bildes in zumindest einer Ansicht als Schnitt- oder Projektionsbild (21 ) an einem Monitor (17 ) umfasst, dadurch gekennzeichnet, dass eine Kamera (20 ) am Bildgebungsgerät angeordnet ist, mit der vor oder während der Erfassung der Messdaten Aufnahmen des interessierenden Bereiches des Untersuchungsobjektes (P) aufgezeichnet werden können, und die Auswerteeinheit (15 ) ein Auswertemodul (15a ) umfasst, das einer aus den Messdaten rekonstruierten Oberfläche des interessierenden Bereiches die Aufnahmen lagerichtig als Textur zuordnet und die auf diese Weise texturierte Oberfläche (22 ) des interessierenden Bereiches in der Ansicht perspektivisch so darstellt, dass die Lage des Schnitt- oder Projektionsbildes (21 ) relativ zur Oberfläche des interessierenden Bereiches am Monitor (17 ) erkennbar ist. - Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Kamera (
20 ) eine Farbkamera ist und die texturierte Oberfläche (22 ) in Farbe dargestellt wird. - Vorrichtung nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Kamera (
20 ) am C-Bogen (7 ) eines C-Bogen-Röntgengerätes als 3D-Bildgebungsgerät (1) befestigt ist. - Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Kamera (
20 ) an einem Bildverstärker oder Flachbilddetektor (9 ) des C-Bogen-Röntgengerätes befestigt ist. - Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass eine weitere Kamera (
20a ) an einer Röntgenröhre (8 ) des C-Bogen-Röntgengerätes befestigt ist, um gleichzeitig Aufnahmen aus zwei Perspektiven aufzuzeichnen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003115242 DE10315242B4 (de) | 2003-04-03 | 2003-04-03 | Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung |
US10/818,020 US20040254456A1 (en) | 2003-04-03 | 2004-04-05 | Method and apparatus for realistic two-dimensional imaging |
CNA2004100342715A CN1535657A (zh) | 2003-04-03 | 2004-04-05 | 进行接近实际的三维成像的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003115242 DE10315242B4 (de) | 2003-04-03 | 2003-04-03 | Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10315242A1 true DE10315242A1 (de) | 2004-10-28 |
DE10315242B4 DE10315242B4 (de) | 2006-02-23 |
Family
ID=33038863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2003115242 Expired - Fee Related DE10315242B4 (de) | 2003-04-03 | 2003-04-03 | Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung |
Country Status (3)
Country | Link |
---|---|
US (1) | US20040254456A1 (de) |
CN (1) | CN1535657A (de) |
DE (1) | DE10315242B4 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007034218A1 (de) * | 2007-07-23 | 2009-01-29 | Siemens Ag | Vorrichtung und Verfahren zur Bildzusammensetzung |
DE102008022922A1 (de) * | 2008-05-09 | 2009-11-12 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Erstellung einer 3D Darstellung von einem Objekt |
DE102013206911A1 (de) * | 2013-04-17 | 2014-10-23 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten |
CN116570306A (zh) * | 2023-07-11 | 2023-08-11 | 北京友通上昊科技有限公司 | 基于x射线的移动式3d成像机、三维成像数据获取方法 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005022540B4 (de) * | 2005-05-17 | 2007-07-05 | Siemens Ag | Verfahren zur Minimierung von Bildartefakten und medizinisches Bildgebungssystem |
DE102005036285B4 (de) * | 2005-08-02 | 2013-06-20 | Siemens Aktiengesellschaft | Verfahren zur Bestimmung der relativen Lage einer Röntgenquelle zu einem Röntgenbilddetektor und entsprechendes Röntgensystem |
US7636089B2 (en) * | 2005-09-09 | 2009-12-22 | Microsoft Corporation | Photo mantel view and animation |
US7551711B2 (en) * | 2006-08-07 | 2009-06-23 | Xoran Technologies, Inc. | CT scanner including a camera to obtain external images of a patient |
FR2917595B1 (fr) * | 2007-06-22 | 2013-04-26 | Michel Bams | Dispositif medical de diagnostic en pathologie vertebrale qui permet d'obtenir des images photographiques des positions prises par les patients lors de radiographies |
ES2659090T3 (es) | 2009-03-20 | 2018-03-13 | Orthoscan Incorporated | Aparato móvil de captación de imagen |
DE102009033675B4 (de) * | 2009-07-17 | 2016-09-15 | Siemens Healthcare Gmbh | Verfahren zum Betreiben eines Röntgenbildaufnahmegerätes mit verfahrbarem Röntgenstrahlungsdetektor am Röntgen-C-Bogen |
WO2011095694A1 (en) * | 2010-02-02 | 2011-08-11 | Planmeca Oy | Dental imaging apparatus |
CN102204824A (zh) * | 2010-03-31 | 2011-10-05 | Ge医疗系统环球技术有限公司 | 支撑c形或u形臂的升降装置及其医疗x光机 |
US9125611B2 (en) | 2010-12-13 | 2015-09-08 | Orthoscan, Inc. | Mobile fluoroscopic imaging system |
CN103764040B (zh) * | 2011-07-04 | 2017-11-17 | 皇家飞利浦有限公司 | 与扫描运动同步的场限制装置 |
CN102411157B (zh) * | 2011-08-05 | 2014-10-29 | 北京睿思厚德辐射信息科技开发有限公司 | 物体单侧扫描双侧立体成像的方法及装置 |
US8380541B1 (en) | 2011-09-25 | 2013-02-19 | Theranos, Inc. | Systems and methods for collecting and transmitting assay results |
JP2013081527A (ja) * | 2011-10-06 | 2013-05-09 | Toshiba Corp | X線診断装置 |
EP2737845B1 (de) * | 2012-12-03 | 2020-08-05 | Samsung Electronics Co., Ltd | Betrieblich mit einer medizinischen Bildgebungsvorrichtung gekoppelte Steuerungsvorrichtung und medizinische Bildgebungsvorrichtung damit |
CA2901016A1 (en) * | 2013-02-18 | 2014-08-21 | Theranos, Inc. | Systems and methods for collecting and transmitting assay results |
EP3473187B1 (de) | 2015-07-23 | 2020-10-28 | Samsung Electronics Co., Ltd. | Röntgenvorrichtung und verfahren |
CN105534536A (zh) * | 2015-11-20 | 2016-05-04 | 江门市宏乔新材料科技有限公司江海区分公司 | 一种体表成像投影系统 |
US9892564B1 (en) | 2017-03-30 | 2018-02-13 | Novarad Corporation | Augmenting real-time views of a patient with three-dimensional data |
WO2019086457A1 (en) * | 2017-11-02 | 2019-05-09 | Siemens Healthcare Gmbh | Generation of composite images based on live images |
CZ2017777A3 (cs) | 2017-12-05 | 2019-07-03 | Radalytica s.r.o. | Způsob nedestruktivního zobrazování vnitřní struktury a zařízení k provádění tohoto způsobu |
JP2021000435A (ja) * | 2019-06-19 | 2021-01-07 | 株式会社リコー | 情報処理装置、生体情報計測装置、空間領域値の表示方法およびプログラム |
EP4024034A1 (de) * | 2021-01-05 | 2022-07-06 | The Boeing Company | Verfahren und vorrichtung zur messung der konzentrizität von befestigungsmitteln |
CN116548993B (zh) * | 2023-07-11 | 2024-03-08 | 北京友通上昊科技有限公司 | 基于滑杆的三维成像数据获取系统、方法和成像方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5377250A (en) * | 1992-08-07 | 1994-12-27 | General Electric Company | Reconstruction method for helical scanning computed tomography apparatus with multi-row detector array |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19746096A1 (de) * | 1997-10-17 | 1999-05-06 | Siemens Ag | Röntgeneinrichtung |
US6088424A (en) * | 1998-09-22 | 2000-07-11 | Vf Works, Inc. | Apparatus and method for producing a picture-in-a-picture motion x-ray image |
JP2001061861A (ja) * | 1999-06-28 | 2001-03-13 | Siemens Ag | 画像撮影手段を備えたシステムおよび医用ワークステーション |
DE10046091C1 (de) * | 2000-09-18 | 2002-01-17 | Siemens Ag | Computertomographiegerät und Verfahren für ein Computertomographiegerät |
DE10317137A1 (de) * | 2003-04-14 | 2004-11-18 | Siemens Ag | Röntgeneinrichtung und Verfahren zum Herstellen eines Oberflächenbildes |
DE10325003A1 (de) * | 2003-06-03 | 2004-12-30 | Siemens Ag | Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie |
-
2003
- 2003-04-03 DE DE2003115242 patent/DE10315242B4/de not_active Expired - Fee Related
-
2004
- 2004-04-05 CN CNA2004100342715A patent/CN1535657A/zh active Pending
- 2004-04-05 US US10/818,020 patent/US20040254456A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5377250A (en) * | 1992-08-07 | 1994-12-27 | General Electric Company | Reconstruction method for helical scanning computed tomography apparatus with multi-row detector array |
Non-Patent Citations (2)
Title |
---|
LENSCH, H.P.A. et al: A Framework for the Acquisi- tion, Processing and Interactive Display of High Quality 3D Models, Research Report, MPI-I-2001-4-0 05, Sept. 2001, S. 1-39, http://domino.mpi-sb.mpg. de/internet/reports.nsf/0/48467c55c9c26738c1256ab0 0030ca36/SFILE/dagm01tut.pd |
LENSCH, H.P.A. et al: A Framework for the Acquisi-tion, Processing and Interactive Display of High Quality 3D Models, Research Report, MPI-I-2001-4-005, Sept. 2001, S. 1-39, http://domino.mpi-sb.mpg.de/internet/reports.nsf/0/48467c55c9c26738c1256ab00030ca36/SFILE/dagm01tut.pd * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007034218A1 (de) * | 2007-07-23 | 2009-01-29 | Siemens Ag | Vorrichtung und Verfahren zur Bildzusammensetzung |
DE102007034218B4 (de) * | 2007-07-23 | 2013-06-13 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Bildzusammensetzung |
DE102008022922A1 (de) * | 2008-05-09 | 2009-11-12 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Erstellung einer 3D Darstellung von einem Objekt |
DE102008022922B4 (de) * | 2008-05-09 | 2016-11-24 | Siemens Healthcare Gmbh | Vorrichtung und Verfahren zur Erstellung einer 3D Darstellung von einem Objekt |
DE102013206911A1 (de) * | 2013-04-17 | 2014-10-23 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten |
CN116570306A (zh) * | 2023-07-11 | 2023-08-11 | 北京友通上昊科技有限公司 | 基于x射线的移动式3d成像机、三维成像数据获取方法 |
CN116570306B (zh) * | 2023-07-11 | 2024-03-01 | 北京友通上昊科技有限公司 | 基于x射线的移动式3d成像机、三维成像数据获取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN1535657A (zh) | 2004-10-13 |
DE10315242B4 (de) | 2006-02-23 |
US20040254456A1 (en) | 2004-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10315242B4 (de) | Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung | |
EP0809211B1 (de) | Röntgenaufnahme-Verfahren | |
EP2082687B1 (de) | Überlagerte Darstellung von Aufnahmen | |
EP0652726B1 (de) | Verfahren zur darstellung des inneren von körpern | |
DE10114099B4 (de) | Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters | |
DE102005062582B4 (de) | Abbilduingssystem und Verfahren zur Anfertigung von Röntgen- und optischen Bildern | |
DE102005023194A1 (de) | Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches | |
DE102006046045B4 (de) | Verfahren zur zweidimensionalen oder dreidimensionalen Bilddarstellung eines interessierenden Zielbereichs in einem Hohlorgan und medizinisches Untersuchungs- und Behandlungssystem | |
DE102012215922B4 (de) | Medizintechnische Anlage und Verfahren zur Erzeugung von Bildern | |
DE102005023195A1 (de) | Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches | |
DE19962666A1 (de) | Verfahren zum Rekonstruieren von 3D-Bilddaten bezüglich eines interessierenden Volumens eines Untersuchungsobjekts | |
DE102006044783A1 (de) | Verfahren zur Aufnahme von Bildern eines bestimmbaren Bereichs eines Untersuchungsobjekts mittels einer Computertomographieeinrichtung | |
DE2649715A1 (de) | Stereoskopische ultraschall- abbildungseinrichtung | |
DE102004004295A1 (de) | Verfahren zur Bilddatenaufnahme und -auswertung mit einem Tomographiegerät | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE102004057308A1 (de) | Angiographische Röntgendiagnostikeinrichtung zur Rotationsangiographie | |
DE102008034686A1 (de) | Verfahren zur Darstellung von interventionellen Instrumenten in einem 3 D-Datensatz einer zu behandelnden Anatomie sowie Wiedergabesystem zur Durchführung des Verfahrens | |
DE102009031165A1 (de) | Verfahren und Vorrichtung zur Aufnahme von Röntgenbildern für eine dreidimensionale Bildrekonstruktion | |
DE102008015312A1 (de) | Displaysystem zur Wiedergabe medizinischer Hologramme | |
DE102007030960A1 (de) | Verfahren zur Darstellung von 3-D-Strukturen in 2-D-Projektionsbildern | |
DE102004049915A1 (de) | Tomographiegerät mit einer Lagerungsvorrichtung | |
EP3378401A1 (de) | Darstellung eines interessierenden bereichs | |
DE102006060421A1 (de) | Vorrichtung zur Durchführung minimalinvasiver Diagnosen und ggf. zusätzlicher therapeutischer Eingriffe im Inneren des Körpers eines Patienten | |
DE102007052650B4 (de) | Bildgebendes System und Verfahren zum Betrieb eines bildgebenden Systems | |
EP1464285B1 (de) | Perspektivische Registrierung und Visualisierung interner Körperbereiche |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |