DE3832222A1 - Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes - Google Patents
Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandesInfo
- Publication number
- DE3832222A1 DE3832222A1 DE3832222A DE3832222A DE3832222A1 DE 3832222 A1 DE3832222 A1 DE 3832222A1 DE 3832222 A DE3832222 A DE 3832222A DE 3832222 A DE3832222 A DE 3832222A DE 3832222 A1 DE3832222 A1 DE 3832222A1
- Authority
- DE
- Germany
- Prior art keywords
- vectors
- data values
- generating
- data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
Description
Die Erfindung betrifft eine Vorrichtung gemäß Oberbegriff
des Patentanspruchs 1 sowie ein Verfahren gemäß Oberbegriff
des Patentanspruchs 9. Allgemein betrifft die Erfindung das
Anzeigen von dreidimensionaler Information (3D), und insbe
sondere einen modifizierten Rückkehralgorithmus für eine
Kathodenstrahlröhre im 3D-Format von Schnittdaten, die bei
spielsweise von einem Computer-Tomographie-Scanner (CT)
erhalten werden.
Medizinische Abbildungssysteme wie Computer-Tomographie und
Magnetresonanzabbildung verwenden Computeranalyseverfahren
zum Analysieren von dreidimensionalen Bildaten eines Gegen
standes wie einem menschlichen Organ. Je nach Orientierung
des Objekts und des gewünschten Betrachtungspunktes eines
Beobachters werden die dreidimensionalen Bilddaten in ein
zweidimensionales Kathodenstrahlröhrenbild umgewandelt. Ein
üblicher Rückkehralgorithmus, der auch als BTF-Algorithmus
bezeichnet wird (Back To Front), kann zweidimensionale Bilder
eines dreidimensionalen Objektes erzeugen, ohne daß Ober
flächenkonturen ober Grenzerkennungsberechnungen, die zeit
aufwendig sind, erforderlich wären. Ein aus einzelnen
"Voxel"-Elementen zusammengesetztes Objekt kann ohne Heraus
ziehen von Information über die Oberfläche des Objektes
angezeigt werden. Ein "Voxel" ist ein parallelepipedisches
Datenelement, das verwendet wird, um ein zweidimensionales
Pixel, oder ein CRT-Bildelement eines Objektes zu erzeugen.
Ein Schlüssel für den BTF-Algorithmus ist die Reihenfolge,
in der die Voxels abgetastet werden, um ein endgültiges
projiziertes Bild zu erzeugen. Später abgetastete (vordere)
Voxel werden verwendet, um Pixel zu erzeugen, die darüber
schreiben und daher Pixel von früher abgetasteten (hinteren)
Voxeln zu verstecken. Da der PTF-Algorithmus ferner kein
Überprüfen der Voxeltiefe eines projizierten Voxels
erfordert, was bei Algorithmen der Fall ist, die Oberflächen
information benötigen, wird der Anzeigespeicher durch einen
verhältnismäßig schnellen Schreibvorgang aktualisiert und es
erfolgt nicht ein Lesen, Tiefenprüfen und Schreiben wie bei
anderen Verfahren. Auf dem Bildschirm haben Pixel eine
Helligkeit, die proportional zur Nähe der Voxel zur Vorder
seite oder Rückseite eines zu betrachtenden Objektes ist.
Ein bekannter BTF-Algorithmus erfordert Eingabedaten über
etwa 40 parallele Ebenen, die durch ein Objekt gelegt
werden. Jede Ebene besteht typischerweise aus 512×512
Pixeln. Um Computerspeicher aufzuheben, kann jede Scheibe
auf 256×256 Pixel komprimiert werden, wenn diese von der
Datenspeicherplatte gelesen werden. Hierauf werden die Daten
"kuberillt", d.h. in kubische Voxelelemente umgesetzt, indem
man zwischen den Ebenen Interpolationen vornimmt, um 256
gleichmäßig beabstandete Zwischenebenen zu interpolieren und
dadurch ein Volumen zu schaffen, das 256×256×256=
16,777,216 Voxel erzeugt. Jedes Voxel stellt ein Datenelement
mit einem Wert p dar, der in einem dreidimensionalen
"Objektraum" in kartesischen Koordinaten Xv, Yv und Zv
angeordnet ist. Der Datenwert p stellt eine Eigenschaft des
Objektes wie beispielsweise die Dichte an dem Raumort dar.
Wird ein auf dem Rücken liegender Patient untersucht, dann
ist der Ursprung des Objektkoordinatensystems üblicherweise
in den Kopf des Patienten verlegt. Dabei läuft die Z-Achse
vom Kopf zu den Füßen, die X-Achse durch die Ohren und die
Y-Achse von der Stirn zum Hinterkopf. In jeder Ebene haben
Voxel einen konstanten Z-Wert.
Jedes Voxel wird dann in binär 0 oder 1 umgesetzt, und zwar
entweder durch Vergleich mit einer vorgegebenen Tabelle,
oder durch Vergleichen mit einem Schwellenwert. Frieder et
al. hat in "Back-to-Front Display of Voxel Based Objects" in
IEEE Computer Graphics and Applications, Januar 1985, auf
den Seiten 55 bis 60 beschrieben, daß die Implementation von
Standard-BTF-Algorithmen das Lesen von Voxeln in einer
dreidimensionalen Anordnung bedeutet, die an der vom Stand
punkt des Beobachters entferntesten Ecke beginnt und mit
fortschreitender Erhöhung der X-, Y- und Z-Werte zunimmt.
Der Algorithmus erfordert dann das Transformieren der kon
vertierten Voxel für die Bildschirmanzeige. In der Praxis
wird jede Ebene von einem Plattenspeicher in den Arbeits
speicher nach auf- oder absteigenden Ebenen (d.h. Z-Werten)
eingelesen und mit aufsteigendem X und Y in jeder Ebene
gescannt und gedruckt. "Vordere" Ebenen überschreiben
"hintere" Ebenen und lassen die zuvor geschriebenen Voxel
verschwinden.
Eine vordere Ebene ist eine Ebene, die näher zu dem
Beobachtungspunkt des Beobachters liegt und die entweder den
niedersten oder höchsten Z-Wert je nach Ort des Beobachters
hat.
Ein Beobachtungspunkt wird auf das Objektkoordinatensystem
durch seine Position Xe, Ye und Ze in dem Koordinatensystem
bezogen und durch die Beobachtungsrichtung, die als die drei
Winkel eines Vektors definiert ist, der diese mit den Achsen
des Objektkoordinatensystems einschließen würde.
Ein Bildkoordinatensystem für eine Kathodenstrahlröhre wird
durch eine X-Achse parallel zu dem Boden der CRT, durch eine
Y-Achse parallel zum linken Rand der CRT und durch eine
Z-Achse definiert, die aus der Vorderseite der Bildröhre
herausragt. Dieses Koordinatensystem definiert den "Bildraum".
Eine Transformationsmatrix bildet die Voxeldaten um Objekt
raum bei Xv, Yv und Zv in Pixeldaten im Bildraum bei Xi, Yi
und Zi ab. Die Xi- und Yi-Koordinaten lokalisieren den Pixel
auf dem Schirm, wobei seine Helligkeit durch den Wert von Zi
eingestellt wird. Die Beobachtungsposition und die Beur
teilungstransformationen können in einer einzigen 4×4
Matrix kombiniert oder getrennt als 3×3 Matrix und als
Verschiebung (Addition) berechnet werden. Ein Nachteil der
bekannten BTF-Verfahren besteht darin, daß 3D-Bildrekonstruk
tionen typischerweise bis zu 16 000 000 Matrix-Transformationen
erfordern, die eine große Anzahl von Multiplikationen bein
halten. Die üblichen BTF-Transformationen mit einer 3×3
Matrix und ohne Verschiebungskomponenten besteht aus:
oder
Xi = a*Xv + d*Yv + g*Zv
Yi = b*Xv + e*Yv + h*Zv
Zi = c*Xv + f*Yv + i*Zv (2)
Yi = b*Xv + e*Yv + h*Zv
Zi = c*Xv + f*Yv + i*Zv (2)
Da Voxel jeweils immer nur für eine Ebene zur Zeit trans
formiert werden, sind die Zv-Werte über die gesamte Ebene
konstant. Die Transformationsberechnungen können daher
folgendermaßen vereinfacht werden:
Xi = a*Xv + d*Yv + K 1, worin K 1 = g*Zv
Yi = b*Xv + e*Yv + K 2, worin K 2 = h*Zv
Zi = c*Xv + f*Yv + K 3, worin K 3 = i*Zv (3)
Yi = b*Xv + e*Yv + K 2, worin K 2 = h*Zv
Zi = c*Xv + f*Yv + K 3, worin K 3 = i*Zv (3)
Die Konstanten K 1, K 2 und K 3 werden lediglich einmal je
Ebene berechnet und die Verschiebungswerte lassen sich
leicht in diese einschließen. Innerhalb jeder Ebene werden
die Voxel zeilenweise transformiert, so daß die Yv-Werte für
jede Zeile konstant sind. Die Transformationsgleichungen
lassen sich also auch weiter vereinfachen, und zwar auf:
Xi = a*Vx + K 4, worin K 4 = d*Yv + K 1
Yi = b*Xv + K 5, worin K 5 = e*Yv + K 2
Zi = c*Xv + K 6, worin K 6 = f*Yv + K 3 (4)
Yi = b*Xv + K 5, worin K 5 = e*Yv + K 2
Zi = c*Xv + K 6, worin K 6 = f*Yv + K 3 (4)
Die Konstanten K 4, K 5 und K 6 werden nur einmal je Zeile
berechnet. Um die Rechnung weiter zu unterstützen, werden
auf einer Zeile benachbarte Voxel in einer schrittweisen
Rechnung transformiert, was die Transformationsgleichung
folgendermaßen vereinfacht:
[Xi ] u+1 = [Xi ] u + a
[Yi ] u+1 = [Yi ] u + b
[Zi ] u+1 = [Zi ] u + c (5)
[Yi ] u+1 = [Yi ] u + b
[Zi ] u+1 = [Zi ] u + c (5)
Selbst mit den durch die Gleichungen (3)-(5) eingeführten
Vereinfachungen ist der zuvor beschriebene, bekannte BTF-
Algorithmus langsam, erfordert typischerweise mehrere
Millionen Rechenvorgänge je Bild und das erhaltene Bild kann
dennoch verfremdende Artifakte haben, wenn der Standpunkt
des Beobachters zu nahe am Objekt ist, denn das führt dazu,
daß benachbarte Voxel auf nicht benachbarten Pixeln
abgebildet werden, so daß im Bild Löcher erscheinen.
Es ist daher Aufgabe der Erfindung, die Anzahl der erforder
lichen Transformationen für das Projizieren eines Bildes mit
einem BTF-Algorithmus zu verringern.
Zur Lösung dieser Aufgabe dienen die Vorrichtungen nach
Patentanspruch 1 bzw. das Verfahren nach Patentanspruch 9.
Es ist ferner Ziel der Erfindung, die verfremdenden Arti
fakte zu reduzieren, indem die Voxel-Daten in einer Richtung
als eine Funktion der Pixel-Auflösung des Schirmes wieder
abgefragt werden.
Die Erfindung wird im folgenden anhand eines Ausführungs
beispiels näher erläutert; es zeigt
Fig. 1 ein Blockschaltbild einer Vorrichtung zum Erzeugen,
Transformieren und Anzeigen von 3D-Abbildungsdaten;
Fig. 2 ein Flußdiagramm der von der Vorrichtung nach
Fig. 1 durchgeführten Funktionen zur Transformation
von 3D-Abbildungsdaten vom Objektraum zum Bildraum;
Fig. 3 die transversen, sagittalen und koronalen Seiten
einer Gruppe von Voxel-Daten im Objektraum;
Fig. 4a die Abtastfolge der Gruppe von Voxeldaten nach
Fig. 3 zur Erzeugung von Lauflängen kodierten
Vektoren in der transversalen Flächenrichtung;
Fig. 4b die Abtastfolge für die Gruppe von Voxeldaten nach
Fig. 3 zur Erzeugung von Lauflängen kodierten
Vektoren in der sagittalen Flächenrichtung;
Fig. 5 eine "Pseudocode"-Angabe für den Lauflängen-Kodier
prozeß des Schrittes 42 von Fig. 2;
Fig. 6 eine schematische Darstellung von Ebenen von kon
vertierten Binär-Abbildungsdaten eines repräsentativen
zylindrischen Objekts vor der Transformation durch
den modifizierten BTF-Algorithmus nach der
Erfindung;
Fig. 7 eine schematische Darstellung eines Bildes des
zylindrischen Objekts von Fig. 6, das unter
Verwendung des modifizierten BTF-Algorithmus
transformiert wurde; und
Fig. 8 die Leserichtung für die lauflängenkodierten Daten
gruppen zur Erzeugung von rotierten Bildern eines
abgetasteten Objekts.
Die in den Figuren dargestellte Vorrichtung zeigt ein
zweidimensionales Kathodenstrahlbild eines Objekts unter
Verwendung eines modifizierten BTF-Algorithmus zur Trans
formation von Daten an, die Eigenschaften eines dreidimen
sionalen Objektes darstellen, das durch eine medizinische
Abbildungseinrichtung, beispielsweise einen Computer-Tomo
graphen gescannt wurde.
Die Vorrichtung weist eine dreidimensionale Abbildungsein
richtung zur Erzeugung von ersten Datenwerten auf, die eine
Eigenschaft des Objekts an einer Vielzahl von Punkte über
das Objekt darstellen. In der in Fig. 1 gezeigten
Ausführungsform ist der Röntgenstrahl-Scanner 16 eine drei
dimensionale Abbildungseinrichtung, die 512×512 Pixel je
Ebene erzeugt, die in 40 Ebenen durch das Objekt angeordnet
sind. Jedes Pixel stellt die Dichte des Objektes an der
entsprechenden Stelle dar.
Die Vorrichtung besitzt ferner Interpolationseinrichtungen,
die mit den Abbildungseinrichtungen gekoppelt sind, um aus
den ersten Datenwerten zweite Datenwerte zu erzeugen, die
die Eigenschaft des Objekts in einer Anzahl von parallelen
Ebenen durch das Objekt darstellen, Lauflängenkodiermittel,
die an die Umwandlungseinrichtung gekoppelt sind, um entlang
einer Anzahl von Pfaden in jeder der parallelen Ebenen eine
Anzahl von lauflängenkodierten Vektoren zu erzeugen, die
Richtungen und Längen haben, die aus den zweiten Datenwerten
bestimmt sind, und Rotiereinrichtungen zum Transformieren
jedes Vektors in ein Koordinatensystem, das auf einem
ausgewählten Ursprung basiert, der den Betrachtungspunkt
darstellt, von dem das Objekt aus beobachtet wird. In einer
zweckmäßigen Ausführungsform ist der Bildprozessor 14 ein
Bildprozessor der Anmelderin mit der Typenbezeichnung
CHP-01A, und der Teil des Scanners 10 ist. Zum Bildprozessor
14 gehört eine Zentraleinheit 22 mit zugehörigem Speicher
24, ein Speichermanager 26, ein Plattenspeicher 12, ein
Beobachtungspunkt 18 und eine Kathodenstrahlröhre 20. Die
Zentraleinheit 22, der Speicher 24 und der Speichermanager
26 steuern den Bildprozessor 14. Der Plattenspeicher dient
zur Speicherung der ersten Datenwerte vom Scanner 16 und die
Beobachtungspunkteinrichtung 18, die beispielsweise ein
Steuerstift oder eine andere interaktive Einrichtung ist,
stellt eine Einrichtung zur Auswahl eines Beobachtungspunktes
im Raum dar, von der das Objekt betrachtet werden soll. Die
Kathodenstrahlröhre 20 ist ein üblicher Monitor, mit dem man
graphische Information anzeigen kann. Mit ihm kann ein Bild
der gespeicherten Informationsvektoren aufgezeichnet werden.
Die genaue Funktion des Bildprozessors 14 im Abtastsystem
wird weiter unten näher erläutert. Es wird darauf
hingewiesen, daß die in Fig. 1 dargestellte Ausführungsform
derzeit bevorzugt wird, ohne jedoch darauf beschränkt zu
sein. Beispielsweise kann durchaus Schaltung vorgesehen
sein, um die Vektoren zu interpolieren, in der Lauflänge zu
kodieren und zu drehen.
Nachdem die Pixel erzeugt und auf der Platte 14 gespeichert
sind, werden die Pixeldaten vom Bildprozessor 14 gemäß den
Schritten des Schlußdiagramms 30 von Fig. 2 weiterverar
beitet. Zuerst werden die Pixeldaten im Schritt 32 von der
Datenspeicherplatte 12 gelesen. Hierauf wird zur Einsparung
von Speicherplatz jeder Ebene mit 512×512 Pixeln auf 256×
256 Pixel im Schritt 34 komprimiert. Die Daten werden dann
"kuberillt", d.h. in kubische Voxelelemente umgewandelt,
indem zwischen den Ebenen interpoliert wird, um 256 paral
lele, gleichmäßig beabstandete Zwischenebenen zu errechnen,
wodurch ein Volumen geschaffen wird, das 256×256×256=
16,777,216 Voxel (Schritt 36) enthält. Die Voxel werden dann
zweckmäßigerweise in Binär-Daten umgesetzt, indem man die
Daten mit einem Schwellenwert (Schritt 38) vergleicht. Der
Vergleichsstandard kann durch eine Tabelle gemäß Schritt 40,
oder durch andere Verfahren, beispielsweise durch Berechnen,
ermittelt werden.
Unter Berücksichtigung, daß eine gerade Linie im Objektraum
sich in eine gerade Linie im Bildraum transformiert,
brauchen nur die Endvoxel einer Voxelzeile vom Objektraum in
den Bildraum transferiert zu werden, und nicht alle auf der
gleichen Linie liegenden Zwischenvoxel. Dies führt zu
beträchtlichen Recheneinsparungen.
Fig. 6 zeigt die konvertierten Binär-Daten 90 eines reprä
sentativen zylindrischen Objekts, das in einer von verschie
denen parallelen Ebenen liegt. Lineare Gruppen von zusammen
hängenden Binär-Datenwerten 92 a und 92 b, die nicht 0 sind,
können als Vektoren betrachtet werden, die durch eine Länge
und einen Startpunkt definiert sind. Die Vektoren trans
formieren sich in gerade Linien 104 a und 104 b nach Fig. 7
im Bildraum. Als Folge davon wird eine Anzahl von lauf
längenkodierten (RLC)-Vektoren aus den Binär-Daten im
Schritt 42 von Fig. 2 erzeugt. Die Lauflängenkodierung
konvertiert eine Kette von Voxeln, die nicht 0 sind, entlang
einem Weg im Objektraum in einem Vektor (Xv, Yv, Zv, L),
wobei der Startpunkt jedes Vektors durch die Koordinaten Xv,
Yv und Zv definiert ist und die Länge L ist, während die
Richtung parallel zu dem vorgegebenen Pfad verläuft.
Fig. 3 zeigt einen Wüfel 70 im Objektraum, der mit einem
3D-Koordinatensystem X, Y und Z in bezug gesetzt wurde und
aus 256 parallelen Ebenen besteht, die jeweils 256×256
Voxeln enthalten. Der Voxelwürfel hat drei orthogonale
Flächen, die durch den Ursprung des Koordinatensystems
verlaufen: (1) die transversale Fläche 72, in der alle
Z-Werte konstant sind; (2) die sagittale Fläche 74, in der
alle X-Werte konstant sind; und (3) die koronale Fläche 76,
in der alle Y-Werte konstant sind. In einer Ausführungsform
soll die Lauflängenkodierung der Voxel zu Vektoren in einer
Voxelebene 80 nach Fig. 4a beginnen, welche parallel zu der
Transversalfläche verläuft und bei Z = 255 liegt. Voxel
werden zuerst in X-Richtung von X = 255 am Punkt 82 von
Fig. 4a zu X = 0 am Punkt 84 entlang einem Weg kodiert, bei
dem Y = 0 ist. Die Koordinaten des ersten Voxels, der auf
dem Pfad nicht 0 ist, werden als Startpunkt eines RLC-Vek
tors von Einheitslänge gespeichert. Während auf dem Pfad
jedes nächstfolgende Voxel, das nicht 0 ist, angesprochen
wird, wird die Länge des RLC-Vektors um eins erhöht. Die Länge
des RLC-Vektors endet am letzten angetroffenen Voxel, das
nicht Null ist.
Der nächste Voxelwert, der auf dem Pfad angetroffen wird und
der nicht Null ist, stellt den Anfangspunkt für einen neuen
RLC-Vektor dar und das Verfahren zum Identifizieren der
Startkoordinaten eines Einheitsvektors und das Vergrößern
der Länge des Vektors, wenn weitere Voxel angetroffen
werden, die nicht Null sind, wird für einen neuen Vektor
wiederholt. Am Ende des Pfades, wenn X = 0 ist, wird der
Wert für Y um ein Voxel erhöht und das Verfahren wird
entlang des neuen Pfades fortgesetzt. Das Verfahren zum
Scannen eines Pfades, Erhöhen von Y und Scannen des nächsten
Pfades setzt sich so lange fort, bis die gesamte Ebene bei Z
= 255 durchlaufen ist. Hierauf wird der Wert für Z
verringert und das Verfahren des Kodierens von Vektoren
entlang der nächsten Ebene 86 wird durchgeführt.
Jede nachfolgende Ebene wird gescannt, bis alle Ebenen
parallel zur Transversalfläche 72 abgetastet wurden. Das
Scannen wird anschließend für jede Ebene parallel zur
Sagittalfläche 74 gemäß Fig. 4b fortgesetzt und dann für
jede Ebene parallel zur Koronalfläche 76, wie dies in Fig.
4c angedeutet ist. Die Abtastfolge zum Kodieren des gesamten
Voxelwürfels ist eine Reihe von programmierten Schleifen,
die in Fig. 5 in Form eines "Pseudocods" dargestellt ist.
Jedes auf einem Pfad liegende Voxel wird kodiert und jeder
Pfad wird auf einer Ebene vervollständigt und auch jede
parallele Ebene zu der Seite wird in der folgenden Ordnung
abgearbeitet:
- 1. Ebenen parallel zur Transversalfläche von Z = 255
bis Z = 0.
- a. Pfade auf jeder Transversalebene, von Y = 0
bis Y = 255.
- i. Voxel auf jedem Pfad, von X = 255 bis X = 0.
- a. Pfade auf jeder Transversalebene, von Y = 0
bis Y = 255.
- 2. Ebenen parallel zur Sagittalfläche von X = 255 bis
X = 0.
- a. Pfade auf jeder Sagittalebene, von Y = 0 bis
Y = 255.
- i. Voxel auf jedem Pfad von Z = 0 bis Z = 255.
- a. Pfade auf jeder Sagittalebene, von Y = 0 bis
Y = 255.
- 3. Ebenen parallel zur Koronalfläche von Y = 0 bis Y
= 255.
- a. Pfade auf jeder Koronalfläche, von Z = 0 bis Z
= 255.
- i. Voxel auf jedem Pfad, von X = 255 bis X = 0.
- a. Pfade auf jeder Koronalfläche, von Z = 0 bis Z
= 255.
Die Fig. 4a und 4b und 4c zeigen die Richtung der
Scannpfade auf ein Paar parallel zu jeder Seite verlaufenden
repräsentativen Ebenen. Die Lauflängenkodierung produziert
auf diese Weise drei Gruppen von RLC-Vektoren. Alle Vektoren
in jeder Gruppe sind parallel zueinander, und die Vektoren
in jeder Gruppe sind orthogonal zu Vektoren in jeder anderen
Gruppe.
Der nächste größere Schritt zur Umwandlung der Voxeldaten in
ein CRT-Bild betrifft das Drehen der RLC-Vektoren (Schritt
44 in Fig. 2) im Sinne einer Anpassung an die Ausrichtung
des Betrachtungspunktes eines Beobachters, wie er im Schritt
46 ausgewählt ist.
Durch das Lesen jeder der drei RLC-Datengruppen, und zwar
entweder vorwärts oder rückwärts, lassen sich sechs
verschiedene Ansichten des Bildes durch den Bildprozessor
von Fig. 1 darstellen. Jede Ansicht kann bis zu plus oder
minus 45° um die X- und Y-Achsen gedreht werden, indem ein
Beobachter die Betrachtungspunkteinrichtung 18 von Fig. 1
manipuliert, während weiterhin die BTF-Anzeige erfolgt.
Fig. 8 zeigt die Datengruppen, die verwendet werden müssen,
um die bestimmten Drehungen um die X- und Y-Achsen stets an
dem BTF-Algorithmus angepaßt zu halten. In Fig. 8 bedeutet
"Inc." und "Dec." die Richtung, die durch den Speicher
verläuft, um auf die Vektordaten zu greifen, und damit die
Reihenfolge, in der die Vektoren gezeichnet werden. Eine
positive Drehung stellt eine Drehung im Uhrzeigersinn auf
eine Achse dar, die in Richtung auf den Ursprung zeigt, und
die Drehung erfolgt zuerst um die X-Achse, wonach eine
Drehung um die Y-Achse vorgenommen wird, während das Dreh
zentrum der Mittelpunkt des 256×256×256 Voxelwürfels 70
von Fig. 3 ist. Je nach verwendetem RLC-Datenset zur
Erzeugung des Bildes wird eine von drei Transformations
matrizen vom Bildprozessor 14 nach Fig. 1 verwendet, um die
Vektoren von ihrer Objektraumorientierung in ihre Bildraum
orientierung zu drehen, so daß daraus ein Objekt hervorgeht,
das in der gleichzen Position und Orientierung unabhängig
von dem verwendeten Datenset liegt. Die Transformations
matrizen werden folgendermaßen zur Verwendung mit jedem
Datenset ausgewählt:
Transversales RLC-Datenset: | |
[Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Tt ] | |
Sagittales RLC-Datenset: | [Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Ts ] |
Koronales RLC-Datenset: | [Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Tc ] |
Die Transformationsmatrizen werden als Produkte der Rotationsmatrizen
folgendermaßen definiert:
[Tt ] = [Tx ] * [Ty ]
[Ts ] = [Zz ] * [Ty ]
[Tc ] = [Tx ] * [Ty ]
[Ts ] = [Zz ] * [Ty ]
[Tc ] = [Tx ] * [Ty ]
Die Rotationsmatrizen werden folgendermaßen definiert:
worin die Winkel A und B Drehungen im Uhrzeiger sind, um die
X- und Y-Achsen in Richtung auf den Ursprung darzustellen.
Der letzte Schritt für die Erzeugung eines Bildes auf dem
Bildschirm 20 betrifft die Scann-Umwandlung (Schritt 48).
Dies besteht darin, daß die rotierten Vektoren in einen 256
×256 "Z"-Puffer im Bildprozessor 14 geschrieben werden,
beispielsweise unter Zuhilfenahme eines Zeilenschreiber
algorithmus nach dem Prinzip Digital Differenzial Analy
sator, wie er in "Principles of Interactive Computer
Graphics" von Newman and Sproull, Computer Science Series 2d
beschrieben ist. Die Länge jedes rotierten Vektors, wie er
auf die X-Y-Bildebene projiziert ist, bestimmt die Anzahl
der Pixel auf dem Bildschirm, die von jedem Vektor einge
schaltet sind. Zuerst werden die Startadresse und der
Anfangswert für Z für jeden Vektor berechnet. Alle Vektoren
in einer Datengruppe sind sowohl vor als auch nach der
Transformation parallel, so daß eine konstante Adressen- und
Z-Erhöhung für alle Vektoren verwendet wird, um aufeinander
folgende Pixeladressen und Werte innerhalb jedes Vektors zu
bezeichnen. Vektoren werden daher durch wiederholtes
Addieren von konstanten Adressen- und Z-Erhöhungen zu der
Startadresse und dem Anfangs-Z-Wert über eine Länge von
Pixeln aufgezeichnet, die der Originalvektorlänge ent
spricht, wie er auf die Bildebene projiziert ist.
Da die originalen Voxel kodiert und als Vektoren aufge
zeichnet sind, haben sie keine Artifakte oder Löcher, die
durch eine zu geringe Datenprobennahme aus bitgepackten
Daten für nicht orthogonale Objektorientierungen verursacht
sind. Um jedoch Artifakte und Löcher zwischen Vektoren zu
vermeiden, muß jeder Vektor auf der Bildröhre zweimal
gezeichnet werden, wobei der zweite Vektor eine Startadresse
und einen Anfangs-Z-Wert hat, der gegenüber dem ersten
Vektor geringfügig verlagert ist.
Das Transformieren des Anfangspunkts auf einer Linie von
Voxeln in dem Bildraum und das Zeichnen von beim Abtasten
konvertierten lauflängenkodierten Abschnitten unter Verwendung
eines erfindungsgemäßen Algorithmus führt zu einem ähnlichen
Resultat wie ein bekanntes BTF-Verfahren, allerdings erfolgt
eine große Einsparung an Rechenvorgängen. Diese entspricht
der Lauflängenkodierung des Bildes für lediglich die Voxel,
die nicht Null sind. Daher braucht die Gleichung 3 nur zur
Ermittlung des Anfangspunktes für jedes lauflängenkodierte
Segment Xi, Yi und Zi berechnet zu werden, und nicht jedes
Voxel, wie dies bei dem bekannten BTF-Algorithmus der Fall
ist. In Fig. 6 sind etwa zwei lauflängenkodierte Segmente
je Zeile vorhanden, so daß zwei Anfangspunktwerte für jede
Zeile berechnet werden müssen, ebenso ihre projizierten
Längen auf der Bildebene.
Anstatt das bekannte BTF-Verfahren zum Berechnen eines
Helligkeitswertes für jedes Voxel entlang der in den
Bildraum transformierten Zeile zu verwenden, wird der ent
sprechende Z-Wert für jeden Pixel im Bildraum, der von den
scannkonvertierten, lauflängenkodierten Zeilensegmenten
berührt wird, berechnet, um die Bildhelligkeit entlang der
Linie zu berechnen, um einen Tiefeneindruck zu geben. Die
Anzahl der Helligkeitsberechnungen hängt daher von der
Anzahl der Pixel ab, die von der projizierten Linie berührt
werden, und nicht von der Anzahl der Voxel, die die
projizierte Linie bilden. Eine aus 100 Voxeln bestehende
Linie, die lediglich 50 Pixel berührt, erfordert daher nur
50 Helligkeitsberechnungen. Das Umgekehrte ist ebenfalls
richtig und zusätzliche Berechnungen können durchgeführt
werden, um Löcher in den Pixeldaten aufzufüllen, wodurch
verfälschende Artifakte ausgeschaltet werden, die daher
stammen, daß ein Beobachter seinen Betrachtungspunkt zu nahe
zu dem Objekt gewählt hat, so daß Löcher in dem CRT-Bild
auftreten.
Das erfindungsgemäße Verfahren reduziert die Anzahl der für
die Transformation eines Bildes vom Objektraum zu einem Bild
im Bildraum wesentlich. Der Berechnungsvorteil läßt sich am
besten dadurch demonstrieren, daß man die Rechenvorgänge
vergleicht, die erforderlich sind, um das Bild des zylindri
schen Objektes von Fig. 6 mit dem bekannten BTF-Algorithmus
und mit dem erfindungsgemäßen modifizierten BTF-Algorithmus
zu vergleichen. Es sei angenommen, daß jedes lauflängenkodierte
Segment 92 a oder 92 b des zylindrischen Objekts 90 von Fig.
6 25 Voxel lang ist und in ein scannkonvertiertes, lauf
längenkodiertes Segment 104 a und 104 b in Fig. 7 trans
formiert wird, das 25 Pixel lang ist. Nach dem bekannten
Verfahren muß die Gleichung (3) 2×256×256mal oder
einmal für jedes Anfangsvoxel je Segment zusammen mit der
projizierten Längenberechnung für jeden Vektor Lp berechnet
werden, wobei
Lp = Lv × abs(b) .
Lv ist die Länge ds Vektors im Objektraum und b ist der
Term einer Rotationsmatrix der Form
Die Gleichung (5) muß nach der erfindungsgemäßen Modifikation
25×2×256×256mal ausgewertet werden.
Die Berechnungen, die nach einem bekannten BTF-Algorithmus
erforderlich wären, sind folgende
Gesamtzahl der Additionen und Multiplikationen: 50,724,864.
Die nach dem modifizierten BTF-Algorithmus gemäß Erfindung
erforderlichen Rechenvorgänge setzen sich folgendermaßen
zusammen:
Die Gesamtzahl der Additionen und Multiplikationen beträgt
11,534,336.
Während das Bild rotiert wird, nimmt die Anzahl der Rechen
vorgänge aufgrund von Verkürzung ab. Beispielsweise ist bei
einer 45°-Drehung die Länge der Segmente nur noch 18 Pixel
anstelle von 25, was die Anzahl der arithmetischen Opera
tionen auf etwa 10 000 000 reduziert.
Claims (16)
1. Vorrichtung zum Anzeigen eines zweidimensionalen Bildes
eines dreidimensionalen Objekts, gekennzeichnet durch:
- (a) dreidimensionale Abbildungseinrichtungen zur Erzeugung von ersten Datenwerten, die eine Eigenschaft des Objektes an einer Anzahl von Punkten des Objektes darstellen;
- (b) Interpolationseinrichtungen, die an die Abbildungsein richtungen gekopppelt sind und die zur Erzeugung von zweiten Datenwerten aus den ersten Datenwerten dienen, wobei die zweiten Datenwerte die Eigenschaften des Objektes in einer Anzahl von parallelen Ebenen durch das Objekt darstellen:
- (c) Lauflängenkodiereinrichtungen zur Erzeugung einer Anzahl von lauflängenkodierten Vektoren entlang einer Anzahl von Pfaden in jeder der parallelen Ebenen, wobei die Vektoren Richtungen und Längen haben, die von dem zweiten Datenwerten bestimmt sind; und
- (d) Rotationsmittel zum Transformieren jedes Vektors in ein Koordinatensystem, das auf einem ausgewählten Ursprung basiert, der den Betrachtungspunkt darstellt, von dem aus das Objekt betrachtet wird.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die dreidimensionale Abbildungseinrichtung Mittel
zum Speichern der ersten Datenwerte aufweist.
3. Vorrichtung nach Anspruch 1, gekennzeichnet durch
Umwandlungsmittel, die an die Interpolationsmittel
angeschlossen sind, um die zweiten Daten in binäre
Datenwerte umzuwandeln.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Lauflängenkodiereinrichtung Mittel zum Bilden
der Vektoren mit Anfangspunkten aufweist, die bei einem
ersten Auftreten eines binären Datenwerts liegen, der
auf den Pfaden angetroffen wird, und mit Längen, die
gleich wie die aufeinanderfolgende Zahl der einen
binären Datenwerte ist, die auf den Pfaden angetroffen
werden.
5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Rotationseinrichtung Mittel zum Auswählen eines
Betrachtungspunktes in Raum aufweist, von dem aus das
Objekt betrachtet wird.
6. Vorrichtung nach Anspruch 1, gekennzeichnet durch
Scann-Umwandlungseinrichtungen, die an die Rotations
einrichtungen gekoppelt sind, um jeden der transfor
mierten Vektoren, die auf jeder der Ebenen liegen, in
vorgegebener Ordnung zu speichern.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet,
daß die Scann-Umwandlungseinrichtung eine Vektorspeicher
einrichtung zum Speichern der transformierten Vektoren
in vorgebener Ordnung aufweist, und zwar beginnend mit
einer Ebene, die am weitesten von dem Beobachtungspunkt
entfernt liegt.
8. Vorrichtung nach Anspruch 6, gekennzeichnet durch
Anzeigemittel, die an die Scann-Umwandlungseinrichtungen
gekoppelt sind, um ein Kathodenstrahlröhrenbild der
gespeicherten transformierten Vektoren aufzuzeichnen.
9. Verfahren zum Anzeigen eines zweidimensionalen Bildes
eines dreidimensionalen Objekts, gekennzeichnet durch
die Schritte:
- (a) Erzeugen von ersten Datenwerten, die eine Eigen schaft des Objektes an einer Anzahl von Punkten des Objektes darstellen;
- (b) Interpolieren der ersten Datenwerte zur Erzeugung von zweiten Datenwerten, die die Eigenschaften des Objektes in einer Anzahl von parallelen Ebenen durch das Objekt darstellen;
- (c) Erzeugen einer Anzahl von lauflängenkodierten Vektoren entlang einer Anzahl von Pfaden in jeder der parallelen Ebenen mit Richtungen und Längen, die von den zweiten Datenwerten bestimmt werden; und
- (d) Transformieren jedes der Vektoren in ein Koordinaten system, das auf einem ausgewählten Ursprung basiert, der einen Beobachtungspunkt darstellt, von dem das Objekt zu betrachten ist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
das Erzeugen der ersten Datenwerte auf das Speichern
der ersten Datenwerte anschließt.
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
die zweiten Datenwerte vor dem Erzeugen der lauflängen
kodierten Vektoren in Binärwerte umgewandelt werden.
12. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
das Erzeugen der lauflängenkodierten Vektoren den
Unterschritt enthält, die lauflängenkodierten Vektoren
mit Anfangspunkten zu bilden, die bei einem ersten
Auftreten eines binären Datenwerts liegen, der entlang
jedem der Pfade angetroffen wird und wobei die Längen
gleich der aufeinanderfolgenden Zahl der einen binären
Datenwerte sind, die auf den Pfaden angetroffen werden.
13. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
das Transformieren jedes der Vektoren ferner das Aus
wählen eines Betrachtungspunktes im Raum einschließt,
von dem das Objekt zu betrachten ist.
14. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
jeder der transformierten Vektoren von jeder der Ebenen
in vorgegebener Ordnung gespeichert wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß
der Schritt des Speicherns in vorgegebener Ordnung
ferner das Beginnen mit der Ebene einschließt, die von
dem Betrachtungspunkt am weitesten entfernt liegt.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß
ein Kathodenstrahlröhrenbild der in vorgegebener
Ordnung gespeicherten transformierten Vektoren gezeichnet
wird.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/062,598 US4827413A (en) | 1987-06-16 | 1987-06-16 | Modified back-to-front three dimensional reconstruction algorithm |
Publications (1)
Publication Number | Publication Date |
---|---|
DE3832222A1 true DE3832222A1 (de) | 1990-03-29 |
Family
ID=22043540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3832222A Granted DE3832222A1 (de) | 1987-06-16 | 1988-09-22 | Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes |
Country Status (2)
Country | Link |
---|---|
US (1) | US4827413A (de) |
DE (1) | DE3832222A1 (de) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5088054A (en) * | 1988-05-09 | 1992-02-11 | Paris Ii Earl A | Computer graphics hidden surface removal system |
US5226113A (en) * | 1989-10-30 | 1993-07-06 | General Electric Company | Method and apparatus for volumetric projection rendering using reverse ray casting |
FR2653919A1 (fr) * | 1989-10-30 | 1991-05-03 | Gen Electric | Procede et appareil pour la restitution de projections volumetriques utilisant la projection inverse de rayons. |
US5187660A (en) * | 1989-12-01 | 1993-02-16 | At&T Bell Laboratories | Arrangement for displaying on a display volumetric data |
US5129054A (en) * | 1990-03-12 | 1992-07-07 | International Business Machines Corporation | Specifying 3d reference points in 2d graphic displays |
US5555352A (en) * | 1991-04-23 | 1996-09-10 | International Business Machines Corporation | Object-based irregular-grid volume rendering |
US5644689A (en) * | 1992-01-13 | 1997-07-01 | Hitachi, Ltd. | Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint |
US5303706A (en) * | 1992-05-21 | 1994-04-19 | North American Philips Corporation | Directional interpolation for magnetic resonance angiography |
US5365996A (en) * | 1992-06-10 | 1994-11-22 | Amei Technologies Inc. | Method and apparatus for making customized fixation devices |
US5368033A (en) * | 1993-04-20 | 1994-11-29 | North American Philips Corporation | Magnetic resonance angiography method and apparatus employing an integration projection |
US5512920A (en) * | 1994-08-17 | 1996-04-30 | Mitsubishi Electric Research Laboratories, Inc. | Locator device for control of graphical objects |
CA2198611A1 (en) * | 1994-09-06 | 1996-03-14 | Arie E. Kaufman | Apparatus and method for real-time volume visualization |
US5594842A (en) * | 1994-09-06 | 1997-01-14 | The Research Foundation Of State University Of New York | Apparatus and method for real-time volume visualization |
US5581635A (en) * | 1995-07-25 | 1996-12-03 | United Parcel Service Of America, Inc. | Method and system for fast rotation of run-length encoded images |
US6222939B1 (en) | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
EP0992023A4 (de) * | 1997-04-15 | 2001-04-18 | Res Foundation Of | Gerät und verfahren zur parallelen und perspektivischen echtzeit-volumen-visualisierung |
US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
US6301370B1 (en) | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
AU3639699A (en) | 1998-04-13 | 1999-11-01 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
US6714661B2 (en) | 1998-11-06 | 2004-03-30 | Nevengineering, Inc. | Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image |
US7050655B2 (en) * | 1998-11-06 | 2006-05-23 | Nevengineering, Inc. | Method for generating an animated three-dimensional video head |
US7050624B2 (en) * | 1998-12-04 | 2006-05-23 | Nevengineering, Inc. | System and method for feature location and tracking in multiple dimensions including depth |
US6466695B1 (en) | 1999-08-04 | 2002-10-15 | Eyematic Interfaces, Inc. | Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives |
US6544178B1 (en) | 1999-11-05 | 2003-04-08 | Volumetrics Medical Imaging | Methods and systems for volume rendering using ultrasound data |
EP1264281A4 (de) * | 2000-02-25 | 2007-07-11 | Univ New York State Res Found | Anordnung und verfahren zur bearbeitung und wiedergabe eines volumen |
US20020012472A1 (en) * | 2000-03-31 | 2002-01-31 | Waterfall Andrew E. | Method for visualization of time sequences of 3D optical fluorescence microscopy images |
IL136373A0 (en) * | 2000-05-25 | 2001-06-14 | Itpen Ltd Partnership Israel | Representation of three-dimensional bodies on computer screens and games involving such representations |
US6917703B1 (en) | 2001-02-28 | 2005-07-12 | Nevengineering, Inc. | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network |
US7392287B2 (en) * | 2001-03-27 | 2008-06-24 | Hemisphere Ii Investment Lp | Method and apparatus for sharing information using a handheld device |
US6676014B2 (en) * | 2001-03-31 | 2004-01-13 | Koninklijke Philips Electronics N.V. | Machine readable label system with offline capture and processing |
US20030206181A1 (en) * | 2001-04-13 | 2003-11-06 | Abb Ab | System and method for organizing two and three dimensional image data |
US6834115B2 (en) | 2001-08-13 | 2004-12-21 | Nevengineering, Inc. | Method for optimizing off-line facial feature tracking |
US6853379B2 (en) * | 2001-08-13 | 2005-02-08 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
US6876364B2 (en) | 2001-08-13 | 2005-04-05 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
US20050110793A1 (en) * | 2003-11-21 | 2005-05-26 | Steen Erik N. | Methods and systems for graphics processing in a medical imaging system |
US7525543B2 (en) * | 2004-08-09 | 2009-04-28 | Siemens Medical Solutions Usa, Inc. | High performance shading of large volumetric data using screen-space partial derivatives |
DE102005044405A1 (de) * | 2005-09-16 | 2007-03-22 | Siemens Ag | Verfahren zur bildlichen Darstellung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, medizinischen Instruments |
WO2010025458A1 (en) * | 2008-08-31 | 2010-03-04 | Mitsubishi Digital Electronics America, Inc. | Transforming 3d video content to match viewer position |
US20100225567A1 (en) * | 2009-03-03 | 2010-09-09 | Time-O-Matic, Inc. | Electronic display |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3705124A1 (de) * | 1986-02-21 | 1987-09-24 | Gen Electric | Anzeigeprozessor und videoverarbeitungsuntersystem fuer computergraphik |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4736330A (en) * | 1984-09-04 | 1988-04-05 | Capowski Joseph J | Computer graphics display processor for generating dynamic refreshed vector images |
US4737921A (en) * | 1985-06-03 | 1988-04-12 | Dynamic Digital Displays, Inc. | Three dimensional medical image display system |
US4729098A (en) * | 1985-06-05 | 1988-03-01 | General Electric Company | System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body |
-
1987
- 1987-06-16 US US07/062,598 patent/US4827413A/en not_active Expired - Lifetime
-
1988
- 1988-09-22 DE DE3832222A patent/DE3832222A1/de active Granted
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3705124A1 (de) * | 1986-02-21 | 1987-09-24 | Gen Electric | Anzeigeprozessor und videoverarbeitungsuntersystem fuer computergraphik |
Non-Patent Citations (1)
Title |
---|
Frieder, Gordon, Reynolds: "Back-to-Front Display of Voxel-Based Objects" in IEEE Computer Graphics and Applications, Januar 1985, S. 52-60 * |
Also Published As
Publication number | Publication date |
---|---|
US4827413A (en) | 1989-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3832222A1 (de) | Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes | |
DE4314265B4 (de) | Displaysystem | |
DE19807053B4 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
DE60313742T2 (de) | Verfahren und geräte für schnelle fächerstrahl-tomographie | |
EP0318176B1 (de) | Bildverarbeitungsverfahren und -gerät | |
DE69737720T2 (de) | Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem | |
DE69919464T2 (de) | Elektronische Vorrichtung zur Bildausrichtung | |
DE3735519C2 (de) | Binäre Rauminterpolation | |
DE2804732C2 (de) | Medizinisches Untersuchungsgerät | |
US20020186820A1 (en) | Three-dimensional image display device in network | |
DE102005023964A1 (de) | Volumenvisualisierung mittels Texturverschiebung | |
DE19858306A1 (de) | C-Arm Kalibrierungsverfahren unter Anwendung einer planaren Transformation zur 3D-Rekonstruktion bei einem Bildsystem | |
DE102004063053A1 (de) | Verfahren und System zum Visualisieren dreidimensionaler Daten | |
DE19819800A1 (de) | Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern | |
DE69916808T2 (de) | Verfahren und system zur strahlverfolgung | |
DE2835689A1 (de) | Anordnung zur veraenderung der aufloesung bei der bild-datenerfassung und -uebertragung | |
DE60036393T2 (de) | Verfahren zur schnellen rückprojektion von bildern durch mehrstufige bereichszerlegung | |
DE102005029225A1 (de) | System und Verfahren zur schnellen Erzeugung von Maximum/Minimum-Intensitätsprojektionen hoher Qualität | |
DE69921608T2 (de) | Verfahren und vorrichtung zum zoomen von digitalen bilddateien | |
DE60100806T2 (de) | Abbildung von volumendaten | |
DE10054814A1 (de) | Verfahren und Vorrichtung zur Registrierung von Bildern | |
DE4224568A1 (de) | Verfahren und vorrichtung zum aufbau der anzeige eines dreidimensionalen oberflaechen-schattierungsbildes | |
EP1843296A1 (de) | Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten | |
DE3710011A1 (de) | Verfahren, bei dem ein untersuchungsbereich aus mehreren strahlenquellenpositionen durchstrahlt wird | |
DE69934562T2 (de) | Oberflächensichtbarmachung aus volumetrischen Daten unter Verwendung von Würfelteilung und -Streckung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8128 | New person/name/address of the agent |
Representative=s name: STOLBERG-WERNIGERODE, GRAF ZU, U., DIPL.-CHEM. DR. |
|
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |