DE3831428A1 - Verfahren und vorrichtung zum erzeugen einer tiefenkarte - Google Patents
Verfahren und vorrichtung zum erzeugen einer tiefenkarteInfo
- Publication number
- DE3831428A1 DE3831428A1 DE3831428A DE3831428A DE3831428A1 DE 3831428 A1 DE3831428 A1 DE 3831428A1 DE 3831428 A DE3831428 A DE 3831428A DE 3831428 A DE3831428 A DE 3831428A DE 3831428 A1 DE3831428 A1 DE 3831428A1
- Authority
- DE
- Germany
- Prior art keywords
- zone
- depth map
- projection plane
- viewing direction
- given
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Image Generation (AREA)
Description
Die Erfindung betrifft eine pseudo-dreidimensionale Anzeige
(Pseude-3D-Anzeige), d. h. eine perspektivische Anzeige
eines dreidimensionalen Objekts. Insbesondere betrifft die
Erfindung ein Verfahren und eine Vorrichtung zum Erzeugen
einer Tiefenkarte eines dreidimensionalen Objekts. Eine
solche Tiefenkarte wird bei der Aufbereitung einer perspektivischen
Bildanzeige benutzt. Die Tiefenkarte wird aus 3D-
Bilddaten erzeugt, die ein dreidimensionales Objekt definieren,
und bei denen es sich um eine Sammlung von Volumenelementen
(sogenannten "Voxels"), also um Elemente mit 3D-
Struktur, handelt.
Es gibt bereits Verfahren zum Aufbereiten eines Pseudo-3D-
Bildes oder eines perspektivischen Bildes aus Bilddaten mit
3D-Struktur, die ähnlich einer Reihe benachbarter CT-Bilder
aus einer Anzahl von Volumenelementen (Voxels) bestehen,
die ein dreidimensionales Objekt (3D-Objekt) repräsentieren.
Bei diesen Verfahren wird das perspektivische Bild
z. B. für Analysezwecke und zur Unterscheidung der Bilddaten
im Rahmen medizinischer Diagnoseverfahren eingesetzt.
Das perspektivische Bild wird folgendermaßen erzeugt:
Zunächst wird für jedes Bildelement einer Blickebene, die
entsprechend der gewünschten Blickrichtung ein zweidimensionales
(2D) Blickfeld bildet, d. h. eine Projektionsebene
bildet, der Abstand von der Projektionsebene zur Oberfläche
eines Objekts aus den Bilddaten der 3D-Struktur, dargestellt
durch Voxels, ermittelt, und dann wird eine Tiefenkarte
hergestellt, welche die Verteilung der Abstände zu
der Objektoberfläche in der gewünschten Blickrichtung angibt.
Dann wird ein vorbestimmter Gradationsprozeß durchgeführt,
um jedem Bildelement der Tiefenkarte eine Gradation
ähnlich einem Dichtewert zuzuordnen, um so das perspektivische
Bild zu erhalten.
Damit eine Bedienungsperson selektiv die Blickrichtungen
der perspektivischen Anzeige durch geeignete Befehle ändern
kann, wird der oben beschriebene Vorgang bei der Erstellung
der Tiefenkarte in einem herkömmlichen System bei jeder Änderung
der Blickrichtung wiederholt durchgeführt.
Die Erzeugung einer Tiefenkarte mit Hilfe eines für allgemeine
Zwecke verwendbaren Rechners (general-purpose computer)
nimmt üblicherweise beträchtliche Zeit in Anspruch,
beispielsweise mehrere zehn Minuten, da notwendigerweise
unterschieden werden muß, ob in Blickrichtung für jedes
Bildelement eines zweidimensionalen Bildfeldes über der Gesamtheit
der Voxels ein Objekt bzw. ein Objektteil vorhanden
ist oder nicht. Um diese Verarbeitungszeit herabzusetzen,
werden in üblichen Systemen speziell für diese Zwecke
ausgelegte Prozessoren (special-purpose processor) eingesetzt,
die speziell für diesen Typ von Datenverarbeitung
ausgelegt sind.
Doch auch mit Hilfe solcher Spezial-Purpose-Prozessoren
werden mehrere Sekunden für die Datenverarbeitung benötigt,
also zu viel Zeit für eine wirkliche Echtzeitverarbeitung.
Aufgabe der Erfindung ist die Schaffung eines Verfahrens
und einer Vorrichtung zum Erstellen einer Tiefenkarte bei
beträchtlich heraufgesetzter Arbeitsgeschwindigkeit.
Diese Aufgabe wird durch die in den Ansprüchen angegebene
Erfindung gelöst.
Im folgenden werden Ausführungsbeispiele der Erfindung anhand
der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 und 2 Diagramme zum Veranschaulichen des
grundlegenden Prinzips einer Ausführungsform
der Erfindung, und
Fig. 3 ein Blickdiagramm einer Einrichtung
zum Erzeugen einer Tiefenkarte
gemäß einer Ausführungsform der
Erfindung entsprechend dem in Fig. 1
und 2 veranschaulichten Prinzip.
Fig. 1 und 2 veranschaulichen das der Erfindung zugrundeliegende
Arbeitsprinzip.
Fig. 1 zeigt ein Objekt 13, eine dreidimensionale oder 3D-
Zone 11, die das Objekt einschließt und bei der es sich
z. B. um einen Kubus handelt, und eine Projektionsebene 12
für eine gewünschte Blickrichtung. Der Kubus 11 besitzt
sechs Flächen C 1 bis C 6, wie aus Fig. 2 hervorgeht.
In den dargestellten 3D-Koordinaten (x, y, z) ist Ld eine
Normale, gezogen von einem Punkt Ps (x, y, z) auf der Projektionsebene
12 in Richtung auf den Kubus 11, und c (x, y,
z) ist der Kreuzungspunkt zwischen Ld und einer Seite C 1
des Kubus 11. Zd soll der Abstand zwischen dem Punkt PS (x,
y, z) und dem Punkt C (x, y, z) sein. Qs (x, y, z) sei der
Kreuzungspunkt zwischen dem Objekt 13 und einer Linie Ld 1,
bei der es sich um eine Verlängerungslinie von C (x, y, z)
aus handelt. Zc sei der Abstand zwischen C (x, y, z) und
diesem Punkt Qs (x, y, z). In diesem Fall liegt das Objekt
13 auf der Linie Ld 1, jedoch nicht auf Ld. Beim Erzeugen
einer Tiefenkarte in 2D-Koordinaten (x′, y′) auf der Projektionsebene
12 wird also, wenn erst einmal die Blickrichtung
ϕ, R) festgelegt ist, der Abstand Z (x′, y′) zwischen
Ps (x′, y′) auf der Projektionsebene 12 oder Ps (x, y, z)
und Qs (x, y, z) folgendermaßen ausgedruckt:
Z (x′, y′) = (Länge von Ld) + (Länge von Ld 1)
= Zd + Zc . . . (1)
Das Obige gilt auch für den Fall, daß der Kreuzungspunkt
zwischen der Normalen Ld von Ps (x, y, z) und dem Kubus 11
auf einer anderen Seite als C 1 liegt (d. h. auf irgendeiner
der Seiten C 2 bis C 6). Abhängig von der Blickrichtung (ϕ, R)
existieren gleichzeitig mehr als ein Kreuzungspunkt C
(x, y, z) auf der Projektionsebene 12 in bezug auf drei
oder weniger Seiten C 1 bis C 6. Es gibt acht Typen von Kreuzungspunkten,
die drei Seiten betreffen:
C 1 (x, y, z), C 5 (x, y, z), C 6 (x, y, z)
C 1 (x, y, z), C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z), C 4 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z), C 6 (x, y, z),
C 1 (x, y, z), C 2 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 3 (x, y, z), C 6 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z), C 6 (x, y, z), und
C 2 (x, y, z), C 4 (x, y, z), C 5 (x, y, z).
C 1 (x, y, z), C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z), C 4 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z), C 6 (x, y, z),
C 1 (x, y, z), C 2 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 3 (x, y, z), C 6 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z), C 6 (x, y, z), und
C 2 (x, y, z), C 4 (x, y, z), C 5 (x, y, z).
Bei zwei Seiten gibt es zwölf Typen von Kreuzungspunkten:
C 1 (x, y, z), C 2 (x, y, z),
C 1 (x, y, z), C 3 (x, y, z),
C 1 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 6 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 4 (x, y, z),
C 2 (x, y, z), C 5 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z),
C 3 (x, y, z), C 6 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z),
C 4 (x, y, z), C 6 (x, y, z), und
C 5 (x, y, z), C 6 (x, y, z).
C 1 (x, y, z), C 3 (x, y, z),
C 1 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 6 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 4 (x, y, z),
C 2 (x, y, z), C 5 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z),
C 3 (x, y, z), C 6 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z),
C 4 (x, y, z), C 6 (x, y, z), und
C 5 (x, y, z), C 6 (x, y, z).
Bei einer Seite gibt es sechs Typen von Kreuzungspunkten:
C 1 (x, y, z),
C 2 (x, y, z),
C 3 (x, y, z),
C 4 (x, y, z),
C 5 (x, y, z), und
C 6 (x, y, z),.
C 2 (x, y, z),
C 3 (x, y, z),
C 4 (x, y, z),
C 5 (x, y, z), und
C 6 (x, y, z),.
Ist erst einmal die Blickrichtung (ϕ, R) bestimmt, so wird
der Abstand Zd genau bestimmt, und außerdem wird der Kreuzungspunkt
C (x, y, z) zwischen Zd und dem Kubus 11 bestimmt.
In jedem der obigen Fälle braucht der Strahlverfolgungsprozeß
nur für den Abstand Zc ausgeführt zu werden,
und wenn der Wert Zc erhalten ist, erhält man den Abstand Z
(x′, y′) aus der Gleichung (1).
Der Grund dafür, daß die Erzeugung einer Tiefenkarte in
herkömmlichen Anlagen beträchtliche Zeit in Anspruch nimmt,
besteht darin, daß sämtliche Abstände von der Projektionsebene
12 zu dem Objekt 13 ausschließlich auf der Grundlage
eines Strahlverfolgungsalgorithmus erhalten werden, ohne
daß unterschieden wird zwischen einem Bereich, in welchem
das Objekt 13 vorhanden ist, und einem Bereich, wo das Objekt
nicht vorhanden ist. Im Gegensatz dazu wird erfindungsgemäß
der Strahlverfolgungsalgorithmus oder Strahlverlaufsalgorithmus
nur bezüglich des Abstands Zc von einer
Seite des Kubus 11 bis auf die Oberfläche des Objekts 13
durchgeführt, während der Abstand Zd zwischen der Projektionsebene
12 und dem Kubus 11 durch eine einfache Koordinatenberechnung
ermittelt werden kann. Deshalb läßt sich
eine Tiefenkarte mit hoher Geschwindigkeit erstellen.
Im folgenden soll eine Vorrichtung zum Erzeugen einer Tiefenkarte
gemäß der Erfindung beschrieben werden.
Wie in Fig. 3 gezeigt ist, enthält die Vorrichtung zum Erzeugen
einer Tiefenkarte gemäß der Erfindung einen 3D-
Adreßgenerator 1, einen Bilddatenspeicher 2, einen Detektor
3, einen Zähler 4, einen Tiefenkarten-Speicher 5, einen 2D-
Adreßgenerator 6, einen Addierer 7, einen Zd-Speicher 8 und
eine Arithmetisch-Logische-Einheit (ALU) 9. Der Adreßgenerator
1, der Detektor 3 und der Zähler 4 bilden einen
Strahlverfolgungsprozessor 10.
Der Bilddatenspeicher 2 speichert 3D-Bilddaten, die aus
einer Anzahl benachbarter Schichtbilder oder Voxels eines
Zielkörpers bestehen und die von einem bildgebenden Gerät
bereitgestellt werden, z. B. von einem Röntgenstrahl-CT-
Gerät oder einem Kernspinresonanz-Gerät, wobei die Daten in
Form binärer Daten "0" oder "1" vorliegen, abhängig davon,
ob ein Objekt vorhanden ist oder nicht. Die 3D-Bilddaten,
die normalerweise aus Gradationsdaten für jedes Voxel bestehen,
werden mit einem gegebenen Gradationswert als
Schwellenwert in Binärdaten umgesetzt. Der 3D-Adreßgenerator
1 erzeugt eine 3D-Adresse zum Auslesen der Inhalte des
Bilddatenspeichers 2. Der Zähler 4 zählt ein Taktimpulssignal
CPO, und der Detektor 3 gibt ein Signal zum Anhalten
des Zählvorgangs des Zählers 4 aus, wenn die aus dem Bilddatenspeicher
2 ausgelesenen Daten den Wert "1" annehmen.
Der aus dem Adreßgenerator 1, dem Detektor 3 und dem Zähler
4 bestehende Strahlverfolgungsprozessor ermittelt den Abstand
Zc zwischen einer Seite der 3D-Zone (z. B. des Kubus)
11, welche zum Einschließen des Objekts 13 eingestellt
wurde, und der Oberfläche des Objekts 13 (siehe Fig. 1).
Die ALU 9 führt eine Koordinatenberechnung durch, um den
Abstand Zd zwischen der Oberfläche des Kubus 11 und der
Projektionsebene 12 zu berechnen, die durch die Blickrichtung
(ϕ, R) vorgegeben ist. Der berechnete Abstand Zd wird
dann in den Zd-Speicher 8 eingeschrieben. Der Zd-Wert im
Speicher 8 kann mit Hilfe des Adreßdatenwerts D (x′, Y′)
entsprechend den 2D-Koordinaten (x′, y′) auf der Projektionsebene
12 ausgelesen werden.
Der Addierer 7 addiert das Zähler-Ausgangssignal Zc des
Zählers 4 und das Ausgangssignal Zd des Zd-Speichers 8.
D. h.: Der Addierer 7 führt die Berechnung gemäß Gleichung
(1) durch. Der Ausgangswert Z (x′, y′) des Addierers 7 wird
dann in den Tiefenkarten-Speicher 5 eingeschrieben; eine
Schreibadresse für diesen Speicher 5 wird von dem 2D-Adreßgenerator
6 in Form von 2D-Koordinaten (x′, y′) erzeugt.
Der Zähler 4, der mit einem Maximumwert voreingestellt ist,
der genügend größer ist als Z (x′, y′) für das Objekt 13,
beendet den Zählvorgang, wenn der Detektor 3 auch dann
keine "1" feststellt, wenn der Zählerstand den Maximalwert
erreicht hat, und dann wird der Maximalwert direkt (ohne
über den Addierer 7 zu laufen) in den Tiefenkarten-Speicher
5 eingeschrieben.
Mit der oben beschriebenen Ausgestaltung der Vorrichtung
wird, wenn einmal die Blickrichtung (ϕ, R) bestimmt ist,
der von der ALU 9 erhaltene Abstand Zd in den Zd-Speicher 8
entsprechend 2D-Koordinaten (x′, y′) eingeschrieben, um so
eine Zd-Tabelle im Speicher 8 zu erstellen. Da in dem Raum
zwischen der Oberfläche des Kubus 11 und der Projektionsebene
12 kein Teil des Objekts vorhanden ist, läßt sich die
Zd-Tabelle mit hoher Geschwindigkeit und durch einfache
Koordinatenberechnung erstellen, ohne daß dazu ein Strahlverfolgungsalgorithmus
notwendig wäre.
Der 3D-Adreßgenerator 1 arbeitet synchron mit dem Taktimpulssignal
CPO. Mit Cs (x, y, z) als Startadresse des Anfangswertes
und v (Δ x, Δ y, Δ z) als 3D-Vektorkomponente
(Einheitsvektor) in Blickrichtung läßt sich der Ausgangswert
(x, y, z) des 3D-Adreßgenerators 1 wie folgt ausdrücken:
R (x, y, z) = Cs (x, y, z) + n, v (Δ x, Δ y, Δ z) . . . (2)
wobei Cs (x, y, z), v (Δ x, Δ y, Δ z) und R (x, y, z) Binärdaten
und n eine natürliche Zahl entsprechend der wiederholten
Anzahl von Taktimpulsen CPO ist.
Die Koordinaten (X, Y, Z) des Bilddatenspeichers 2 entsprechend
R (x, y, z) lassen sich wie folgt ausdrücken:
X = Cs (x) + nΔ x,
Y = Cs (y) + nΔ y, und
Z = Cs (z) + nΔ z
wobei Cs (x), Cs (y) und Cs (z) die x-, y- und z-Koordinaten der Startadresse sind.
X = Cs (x) + nΔ x,
Y = Cs (y) + nΔ y, und
Z = Cs (z) + nΔ z
wobei Cs (x), Cs (y) und Cs (z) die x-, y- und z-Koordinaten der Startadresse sind.
Daten werden aus dem Bilddatenspeicher 2 durch den 3D-
Adreßgenerator 1 ausgelesen. Wenn der ausgelesene Datenwert
"1" ist (was bedeutet, daß das Objekt erreicht ist), gibt
der Detektor 3 ein Zähl-Sperrsignal aus, das den Zähler 4
veranlaßt, mit dem Zählen des Taktimpulssignals CPO aufzuhören.
Der Abstand zwischen C (x, y, z) und Qs (x, y, z)
wird folgendermaßen ausgedrückt:
Zc = √ = n √
Auf der Grundlage der 2D-Adresse D (x′, y′) entsprechend
den 2D-Koordinaten (x′, y′) der Projektionsebene 12 wird
der zugehörige Wert Zd aus dem Zd-Speicher 8 ausgelesen und
im Addierer 7 auf das Ausgangssignal Zc des Zählers 4
addiert, und das Ergebnis wird in den Tiefenkarten-Speicher
5 eingeschrieben. Wird von dem Detektor 3 keine "1" festgestellt,
so wird, wie oben erwähnt wurde, der vorgegebene
Maximalwert in den Tiefenkarten-Speicher eingeschrieben.
Der oben beschriebene Vorgang wird für jeden Punkt Ps (x′,
y′) = Ps (x, y, z) auf der Projektionsebene 12 durchgeführt,
um so eine Tiefenkarte auf der Projektionsebene 12
in dem Tiefenkarten-Speicher 5 zu erstellen.
Überflüssig zu sagen, daß die Erfindung in keiner Weise auf
das oben beschriebene Ausführungsbeispiel beschränkt ist,
sondern zahlreiche Modifikationen möglich sind.
Beispielsweise kann es sich bei der das Objekt 13 einschließenden
3D-Zone 12 um ein Parallelepiped, eine Kombination
aus mehreren benachbarten Kuben, anderen mehrflächigen
Körpern oder aus einer Kugel und einem Kubus handeln.
Da es effizient ist, die das Objekt 13 einschließende 3D-
Zone so klein wie möglich einzustellen, ist es wünschenswert,
daß die 3D-Zone das Objekt 13 umschreibt. Das Einstellen
der 3D-Zone und die Berechnung seitens der ALU 9
können dadurch erleichtert werden, daß man aus 3D-Zonen unterschiedlicher
und vorbestimmter Größen solche auswählt,
die das Objekt 13 passend umschließen. Der im Zähler 4 für
den Fall eingestellte Maximalwert, daß das Detektorsignal
des Detektors 3 nicht eintrifft oder die Linie der Strahlverfolgung
nicht das Objekt kreuzt, läßt sich bestimmen
durch die Koordinaten der Rückseite der 3D-Zone. Wenn der
Zählerstand den Maximalwert übersteigt, wird ein einem voreingestellten
Hintergrund entsprechender Wert in den Tiefenkarten-
Speicher 5 eingeschrieben.
Claims (14)
1. Verfahren zum Erzeugen einer Tiefenkarte,
gekennzeichnet durch folgende Schritte:
- a) in 3D-Koordinaten wird eine 3D-Zone gegebener Form eingestellt, welche ein Objekt in 3D-Bilddaten einschließt;
- b) entsprechend einer gewünschten Blickrichtung wird eine Projektionsebene eingestellt;
- c) durch Koordinatenberechnung wird ein erster Abstand in der gewünschten Blickrichtung von der Projektionsebene zu der Oberfläche der in Schritt a) eingestellten 3D- Zone für jedes Bildelement auf der Projektionsebene ermittelt;
- d) durch Strahlverfolgung wird ein zweiter Abstand in der gewünschten Blickrichtung von der Oberfläche der 3D- Zone auf die Objektoberfläche für jedes Bildelement auf der Projektionsebene ermittelt; und
- e) die ersten und die zweiten Abstände werden für jedes Bildelement auf der Projektionsebene addiert, um die Daten einer Tiefenkarte zu erhalten.
2. Verfahren nach Anspruch 1, bei dem im Schritt a)
ein das Objekt einschließendes Parallelpiped eingestellt
wird.
3. Verfahren nach Anspruch 1, bei dem im Schritt a)
ein das Objekt einschließender Kubus eingestellt wird.
4. Verfahren nach Anspruch 1, bei dem im Schritt a)
eine das Objekt einschließende Kugel eingestellt wird.
5. Verfahren nach Anspruch 1, bei dem im Schritt a)
eine das Objekt umschreibende 3D-Zone eingestellt wird.
6. Verfahren nach Anspruch 1, bei dem im Schritt d)
ein gegebener Abstandswert als entsprechender Bildelementdatenwert
der Tiefenkarte unter Verzicht auf Durchführung
des Schritts e) angenommen wird, wenn das Objekt durch eine
einen gegebenen Umfang aufweisende Spurverfolgung nicht erreicht
wird.
7. Verfahren nach Anspruch 6, bei dem der gegebene
Umfang der Spurverfolgung nach Maßgabe der Lage einer Rückseite
der im Schritt a) eingestellten 3D-Zone bestimmt
wird.
8. Vorrichtung zum Erzeugen einer Tiefenkarte,
gekennzeichnet durch:
- einen Tiefenkarten-Speicher (5) zum Speichern einer Tiefenkarte;
- eine 3D-Zonen-Einstelleinrichtung, die in Form von 3D-Koordinaten eine 3D-Zone gegebener Gestalt einstellt, welche ein in 3D-Bilddaten definiertes Objekt einschließt;
- eine erste Verarbeitungseinrichtung (8, 9), die durch Koordinatenberechnung einen ersten Abstand in einer gewünschten Blickrichtung von einer Projektionsebene, die nach Maßgabe der gewünschten Blickrichtung eingestellt wird, zu einer Oberfläche der 3D-Zone für jedes Bildelement auf der Projektionsebene ermittelt;
- eine zweite Verarbeitungseinrichtung (10), die durch Spurverfolgung einen zweiten Abstand in der gewünschten Blickrichtung von der Oberfläche der 3D-Zone auf eine Oberfläche des Objekts für jedes Bildelement auf der Projektionsebene ermittelt; und
- eine dritte Verarbeitungseinrichtung (7), die die ersten und die zweiten Abstände für jedes Bildelement auf der Projektionsebene addiert und die sich ergebenden Datenwerte in den Tiefenkarten-Speicher einschreibt.
9. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen-
Einstelleinrichtung ein das Objekt einschließendes Parallelepiped
einstellt.
10. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen-
Einstelleinrichtung einen das Objekt einschließenden
Kubus einstellt.
11. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen-
Einstelleinrichtung eine das Objekt einschließende Kugel
einstellt.
12. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen-
Einstelleinrichtung eine das Objekt umschreibende 3D-
Zone einstellt.
13. Vorrichtung nach Anspruch 8,
dadurch gekennzeichnet, daß die zweite Verarbeitungseinrichtung
(10) eine Einrichtung (4) enthält,
die einen gegebenen Abstandswert für ein Bildelement der
Tiefenkarte unter Verzicht auf eine Verarbeitung seitens
der dritten Verarbeitungseinrichtung einschreibt, wenn das
Objekt in einem gegebenen Umfang der Strahlverfolgung nicht
erreicht wird.
14. Vorrichtung nach Anspruch 13,
dadurch gekennzeichnet, daß die zweite Verarbeitungseinrichtung
(10) den gegebenen Bereich der
Strahlverfolgung nach Maßgabe der Lage einer Rückseite der
von der 3D-Zonen-Einstelleinrichtung eingestellten 3D-Zone
bestimmt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62234415A JPS6476374A (en) | 1987-09-18 | 1987-09-18 | Depth map producing device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3831428A1 true DE3831428A1 (de) | 1989-03-30 |
DE3831428C2 DE3831428C2 (de) | 1992-08-06 |
Family
ID=16970656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3831428A Granted DE3831428A1 (de) | 1987-09-18 | 1988-09-15 | Verfahren und vorrichtung zum erzeugen einer tiefenkarte |
Country Status (3)
Country | Link |
---|---|
US (1) | US4947347A (de) |
JP (1) | JPS6476374A (de) |
DE (1) | DE3831428A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4244507A1 (de) * | 1992-12-30 | 1994-07-07 | Europaeische Gemeinschaft Vert | Verfahren zur Erzeugung der Farb- und Helligkeitswerte von Bildpunkten |
DE19807013B4 (de) * | 1997-05-30 | 2005-08-18 | Hewlett-Packard Development Co., L.P., Houston | Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5091960A (en) * | 1988-09-26 | 1992-02-25 | Visual Information Technologies, Inc. | High-speed image rendering method using look-ahead images |
JPH03205976A (ja) * | 1989-10-27 | 1991-09-09 | Nec Corp | 特殊効果装置を用いた画面合成システム |
US5355442A (en) * | 1992-12-16 | 1994-10-11 | Loral Aerospace Corp. | Terrain visualization by ray tracing a conical height field transformation |
US5694530A (en) * | 1994-01-18 | 1997-12-02 | Hitachi Medical Corporation | Method of constructing three-dimensional image according to central projection method and apparatus for same |
US5900878A (en) * | 1994-01-18 | 1999-05-04 | Hitachi Medical Corporation | Method of constructing pseudo-three-dimensional image for obtaining central projection image through determining view point position by using parallel projection image and apparatus for displaying projection image |
US5570460A (en) * | 1994-10-21 | 1996-10-29 | International Business Machines Corporation | System and method for volume rendering of finite element models |
US6064389A (en) * | 1997-05-27 | 2000-05-16 | International Business Machines Corporation | Distance dependent selective activation of three-dimensional objects in three-dimensional workspace interactive displays |
AUPQ119799A0 (en) * | 1999-06-25 | 1999-07-22 | Dynamic Digital Depth Research Pty Ltd | Ddc/3 image conversion and encoding techniques |
US20030063383A1 (en) * | 2000-02-03 | 2003-04-03 | Costales Bryan L. | Software out-of-focus 3D method, system, and apparatus |
KR100446635B1 (ko) * | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
JP3629243B2 (ja) * | 2002-02-13 | 2005-03-16 | Necマイクロシステム株式会社 | モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法 |
ITRM20030345A1 (it) * | 2003-07-15 | 2005-01-16 | St Microelectronics Srl | Metodo per ricavare una mappa di profondita' |
US7333652B2 (en) * | 2004-08-03 | 2008-02-19 | Sony Corporation | System and method for efficiently performing a depth map recovery procedure |
US7822000B2 (en) * | 2005-06-30 | 2010-10-26 | Symbol Technologies, Inc. | Time division multiplexing for access ports in a wireless network |
US7929801B2 (en) * | 2005-08-15 | 2011-04-19 | Sony Corporation | Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory |
US20070189750A1 (en) * | 2006-02-16 | 2007-08-16 | Sony Corporation | Method of and apparatus for simultaneously capturing and generating multiple blurred images |
US7616254B2 (en) * | 2006-03-16 | 2009-11-10 | Sony Corporation | Simple method for calculating camera defocus from an image scene |
US7711201B2 (en) * | 2006-06-22 | 2010-05-04 | Sony Corporation | Method of and apparatus for generating a depth map utilized in autofocusing |
US8077964B2 (en) * | 2007-03-19 | 2011-12-13 | Sony Corporation | Two dimensional/three dimensional digital information acquisition and display device |
US8280194B2 (en) * | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
JP5637653B2 (ja) * | 2008-08-18 | 2014-12-10 | 株式会社東芝 | 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム |
US8194995B2 (en) * | 2008-09-30 | 2012-06-05 | Sony Corporation | Fast camera auto-focus |
US8553093B2 (en) * | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
US8571314B2 (en) | 2010-09-02 | 2013-10-29 | Samsung Electronics Co., Ltd. | Three-dimensional display system with depth map mechanism and method of operation thereof |
JP2012181825A (ja) * | 2011-02-09 | 2012-09-20 | Canon Inc | 画像処理装置およびその方法 |
WO2015030623A1 (en) * | 2013-09-02 | 2015-03-05 | 3Divi Company | Methods and systems for locating substantially planar surfaces of 3d scene |
CN114297176A (zh) * | 2021-12-15 | 2022-04-08 | 东南大学 | 基于人工智能的中国古典园林假山自动生成方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3602702A (en) * | 1969-05-19 | 1971-08-31 | Univ Utah | Electronically generated perspective images |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4697178A (en) * | 1984-06-29 | 1987-09-29 | Megatek Corporation | Computer graphics system for real-time calculation and display of the perspective view of three-dimensional scenes |
US4710876A (en) * | 1985-06-05 | 1987-12-01 | General Electric Company | System and method for the display of surface structures contained within the interior region of a solid body |
US4719585A (en) * | 1985-08-28 | 1988-01-12 | General Electric Company | Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body |
-
1987
- 1987-09-18 JP JP62234415A patent/JPS6476374A/ja active Granted
-
1988
- 1988-09-15 DE DE3831428A patent/DE3831428A1/de active Granted
- 1988-09-16 US US07/245,152 patent/US4947347A/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3602702A (en) * | 1969-05-19 | 1971-08-31 | Univ Utah | Electronically generated perspective images |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4244507A1 (de) * | 1992-12-30 | 1994-07-07 | Europaeische Gemeinschaft Vert | Verfahren zur Erzeugung der Farb- und Helligkeitswerte von Bildpunkten |
DE19807013B4 (de) * | 1997-05-30 | 2005-08-18 | Hewlett-Packard Development Co., L.P., Houston | Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet |
Also Published As
Publication number | Publication date |
---|---|
US4947347A (en) | 1990-08-07 |
JPS6476374A (en) | 1989-03-22 |
DE3831428C2 (de) | 1992-08-06 |
JPH0528873B2 (de) | 1993-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3831428A1 (de) | Verfahren und vorrichtung zum erzeugen einer tiefenkarte | |
DE69908966T3 (de) | Schattierung von 3-dimensionalen rechner-erzeugten bildern | |
DE102006061325B4 (de) | Verfahren zur computergestützten Identifikation der von einem Richtstrahl durchschnittenen Kinderoktanten eines Elternoktants in einer Octree-Datenstruktur mittels Look-up-Tabellen | |
DE69914355T2 (de) | Bildverarbeitungsgerät | |
DE19858306A1 (de) | C-Arm Kalibrierungsverfahren unter Anwendung einer planaren Transformation zur 3D-Rekonstruktion bei einem Bildsystem | |
DE10144932B4 (de) | Visualisierung von Werkstücken bei der Simulation von Fräsprozessen | |
DE3407983A1 (de) | Mehrprozessorrechnersystem zum verarbeiten in einer hierarchischen datenstruktur definierter objektelemente zu einer farbigen abbildung | |
DE10106023A1 (de) | Verfahren und Vorrichtung zur Kollisionserkennung von Objekten | |
DE112009004371T5 (de) | Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsprogramm | |
DE3735519C2 (de) | Binäre Rauminterpolation | |
DE69531536T2 (de) | Synthetisches bilderzeugungsverfahren mit sphärischem puffer | |
DE102005008609A1 (de) | Flexible Erzeugung von digital rekonstruierten Röntgenaufnahmen | |
DE2804732A1 (de) | Geraet zur verarbeitung von werten einer quantitaet, beispielsweise der absorption von roentgenstrahlung | |
DE19806985B4 (de) | Organisationsverfahren für volumetrische Daten, das effiziente Cache-Aufbereitungsbeschleunigungen und einen effizienten Graphik-Hardwareentwurf ermöglicht | |
DE102008050449A1 (de) | Clipping Geometrien beim Raycasting | |
EP0372107A1 (de) | Verfahren zur Simulation der Bearbeitung eines Werkstückes und Darstellung desselben, sowie Vorrichtung zur Durchführung des Verfahrens | |
EP0284158B1 (de) | Verfahren, bei dem ein Untersuchungsbereich aus mehreren Strahlenquellenpositionen durchstrahlt wird | |
DE4208401A1 (de) | Datengenerator fuer dreidimensionale figuren | |
DE4100691B4 (de) | Verfahren zur Darstellung eines dreidimensionalen Modells | |
DE60105152T2 (de) | Dreidimensionales, beschleunigtes bild-rekonstruktionsverfahren | |
DE19704529B4 (de) | Verfahren zum automatischen Erzeugen und Handhaben einer Schatten-Geometrie und interaktive computergestützte Anzeigeeinrichtung | |
EP1820160A1 (de) | Verfahren zur ableitung von technischen zeichnungen aus 3d modellen mit mindestens zwei kollidierenden 3d körpern | |
EP1356432A1 (de) | Verfahren und vorrichtung zur bildrekonstruktion eines raumvolumens | |
DE102007020060B4 (de) | Verteilte Berechnung von Bildern volumetrischer Objekte mittels Ray Casting | |
DE3903838C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN |
|
8320 | Willingness to grant licences declared (paragraph 23) |