DE3831428A1 - Verfahren und vorrichtung zum erzeugen einer tiefenkarte - Google Patents

Verfahren und vorrichtung zum erzeugen einer tiefenkarte

Info

Publication number
DE3831428A1
DE3831428A1 DE3831428A DE3831428A DE3831428A1 DE 3831428 A1 DE3831428 A1 DE 3831428A1 DE 3831428 A DE3831428 A DE 3831428A DE 3831428 A DE3831428 A DE 3831428A DE 3831428 A1 DE3831428 A1 DE 3831428A1
Authority
DE
Germany
Prior art keywords
zone
depth map
projection plane
viewing direction
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE3831428A
Other languages
English (en)
Other versions
DE3831428C2 (de
Inventor
Hitoshi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE3831428A1 publication Critical patent/DE3831428A1/de
Application granted granted Critical
Publication of DE3831428C2 publication Critical patent/DE3831428C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)

Description

Die Erfindung betrifft eine pseudo-dreidimensionale Anzeige (Pseude-3D-Anzeige), d. h. eine perspektivische Anzeige eines dreidimensionalen Objekts. Insbesondere betrifft die Erfindung ein Verfahren und eine Vorrichtung zum Erzeugen einer Tiefenkarte eines dreidimensionalen Objekts. Eine solche Tiefenkarte wird bei der Aufbereitung einer perspektivischen Bildanzeige benutzt. Die Tiefenkarte wird aus 3D- Bilddaten erzeugt, die ein dreidimensionales Objekt definieren, und bei denen es sich um eine Sammlung von Volumenelementen (sogenannten "Voxels"), also um Elemente mit 3D- Struktur, handelt.
Es gibt bereits Verfahren zum Aufbereiten eines Pseudo-3D- Bildes oder eines perspektivischen Bildes aus Bilddaten mit 3D-Struktur, die ähnlich einer Reihe benachbarter CT-Bilder aus einer Anzahl von Volumenelementen (Voxels) bestehen, die ein dreidimensionales Objekt (3D-Objekt) repräsentieren. Bei diesen Verfahren wird das perspektivische Bild z. B. für Analysezwecke und zur Unterscheidung der Bilddaten im Rahmen medizinischer Diagnoseverfahren eingesetzt.
Das perspektivische Bild wird folgendermaßen erzeugt:
Zunächst wird für jedes Bildelement einer Blickebene, die entsprechend der gewünschten Blickrichtung ein zweidimensionales (2D) Blickfeld bildet, d. h. eine Projektionsebene bildet, der Abstand von der Projektionsebene zur Oberfläche eines Objekts aus den Bilddaten der 3D-Struktur, dargestellt durch Voxels, ermittelt, und dann wird eine Tiefenkarte hergestellt, welche die Verteilung der Abstände zu der Objektoberfläche in der gewünschten Blickrichtung angibt. Dann wird ein vorbestimmter Gradationsprozeß durchgeführt, um jedem Bildelement der Tiefenkarte eine Gradation ähnlich einem Dichtewert zuzuordnen, um so das perspektivische Bild zu erhalten.
Damit eine Bedienungsperson selektiv die Blickrichtungen der perspektivischen Anzeige durch geeignete Befehle ändern kann, wird der oben beschriebene Vorgang bei der Erstellung der Tiefenkarte in einem herkömmlichen System bei jeder Änderung der Blickrichtung wiederholt durchgeführt.
Die Erzeugung einer Tiefenkarte mit Hilfe eines für allgemeine Zwecke verwendbaren Rechners (general-purpose computer) nimmt üblicherweise beträchtliche Zeit in Anspruch, beispielsweise mehrere zehn Minuten, da notwendigerweise unterschieden werden muß, ob in Blickrichtung für jedes Bildelement eines zweidimensionalen Bildfeldes über der Gesamtheit der Voxels ein Objekt bzw. ein Objektteil vorhanden ist oder nicht. Um diese Verarbeitungszeit herabzusetzen, werden in üblichen Systemen speziell für diese Zwecke ausgelegte Prozessoren (special-purpose processor) eingesetzt, die speziell für diesen Typ von Datenverarbeitung ausgelegt sind.
Doch auch mit Hilfe solcher Spezial-Purpose-Prozessoren werden mehrere Sekunden für die Datenverarbeitung benötigt, also zu viel Zeit für eine wirkliche Echtzeitverarbeitung.
Aufgabe der Erfindung ist die Schaffung eines Verfahrens und einer Vorrichtung zum Erstellen einer Tiefenkarte bei beträchtlich heraufgesetzter Arbeitsgeschwindigkeit.
Diese Aufgabe wird durch die in den Ansprüchen angegebene Erfindung gelöst.
Im folgenden werden Ausführungsbeispiele der Erfindung anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1 und 2 Diagramme zum Veranschaulichen des grundlegenden Prinzips einer Ausführungsform der Erfindung, und
Fig. 3 ein Blickdiagramm einer Einrichtung zum Erzeugen einer Tiefenkarte gemäß einer Ausführungsform der Erfindung entsprechend dem in Fig. 1 und 2 veranschaulichten Prinzip.
Fig. 1 und 2 veranschaulichen das der Erfindung zugrundeliegende Arbeitsprinzip.
Fig. 1 zeigt ein Objekt 13, eine dreidimensionale oder 3D- Zone 11, die das Objekt einschließt und bei der es sich z. B. um einen Kubus handelt, und eine Projektionsebene 12 für eine gewünschte Blickrichtung. Der Kubus 11 besitzt sechs Flächen C 1 bis C 6, wie aus Fig. 2 hervorgeht.
In den dargestellten 3D-Koordinaten (x, y, z) ist Ld eine Normale, gezogen von einem Punkt Ps (x, y, z) auf der Projektionsebene 12 in Richtung auf den Kubus 11, und c (x, y, z) ist der Kreuzungspunkt zwischen Ld und einer Seite C 1 des Kubus 11. Zd soll der Abstand zwischen dem Punkt PS (x, y, z) und dem Punkt C (x, y, z) sein. Qs (x, y, z) sei der Kreuzungspunkt zwischen dem Objekt 13 und einer Linie Ld 1, bei der es sich um eine Verlängerungslinie von C (x, y, z) aus handelt. Zc sei der Abstand zwischen C (x, y, z) und diesem Punkt Qs (x, y, z). In diesem Fall liegt das Objekt 13 auf der Linie Ld 1, jedoch nicht auf Ld. Beim Erzeugen einer Tiefenkarte in 2D-Koordinaten (x′, y′) auf der Projektionsebene 12 wird also, wenn erst einmal die Blickrichtung ϕ, R) festgelegt ist, der Abstand Z (x′, y′) zwischen Ps (x′, y′) auf der Projektionsebene 12 oder Ps (x, y, z) und Qs (x, y, z) folgendermaßen ausgedruckt:
Z (x′, y′) = (Länge von Ld) + (Länge von Ld 1) = Zd + Zc    . . . (1)
Das Obige gilt auch für den Fall, daß der Kreuzungspunkt zwischen der Normalen Ld von Ps (x, y, z) und dem Kubus 11 auf einer anderen Seite als C 1 liegt (d. h. auf irgendeiner der Seiten C 2 bis C 6). Abhängig von der Blickrichtung (ϕ, R) existieren gleichzeitig mehr als ein Kreuzungspunkt C (x, y, z) auf der Projektionsebene 12 in bezug auf drei oder weniger Seiten C 1 bis C 6. Es gibt acht Typen von Kreuzungspunkten, die drei Seiten betreffen:
C 1 (x, y, z), C 5 (x, y, z), C 6 (x, y, z)
C 1 (x, y, z), C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z), C 4 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z), C 6 (x, y, z),
C 1 (x, y, z), C 2 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 3 (x, y, z), C 6 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z), C 6 (x, y, z), und
C 2 (x, y, z), C 4 (x, y, z), C 5 (x, y, z).
Bei zwei Seiten gibt es zwölf Typen von Kreuzungspunkten:
C 1 (x, y, z), C 2 (x, y, z),
C 1 (x, y, z), C 3 (x, y, z),
C 1 (x, y, z), C 5 (x, y, z),
C 1 (x, y, z), C 6 (x, y, z),
C 2 (x, y, z), C 3 (x, y, z),
C 2 (x, y, z), C 4 (x, y, z),
C 2 (x, y, z), C 5 (x, y, z),
C 3 (x, y, z), C 4 (x, y, z),
C 3 (x, y, z), C 6 (x, y, z),
C 4 (x, y, z), C 5 (x, y, z),
C 4 (x, y, z), C 6 (x, y, z), und
C 5 (x, y, z), C 6 (x, y, z).
Bei einer Seite gibt es sechs Typen von Kreuzungspunkten:
C 1 (x, y, z),
C 2 (x, y, z),
C 3 (x, y, z),
C 4 (x, y, z),
C 5 (x, y, z), und
C 6 (x, y, z),.
Ist erst einmal die Blickrichtung (ϕ, R) bestimmt, so wird der Abstand Zd genau bestimmt, und außerdem wird der Kreuzungspunkt C (x, y, z) zwischen Zd und dem Kubus 11 bestimmt. In jedem der obigen Fälle braucht der Strahlverfolgungsprozeß nur für den Abstand Zc ausgeführt zu werden, und wenn der Wert Zc erhalten ist, erhält man den Abstand Z (x′, y′) aus der Gleichung (1).
Der Grund dafür, daß die Erzeugung einer Tiefenkarte in herkömmlichen Anlagen beträchtliche Zeit in Anspruch nimmt, besteht darin, daß sämtliche Abstände von der Projektionsebene 12 zu dem Objekt 13 ausschließlich auf der Grundlage eines Strahlverfolgungsalgorithmus erhalten werden, ohne daß unterschieden wird zwischen einem Bereich, in welchem das Objekt 13 vorhanden ist, und einem Bereich, wo das Objekt nicht vorhanden ist. Im Gegensatz dazu wird erfindungsgemäß der Strahlverfolgungsalgorithmus oder Strahlverlaufsalgorithmus nur bezüglich des Abstands Zc von einer Seite des Kubus 11 bis auf die Oberfläche des Objekts 13 durchgeführt, während der Abstand Zd zwischen der Projektionsebene 12 und dem Kubus 11 durch eine einfache Koordinatenberechnung ermittelt werden kann. Deshalb läßt sich eine Tiefenkarte mit hoher Geschwindigkeit erstellen.
Im folgenden soll eine Vorrichtung zum Erzeugen einer Tiefenkarte gemäß der Erfindung beschrieben werden.
Wie in Fig. 3 gezeigt ist, enthält die Vorrichtung zum Erzeugen einer Tiefenkarte gemäß der Erfindung einen 3D- Adreßgenerator 1, einen Bilddatenspeicher 2, einen Detektor 3, einen Zähler 4, einen Tiefenkarten-Speicher 5, einen 2D- Adreßgenerator 6, einen Addierer 7, einen Zd-Speicher 8 und eine Arithmetisch-Logische-Einheit (ALU) 9. Der Adreßgenerator 1, der Detektor 3 und der Zähler 4 bilden einen Strahlverfolgungsprozessor 10.
Der Bilddatenspeicher 2 speichert 3D-Bilddaten, die aus einer Anzahl benachbarter Schichtbilder oder Voxels eines Zielkörpers bestehen und die von einem bildgebenden Gerät bereitgestellt werden, z. B. von einem Röntgenstrahl-CT- Gerät oder einem Kernspinresonanz-Gerät, wobei die Daten in Form binärer Daten "0" oder "1" vorliegen, abhängig davon, ob ein Objekt vorhanden ist oder nicht. Die 3D-Bilddaten, die normalerweise aus Gradationsdaten für jedes Voxel bestehen, werden mit einem gegebenen Gradationswert als Schwellenwert in Binärdaten umgesetzt. Der 3D-Adreßgenerator 1 erzeugt eine 3D-Adresse zum Auslesen der Inhalte des Bilddatenspeichers 2. Der Zähler 4 zählt ein Taktimpulssignal CPO, und der Detektor 3 gibt ein Signal zum Anhalten des Zählvorgangs des Zählers 4 aus, wenn die aus dem Bilddatenspeicher 2 ausgelesenen Daten den Wert "1" annehmen. Der aus dem Adreßgenerator 1, dem Detektor 3 und dem Zähler 4 bestehende Strahlverfolgungsprozessor ermittelt den Abstand Zc zwischen einer Seite der 3D-Zone (z. B. des Kubus) 11, welche zum Einschließen des Objekts 13 eingestellt wurde, und der Oberfläche des Objekts 13 (siehe Fig. 1).
Die ALU 9 führt eine Koordinatenberechnung durch, um den Abstand Zd zwischen der Oberfläche des Kubus 11 und der Projektionsebene 12 zu berechnen, die durch die Blickrichtung (ϕ, R) vorgegeben ist. Der berechnete Abstand Zd wird dann in den Zd-Speicher 8 eingeschrieben. Der Zd-Wert im Speicher 8 kann mit Hilfe des Adreßdatenwerts D (x′, Y′) entsprechend den 2D-Koordinaten (x′, y′) auf der Projektionsebene 12 ausgelesen werden.
Der Addierer 7 addiert das Zähler-Ausgangssignal Zc des Zählers 4 und das Ausgangssignal Zd des Zd-Speichers 8. D. h.: Der Addierer 7 führt die Berechnung gemäß Gleichung (1) durch. Der Ausgangswert Z (x′, y′) des Addierers 7 wird dann in den Tiefenkarten-Speicher 5 eingeschrieben; eine Schreibadresse für diesen Speicher 5 wird von dem 2D-Adreßgenerator 6 in Form von 2D-Koordinaten (x′, y′) erzeugt. Der Zähler 4, der mit einem Maximumwert voreingestellt ist, der genügend größer ist als Z (x′, y′) für das Objekt 13, beendet den Zählvorgang, wenn der Detektor 3 auch dann keine "1" feststellt, wenn der Zählerstand den Maximalwert erreicht hat, und dann wird der Maximalwert direkt (ohne über den Addierer 7 zu laufen) in den Tiefenkarten-Speicher 5 eingeschrieben.
Mit der oben beschriebenen Ausgestaltung der Vorrichtung wird, wenn einmal die Blickrichtung (ϕ, R) bestimmt ist, der von der ALU 9 erhaltene Abstand Zd in den Zd-Speicher 8 entsprechend 2D-Koordinaten (x′, y′) eingeschrieben, um so eine Zd-Tabelle im Speicher 8 zu erstellen. Da in dem Raum zwischen der Oberfläche des Kubus 11 und der Projektionsebene 12 kein Teil des Objekts vorhanden ist, läßt sich die Zd-Tabelle mit hoher Geschwindigkeit und durch einfache Koordinatenberechnung erstellen, ohne daß dazu ein Strahlverfolgungsalgorithmus notwendig wäre.
Der 3D-Adreßgenerator 1 arbeitet synchron mit dem Taktimpulssignal CPO. Mit Cs (x, y, z) als Startadresse des Anfangswertes und v (Δ x, Δ y, Δ z) als 3D-Vektorkomponente (Einheitsvektor) in Blickrichtung läßt sich der Ausgangswert (x, y, z) des 3D-Adreßgenerators 1 wie folgt ausdrücken:
R (x, y, z) = Cs (x, y, z) + n, v (Δ x, Δ y, Δ z) . . . (2)
wobei Cs (x, y, z), v (Δ x, Δ y, Δ z) und R (x, y, z) Binärdaten und n eine natürliche Zahl entsprechend der wiederholten Anzahl von Taktimpulsen CPO ist.
Die Koordinaten (X, Y, Z) des Bilddatenspeichers 2 entsprechend R (x, y, z) lassen sich wie folgt ausdrücken:
X = Cs (x) + nΔ x,
Y = Cs (y) + nΔ y, und
Z = Cs (z) + nΔ z
wobei Cs (x), Cs (y) und Cs (z) die x-, y- und z-Koordinaten der Startadresse sind.
Daten werden aus dem Bilddatenspeicher 2 durch den 3D- Adreßgenerator 1 ausgelesen. Wenn der ausgelesene Datenwert "1" ist (was bedeutet, daß das Objekt erreicht ist), gibt der Detektor 3 ein Zähl-Sperrsignal aus, das den Zähler 4 veranlaßt, mit dem Zählen des Taktimpulssignals CPO aufzuhören. Der Abstand zwischen C (x, y, z) und Qs (x, y, z) wird folgendermaßen ausgedrückt:
Zc = √   = n √
Auf der Grundlage der 2D-Adresse D (x′, y′) entsprechend den 2D-Koordinaten (x′, y′) der Projektionsebene 12 wird der zugehörige Wert Zd aus dem Zd-Speicher 8 ausgelesen und im Addierer 7 auf das Ausgangssignal Zc des Zählers 4 addiert, und das Ergebnis wird in den Tiefenkarten-Speicher 5 eingeschrieben. Wird von dem Detektor 3 keine "1" festgestellt, so wird, wie oben erwähnt wurde, der vorgegebene Maximalwert in den Tiefenkarten-Speicher eingeschrieben. Der oben beschriebene Vorgang wird für jeden Punkt Ps (x′, y′) = Ps (x, y, z) auf der Projektionsebene 12 durchgeführt, um so eine Tiefenkarte auf der Projektionsebene 12 in dem Tiefenkarten-Speicher 5 zu erstellen.
Überflüssig zu sagen, daß die Erfindung in keiner Weise auf das oben beschriebene Ausführungsbeispiel beschränkt ist, sondern zahlreiche Modifikationen möglich sind.
Beispielsweise kann es sich bei der das Objekt 13 einschließenden 3D-Zone 12 um ein Parallelepiped, eine Kombination aus mehreren benachbarten Kuben, anderen mehrflächigen Körpern oder aus einer Kugel und einem Kubus handeln. Da es effizient ist, die das Objekt 13 einschließende 3D- Zone so klein wie möglich einzustellen, ist es wünschenswert, daß die 3D-Zone das Objekt 13 umschreibt. Das Einstellen der 3D-Zone und die Berechnung seitens der ALU 9 können dadurch erleichtert werden, daß man aus 3D-Zonen unterschiedlicher und vorbestimmter Größen solche auswählt, die das Objekt 13 passend umschließen. Der im Zähler 4 für den Fall eingestellte Maximalwert, daß das Detektorsignal des Detektors 3 nicht eintrifft oder die Linie der Strahlverfolgung nicht das Objekt kreuzt, läßt sich bestimmen durch die Koordinaten der Rückseite der 3D-Zone. Wenn der Zählerstand den Maximalwert übersteigt, wird ein einem voreingestellten Hintergrund entsprechender Wert in den Tiefenkarten- Speicher 5 eingeschrieben.

Claims (14)

1. Verfahren zum Erzeugen einer Tiefenkarte, gekennzeichnet durch folgende Schritte:
  • a) in 3D-Koordinaten wird eine 3D-Zone gegebener Form eingestellt, welche ein Objekt in 3D-Bilddaten einschließt;
  • b) entsprechend einer gewünschten Blickrichtung wird eine Projektionsebene eingestellt;
  • c) durch Koordinatenberechnung wird ein erster Abstand in der gewünschten Blickrichtung von der Projektionsebene zu der Oberfläche der in Schritt a) eingestellten 3D- Zone für jedes Bildelement auf der Projektionsebene ermittelt;
  • d) durch Strahlverfolgung wird ein zweiter Abstand in der gewünschten Blickrichtung von der Oberfläche der 3D- Zone auf die Objektoberfläche für jedes Bildelement auf der Projektionsebene ermittelt; und
  • e) die ersten und die zweiten Abstände werden für jedes Bildelement auf der Projektionsebene addiert, um die Daten einer Tiefenkarte zu erhalten.
2. Verfahren nach Anspruch 1, bei dem im Schritt a) ein das Objekt einschließendes Parallelpiped eingestellt wird.
3. Verfahren nach Anspruch 1, bei dem im Schritt a) ein das Objekt einschließender Kubus eingestellt wird.
4. Verfahren nach Anspruch 1, bei dem im Schritt a) eine das Objekt einschließende Kugel eingestellt wird.
5. Verfahren nach Anspruch 1, bei dem im Schritt a) eine das Objekt umschreibende 3D-Zone eingestellt wird.
6. Verfahren nach Anspruch 1, bei dem im Schritt d) ein gegebener Abstandswert als entsprechender Bildelementdatenwert der Tiefenkarte unter Verzicht auf Durchführung des Schritts e) angenommen wird, wenn das Objekt durch eine einen gegebenen Umfang aufweisende Spurverfolgung nicht erreicht wird.
7. Verfahren nach Anspruch 6, bei dem der gegebene Umfang der Spurverfolgung nach Maßgabe der Lage einer Rückseite der im Schritt a) eingestellten 3D-Zone bestimmt wird.
8. Vorrichtung zum Erzeugen einer Tiefenkarte, gekennzeichnet durch:
  • einen Tiefenkarten-Speicher (5) zum Speichern einer Tiefenkarte;
  • eine 3D-Zonen-Einstelleinrichtung, die in Form von 3D-Koordinaten eine 3D-Zone gegebener Gestalt einstellt, welche ein in 3D-Bilddaten definiertes Objekt einschließt;
  • eine erste Verarbeitungseinrichtung (8, 9), die durch Koordinatenberechnung einen ersten Abstand in einer gewünschten Blickrichtung von einer Projektionsebene, die nach Maßgabe der gewünschten Blickrichtung eingestellt wird, zu einer Oberfläche der 3D-Zone für jedes Bildelement auf der Projektionsebene ermittelt;
  • eine zweite Verarbeitungseinrichtung (10), die durch Spurverfolgung einen zweiten Abstand in der gewünschten Blickrichtung von der Oberfläche der 3D-Zone auf eine Oberfläche des Objekts für jedes Bildelement auf der Projektionsebene ermittelt; und
  • eine dritte Verarbeitungseinrichtung (7), die die ersten und die zweiten Abstände für jedes Bildelement auf der Projektionsebene addiert und die sich ergebenden Datenwerte in den Tiefenkarten-Speicher einschreibt.
9. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen- Einstelleinrichtung ein das Objekt einschließendes Parallelepiped einstellt.
10. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen- Einstelleinrichtung einen das Objekt einschließenden Kubus einstellt.
11. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen- Einstelleinrichtung eine das Objekt einschließende Kugel einstellt.
12. Vorrichtung nach Anspruch 8, bei der die 3D-Zonen- Einstelleinrichtung eine das Objekt umschreibende 3D- Zone einstellt.
13. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die zweite Verarbeitungseinrichtung (10) eine Einrichtung (4) enthält, die einen gegebenen Abstandswert für ein Bildelement der Tiefenkarte unter Verzicht auf eine Verarbeitung seitens der dritten Verarbeitungseinrichtung einschreibt, wenn das Objekt in einem gegebenen Umfang der Strahlverfolgung nicht erreicht wird.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die zweite Verarbeitungseinrichtung (10) den gegebenen Bereich der Strahlverfolgung nach Maßgabe der Lage einer Rückseite der von der 3D-Zonen-Einstelleinrichtung eingestellten 3D-Zone bestimmt.
DE3831428A 1987-09-18 1988-09-15 Verfahren und vorrichtung zum erzeugen einer tiefenkarte Granted DE3831428A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62234415A JPS6476374A (en) 1987-09-18 1987-09-18 Depth map producing device

Publications (2)

Publication Number Publication Date
DE3831428A1 true DE3831428A1 (de) 1989-03-30
DE3831428C2 DE3831428C2 (de) 1992-08-06

Family

ID=16970656

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3831428A Granted DE3831428A1 (de) 1987-09-18 1988-09-15 Verfahren und vorrichtung zum erzeugen einer tiefenkarte

Country Status (3)

Country Link
US (1) US4947347A (de)
JP (1) JPS6476374A (de)
DE (1) DE3831428A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4244507A1 (de) * 1992-12-30 1994-07-07 Europaeische Gemeinschaft Vert Verfahren zur Erzeugung der Farb- und Helligkeitswerte von Bildpunkten
DE19807013B4 (de) * 1997-05-30 2005-08-18 Hewlett-Packard Development Co., L.P., Houston Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5091960A (en) * 1988-09-26 1992-02-25 Visual Information Technologies, Inc. High-speed image rendering method using look-ahead images
JPH03205976A (ja) * 1989-10-27 1991-09-09 Nec Corp 特殊効果装置を用いた画面合成システム
US5355442A (en) * 1992-12-16 1994-10-11 Loral Aerospace Corp. Terrain visualization by ray tracing a conical height field transformation
US5694530A (en) * 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same
US5900878A (en) * 1994-01-18 1999-05-04 Hitachi Medical Corporation Method of constructing pseudo-three-dimensional image for obtaining central projection image through determining view point position by using parallel projection image and apparatus for displaying projection image
US5570460A (en) * 1994-10-21 1996-10-29 International Business Machines Corporation System and method for volume rendering of finite element models
US6064389A (en) * 1997-05-27 2000-05-16 International Business Machines Corporation Distance dependent selective activation of three-dimensional objects in three-dimensional workspace interactive displays
AUPQ119799A0 (en) * 1999-06-25 1999-07-22 Dynamic Digital Depth Research Pty Ltd Ddc/3 image conversion and encoding techniques
US20030063383A1 (en) * 2000-02-03 2003-04-03 Costales Bryan L. Software out-of-focus 3D method, system, and apparatus
KR100446635B1 (ko) * 2001-11-27 2004-09-04 삼성전자주식회사 깊이 이미지 기반 3차원 객체 표현 장치 및 방법
JP3629243B2 (ja) * 2002-02-13 2005-03-16 Necマイクロシステム株式会社 モデリング時の距離成分を用いてレンダリング陰影処理を行う画像処理装置とその方法
ITRM20030345A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per ricavare una mappa di profondita'
US7333652B2 (en) * 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
US7822000B2 (en) * 2005-06-30 2010-10-26 Symbol Technologies, Inc. Time division multiplexing for access ports in a wireless network
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070189750A1 (en) * 2006-02-16 2007-08-16 Sony Corporation Method of and apparatus for simultaneously capturing and generating multiple blurred images
US7616254B2 (en) * 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US7711201B2 (en) * 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
JP5637653B2 (ja) * 2008-08-18 2014-12-10 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8553093B2 (en) * 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US8571314B2 (en) 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
JP2012181825A (ja) * 2011-02-09 2012-09-20 Canon Inc 画像処理装置およびその方法
WO2015030623A1 (en) * 2013-09-02 2015-03-05 3Divi Company Methods and systems for locating substantially planar surfaces of 3d scene
CN114297176A (zh) * 2021-12-15 2022-04-08 东南大学 基于人工智能的中国古典园林假山自动生成方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602702A (en) * 1969-05-19 1971-08-31 Univ Utah Electronically generated perspective images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4697178A (en) * 1984-06-29 1987-09-29 Megatek Corporation Computer graphics system for real-time calculation and display of the perspective view of three-dimensional scenes
US4710876A (en) * 1985-06-05 1987-12-01 General Electric Company System and method for the display of surface structures contained within the interior region of a solid body
US4719585A (en) * 1985-08-28 1988-01-12 General Electric Company Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602702A (en) * 1969-05-19 1971-08-31 Univ Utah Electronically generated perspective images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4244507A1 (de) * 1992-12-30 1994-07-07 Europaeische Gemeinschaft Vert Verfahren zur Erzeugung der Farb- und Helligkeitswerte von Bildpunkten
DE19807013B4 (de) * 1997-05-30 2005-08-18 Hewlett-Packard Development Co., L.P., Houston Volumetrisches Vorabschneidungsverfahren, das eine minimale Anzahl von Abtastpunkten durch ein Volumen gewährleistet

Also Published As

Publication number Publication date
US4947347A (en) 1990-08-07
JPS6476374A (en) 1989-03-22
DE3831428C2 (de) 1992-08-06
JPH0528873B2 (de) 1993-04-27

Similar Documents

Publication Publication Date Title
DE3831428A1 (de) Verfahren und vorrichtung zum erzeugen einer tiefenkarte
DE69908966T3 (de) Schattierung von 3-dimensionalen rechner-erzeugten bildern
DE102006061325B4 (de) Verfahren zur computergestützten Identifikation der von einem Richtstrahl durchschnittenen Kinderoktanten eines Elternoktants in einer Octree-Datenstruktur mittels Look-up-Tabellen
DE69914355T2 (de) Bildverarbeitungsgerät
DE19858306A1 (de) C-Arm Kalibrierungsverfahren unter Anwendung einer planaren Transformation zur 3D-Rekonstruktion bei einem Bildsystem
DE10144932B4 (de) Visualisierung von Werkstücken bei der Simulation von Fräsprozessen
DE3407983A1 (de) Mehrprozessorrechnersystem zum verarbeiten in einer hierarchischen datenstruktur definierter objektelemente zu einer farbigen abbildung
DE10106023A1 (de) Verfahren und Vorrichtung zur Kollisionserkennung von Objekten
DE112009004371T5 (de) Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsprogramm
DE3735519C2 (de) Binäre Rauminterpolation
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE102005008609A1 (de) Flexible Erzeugung von digital rekonstruierten Röntgenaufnahmen
DE2804732A1 (de) Geraet zur verarbeitung von werten einer quantitaet, beispielsweise der absorption von roentgenstrahlung
DE19806985B4 (de) Organisationsverfahren für volumetrische Daten, das effiziente Cache-Aufbereitungsbeschleunigungen und einen effizienten Graphik-Hardwareentwurf ermöglicht
DE102008050449A1 (de) Clipping Geometrien beim Raycasting
EP0372107A1 (de) Verfahren zur Simulation der Bearbeitung eines Werkstückes und Darstellung desselben, sowie Vorrichtung zur Durchführung des Verfahrens
EP0284158B1 (de) Verfahren, bei dem ein Untersuchungsbereich aus mehreren Strahlenquellenpositionen durchstrahlt wird
DE4208401A1 (de) Datengenerator fuer dreidimensionale figuren
DE4100691B4 (de) Verfahren zur Darstellung eines dreidimensionalen Modells
DE60105152T2 (de) Dreidimensionales, beschleunigtes bild-rekonstruktionsverfahren
DE19704529B4 (de) Verfahren zum automatischen Erzeugen und Handhaben einer Schatten-Geometrie und interaktive computergestützte Anzeigeeinrichtung
EP1820160A1 (de) Verfahren zur ableitung von technischen zeichnungen aus 3d modellen mit mindestens zwei kollidierenden 3d körpern
EP1356432A1 (de) Verfahren und vorrichtung zur bildrekonstruktion eines raumvolumens
DE102007020060B4 (de) Verteilte Berechnung von Bildern volumetrischer Objekte mittels Ray Casting
DE3903838C2 (de)

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN

8320 Willingness to grant licences declared (paragraph 23)