DE102009055821A1 - Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views - Google Patents

Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views Download PDF

Info

Publication number
DE102009055821A1
DE102009055821A1 DE102009055821A DE102009055821A DE102009055821A1 DE 102009055821 A1 DE102009055821 A1 DE 102009055821A1 DE 102009055821 A DE102009055821 A DE 102009055821A DE 102009055821 A DE102009055821 A DE 102009055821A DE 102009055821 A1 DE102009055821 A1 DE 102009055821A1
Authority
DE
Germany
Prior art keywords
image
display
camera
depth map
displays
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009055821A
Other languages
German (de)
Inventor
Nils Vogel
Jens Dipl.-Inform. Meichsner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D International Europe GmbH
Original Assignee
Visumotion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visumotion GmbH filed Critical Visumotion GmbH
Priority to DE102009055821A priority Critical patent/DE102009055821A1/en
Publication of DE102009055821A1 publication Critical patent/DE102009055821A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The method involves providing a camera and an interactive camera, for views of three-dimensional displays i.e. auto-stereoscopic displays. The interactive camera is set as a master camera for a derived view. A view-camera is set per pass, and a generated image is read on a three-dimensional scene in textures. The textures are combined together with a three-dimensional image after the pass by a combination image. Differences between the views of the displays are compared by repetition and/or shifting of the textures. The three-dimensional image is displayed with the views on the displays. The three-dimensional scene lies in an application such as animation program i.e. Autodesk Maya(RTM: three-dimensional animation software).

Description

Die Erfindung bezieht sich auf das Gebiet der räumlichen Darstellung, im speziellen auf ein Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, wobei eine interaktive Vorschau in Echtzeit ermöglicht wird.The invention relates to the field of spatial representation, in particular to a method for creating 3D images for 3D displays, allowing an interactive preview in real time.

Die US 2004/139401 beschreibt eine allgemeine Echtzeit-Vorschau der Auswirkungen von Befehlen in Computerprogrammen. Auf der anderen Seite sind Animationsprogramme wie etwa Audesk Maya® bekannt, wofür Plugins zur Generation von 3D-Bildern in mehreren Ansichten existieren. Nachteilig dabei ist, dass interaktive Echtzeitvorschauen auf einem 3D-Display dabei bislang nicht möglich sind. Das bedeutet für den Ersteller von 3D-Bildern, dass er seinen 3D-Inhalt erst komplett erstellen („rendern”) muss, ehe das Ergebnis auf einem 3D-Bildschirm angeschaut werden kann. Weiterhin ist das so erhaltene Ergebnis nicht interaktiv veränderbar, etwa beim Wechsel bestimmter Parameter. Im Extremfall führt der Nutzer dadurch den kompletten Rendering-Vorgang umsonst aus, weil einige Parameter zum Eingang nicht richtig gewählt waren.The US 2004/139401 describes a general real-time preview of the effects of commands in computer programs. On the other hand animation programs such as Maya ® Audesk known what exist plugins for generation of 3D images in multiple views. The disadvantage here is that interactive real-time previews on a 3D display are so far not possible. For the creator of 3D images, this means that he must first create ("render") his 3D content before the result can be viewed on a 3D screen. Furthermore, the result obtained is not interactively changeable, such as when changing certain parameters. In extreme cases, the user performs the entire rendering process free of charge because some input parameters were not selected correctly.

Zusammenfassend gibt es zwei Hauptkritikpunkte im Stand der Technik:
(1) Mit bisherigen Mitteln zur Erstellung von Szenen für Autostereoskopische Displays kann der 3D-Eindruck der erstellten Szene erst nach erfolgtem, zeitaufwändigem Rendern überprüft werden, was fehlerhafte Einstellungen nicht ausschließt. (2) Weiterhin ist das Modellieren einer 3D-Szene, d. h. das Variieren von Parametern, nicht intuitiv möglich, weil es bislang keine 3D-Echtzeit Vorschau gibt.
In summary, there are two main criticisms in the prior art:
(1) With previous means for creating scenes for autostereoscopic displays, the 3D impression of the created scene can be checked only after successful, time-consuming rendering, which does not preclude erroneous settings. (2) Furthermore, modeling a 3D scene, ie, varying parameters, is not intuitively possible because there is no 3D real-time preview yet.

Der Erfindung liegt daher die Aufgabe zugrunde, durch eine 3D-Echtzeitvorschau des 3D-Ergebnisses diese vorgenannten Mängel abzustellen.The invention is therefore based on the object to remedy these aforementioned deficiencies by a 3D real-time preview of the 3D result.

Diese Aufgabe wird erfindungsgemäß gelöst von einem Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem

  • – in einer Applikation eine 3D-Szene vorliegt, die in N (mit N > 1) verschiedenen Ansichten erstellt und auf einem 3D-Display mit M (mit M > 1) verschiedenen Ansichten dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird,
  • – beim Zeichnen dieser abgeleiteten Ansicht mehrere Pässe möglich sind, wobei die Anzahl der Pässe gleich N ist,
  • – für jede der M Ansichten des 3D-Displays im Kameramodell jeweils eine Kamera sowie eine Hauptkamera (interaktive Kamera) vorhanden sind,
  • – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht (also die „View”) gesetzt wird,
  • – pro Pass jeweils eine der Ansichten-Kameras gesetzt und das so jeweils erstellte Bild auf die Szene in eine Textur gelesen wird,
  • – die Texturen nach dem letzten Pass mittels einer Kombinationsvorschrift miteinander zum einem 3D-Bild kombiniert werden, wobei Unterschiede zwischen N und der Anzahl M der Ansichten eines angeschlossenen 3D-Displays durch Wiederholung bzw. Verwerfung von Texturen ausgeglichen werden,
  • – anschließend das 3D-Bild auf einem 3D-Display mit M verschiedenen Ansichten angezeigt wird.
This object is achieved by a method for creating 3D images for 3D displays, in which
  • In an application, there is a 3D scene to be created in N (with N> 1) different views and displayed on a 3D display with M (with M> 1) different views, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view",
  • - when drawing this derived view, multiple passes are possible, with the number of passes equal to N,
  • - there is one camera and one main camera (interactive camera) for each of the M views of the 3D display in the camera model,
  • - the main camera is set as the master camera for the derived view (ie the "view"),
  • - set one of the view cameras for each pass and read the resulting image on the scene into a texture,
  • The textures after the last pass are combined with one another by means of a combination rule to form a 3D image, whereby differences between N and the number M of the views of a connected 3D display are compensated for by repetition or rejection of textures,
  • - Then the 3D image is displayed on a 3D display with M different views.

Das vorgenannte Verfahren ist insbesondere bei Verwendung eines 3D-Displays, welches als 3D-Eingangsbild ein aus mehreren Ansichten zusammengesetztes Bild verlangt, geeignet.The aforementioned method is particularly suitable when using a 3D display, which requires as a 3D input image composed of multiple views image suitable.

Bei der Kombinationsvorschrift zur Erstellung eines 3D-Bildes, insbesondere für das das angeschlossene 3D-Display handelt es sich um eine rasterartige Zuordnung von Bildinformationen der N bzw. M verschiedenen Ansichten zu dem 3D-Bild, wie im Stand der Technik hinreichend beschrieben (z. B. in der EP 0791847 A1 ).The combination rule for creating a 3D image, in particular for the connected 3D display, is a grid-like assignment of image information of the N or M different views to the 3D image, as described sufficiently in the prior art (for example, US Pat. B. in the EP 0791847 A1 ).

Für andere 3D-Displays kann das folgende alternative erfinderische Verfahren von Vorteil sein. Es handelt sich dabei um ein Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem

  • – in einer Applikation eine 3D-Szene vorliegt, die als 2D-Bild mit zugehöriger Tiefenkarte erstellt und auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird,
  • – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht gesetzt wird,
  • – genau ein Pass durchgeführt wird, in welchem von der Master-Kamera ein 2D-Bild und eine dazugehörige Tiefenkarte ausgelesen werden,
  • – die Tiefenkarte auf den Wertebereich zwischen nächster und fernster Ebene der Master-Kamera normalisiert wird, sowie
  • – anschließend das 2D-Bild und eine dazugehörige Tiefenkarte auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, angezeigt wird.
For other 3D displays, the following alternative inventive method may be advantageous. It is a method for creating 3D images for 3D displays in which
  • In an application, there is a 3D scene which is produced as a 2D image with associated depth map and is to be displayed on a 3D display which requires a 2D image with associated depth map as the image input signal, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view",
  • - the main camera is set as the master camera for the derived view,
  • Exactly one pass is made in which a 2D image and an associated depth map are read out by the master camera,
  • - The depth map is normalized to the value range between the next and the farest level of the master camera, as well
  • - Then the 2D image and an associated depth map on a 3D display, which requires a picture input signal as a 2D image with associated depth map, is displayed.

Beim Schritt der Normalisierung der Tiefenkarte auf den Wertebereich zwischen nächster und fernster Ebene der Master-Kamera werden bevorzugt die sogenannten Near- und die FarPlane verwendet, dass heißt, die Tiefenkarte wird zwischen dem nächsten und dem fernsten Punkt als minimale und maximale Tiefenwerte normiert.During the step of normalizing the depth map to the value range between the next and the farest level of the master camera, the so-called near and far planes are preferably used, that is, the depth map is interspersed normalized to the nearest and the farthest point as minimum and maximum depth values.

Beide erfinderische Verfahren können insbesondere als Plugin für bestehende Computerprogramme, die der Applikation entsprechen, (z. B. Computergrafik-Animationsprogramme) umgesetzt werden. Sie laufen in dem Falle auf einem geeigneten PC mit einer Grafikchip, an welchen das 3D-Display und ggf. noch ein zusätzlicher 2D-Monitor angeschlossen ist.Both inventive methods can be implemented in particular as a plug-in for existing computer programs that correspond to the application (for example computer graphics animation programs). In this case, they run on a suitable PC with a graphics chip to which the 3D display and, if necessary, an additional 2D monitor is connected.

Bei beiden erfinderischen Verfahren wird die 3D-Echtzeit-Vorschau auf dem 3D-Display durch den Ablauf der Verfahrensschritte gewährleistet.In both inventive methods, the 3D real-time preview on the 3D display is ensured by the sequence of the method steps.

Weitere Ausgestaltungen sehen vor, dass beim zweitgenannten erfinderischen Verfahren vor der Anzeige des 2D-Bildes und der dazugehörigen Tiefenkarte auf einem 3D-Display folgende Schritte ausgeführt werden:

  • – Zusammensetzen des 2D-Bildes und der normalisierte Tiefenkarte zu einem Mischbild, wobei in diesem Mischbild bevorzugt links das 2D-Bild und rechts die Tiefenkarte enthalten sind,
  • – in das entstandene Mischbild ein Farbcode geschrieben wird,
  • – anschließend die eingangs genannte Anzeige vermittels des Mischbildes durchgeführt wird.
Further embodiments provide that in the second-mentioned inventive method, before the display of the 2D image and the associated depth map on a 3D display, the following steps are carried out:
  • Combining the 2D image and the normalized depth map into a mixed image, wherein in this mixed image preferably the 2D image is contained on the left and the depth map on the right,
  • - a color code is written in the resulting mixed image,
  • - Then the aforementioned display by means of the mixed image is performed.

Die Applikation ist bevorzugt ein Animationsprogramm, wie beispielsweise Autodesk® Maya. Eine Szene in Maya kann mehrere Instanzen der verschiedenen Kamera-Modelle enthalten. Zwischen diesen Instanzen kann gewechselt werden. Die Echtzeitvorschau wechselt in dem Zuge mit.The administration is preferred entertainment programs such as Autodesk ® Maya. A scene in Maya can contain multiple instances of different camera models. You can switch between these instances. The real-time preview changes in the course.

Das 3D-Display ist vorzugsweise ein autostereoskopischer Bildschirm.The 3D display is preferably an autostereoscopic screen.

Die Vorteile der Erfindung sind vielseitig. Vermöge der Erfindung ist es möglich, schon bei der Erstellung von 3D-Bildern für autostereoskopische Displays den 3D-Eindruck auf Grund der Echtzeitvorschau zu überprüfen, und damit Renderzeiten zur Überprüfung einzusparen. Weiterhin ist das Modellieren einer 3D-Szene fortan intuitiv möglich, weil es jetzt eine 3D-Echtzeit Vorschau gibt.The advantages of the invention are versatile. By virtue of the invention, it is possible to check the 3D impression on the basis of the real-time preview already when creating 3D images for autostereoscopic displays, and thus to save render times for checking purposes. Furthermore, the modeling of a 3D scene is now intuitively possible because there is now a 3D real-time preview.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2004/139401 [0002] US 2004/139401 [0002]
  • EP 0791847 A1 [0007] EP 0791847 A1 [0007]

Claims (5)

Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem – in einer Applikation eine 3D-Szene vorliegt, die in N (mit N > 1) verschiedenen Ansichten erstellt und auf einem 3D-Display mit M (mit M > 1) verschiedenen Ansichten dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird, – beim Zeichnen dieser abgeleiteten Ansicht mehrere Pässe möglich sind, wobei die Anzahl der Pässe gleich N ist, – für jede der M Ansichten des 3D-Displays im Kameramodell jeweils eine Kamera sowie eine Hauptkamera (interaktive Kamera) vorhanden sind, – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht gesetzt wird, – pro Pass jeweils eine der Ansichten-Kameras gesetzt und das so jeweils erstellte Bild auf die Szene in eine Textur gelesen wird, – die Texturen nach dem letzten Pass mittels einer Kombinationsvorschrift miteinander zum einem 3D-Bild kombiniert werden, wobei Unterschiede zwischen N und der Anzahl M der Ansichten eines angeschlossenen 3D-Displays durch Wiederholung bzw. Verwerfung von Texturen ausgeglichen werden, – anschließend das 3D-Bild auf einem 3D-Display mit M verschiedenen Ansichten angezeigt wird.Method for creating 3D images for 3D displays, in which In an application, there is a 3D scene to be created in N (with N> 1) different views and displayed on a 3D display with M (with M> 1) different views, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view", - when drawing this derived view, multiple passes are possible, with the number of passes equal to N, - there is one camera and one main camera (interactive camera) for each of the M views of the 3D display in the camera model, - the main camera is set as the master camera for the derived view, - set one of the view cameras for each pass and read the resulting image on the scene into a texture, The textures after the last pass are combined with one another by means of a combination rule to form a 3D image, whereby differences between N and the number M of the views of a connected 3D display are compensated for by repetition or rejection of textures, - Then the 3D image is displayed on a 3D display with M different views. Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem – in einer Applikation eine 3D-Szene vorliegt, die als 2D-Bild mit zugehöriger Tiefenkarte erstellt und auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird, – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht gesetzt wird, – genau ein Pass durchgeführt wird, in welchem von der Master-Kamera ein 2D-Bild und eine dazugehörige Tiefenkarte ausgelesen werden, – die Tiefenkarte auf den Wertebereich zwischen nächster und fernster Ebene der Master-Kamera normalisiert wird, sowie – anschließend das 2D-Bild und eine dazugehörige Tiefenkarte auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, angezeigt wird.Method for creating 3D images for 3D displays, in which In an application there is a 3D scene which is produced as a 2D image with associated depth map and is to be displayed on a 3D display which requires a 2D image with associated depth map as the image input signal, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view", - the main camera is set as the master camera for the derived view, Exactly one pass is made in which a 2D image and an associated depth map are read out by the master camera, - The depth map is normalized to the value range between the next and the farest level of the master camera, as well - Then the 2D image and an associated depth map on a 3D display, which requires a picture input signal as a 2D image with associated depth map, is displayed. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass vor der Anzeige des 2D-Bildes und der dazugehörigen Tiefenkarte auf einem 3D-Display folgende Schritte ausgeführt werden: – Zusammensetzen des 2D-Bildes und der normalisierte Tiefenkarte zu einem Mischbild, wobei in diesem Mischbild bevorzugt links das 2D-Bild und rechts die Tiefenkarte enthalten sind, – in das entstandene Mischbild ein Farbcode geschrieben wird, – anschließend die eingangs genannte Anzeige vermittels des Mischbildes durchgeführt wird.A method according to claim 2, characterized in that prior to the display of the 2D image and the associated depth map on a 3D display, the following steps are performed: Combining the 2D image and the normalized depth map into a mixed image, wherein in this mixed image preferably the 2D image is contained on the left and the depth map on the right, - a color code is written in the resulting mixed image, - Then the aforementioned display by means of the mixed image is performed. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Applikation ein Animationsprogramm, wie beispielsweise Autodesk® Maya, ist.Method according to one of claims 1 to 3, characterized in that the application is an animation program such as Autodesk ® Maya. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das 3D-Display ein autostereoskopischer Bildschirm ist.Method according to one of claims 1 to 4, characterized in that the 3D display is an autostereoscopic screen.
DE102009055821A 2009-11-24 2009-11-24 Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views Withdrawn DE102009055821A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009055821A DE102009055821A1 (en) 2009-11-24 2009-11-24 Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009055821A DE102009055821A1 (en) 2009-11-24 2009-11-24 Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views

Publications (1)

Publication Number Publication Date
DE102009055821A1 true DE102009055821A1 (en) 2011-05-26

Family

ID=43902163

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009055821A Withdrawn DE102009055821A1 (en) 2009-11-24 2009-11-24 Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views

Country Status (1)

Country Link
DE (1) DE102009055821A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0791847A1 (en) 1996-02-23 1997-08-27 Koninklijke Philips Electronics N.V. Autostereoscopic display apparatus
US20040139401A1 (en) 1998-08-28 2004-07-15 Unbedacht Kevin C. Real time preview

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0791847A1 (en) 1996-02-23 1997-08-27 Koninklijke Philips Electronics N.V. Autostereoscopic display apparatus
US20040139401A1 (en) 1998-08-28 2004-07-15 Unbedacht Kevin C. Real time preview

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. Taylor: "multi-pass rendering", Auszug aus Kapitel 15, In: "Creative After Effects", 2002, S. 1-21 *
P.D.E. Jensen et al.: "Interactive Shader Development", ACM 2007, 978-1-59593-749-0/07/0008, S. 89-96 *
Th. Ertl et al.: "Efficient Partitioning of Fragment Shaders for Multipass Rendering on Programmable Graphics Hardware", Graphics Hardware, 2002, S. 69-78 & 156 *

Similar Documents

Publication Publication Date Title
DE102007014133B4 (en) A method of visualizing a sequence of tomographic volume data sets of medical imaging
DE102009035441B4 (en) Method and image processing system for generating a volume view image from inside a body
WO2010118729A2 (en) Method for representing an animated object
DE69936078T2 (en) Object rendering system for generating x-ray-like images
DE102015210453B3 (en) METHOD AND APPARATUS FOR GENERATING DATA FOR A TWO OR THREE-DIMENSIONAL PRESENTATION OF AT LEAST ONE PART OF AN OBJECT AND FOR PRODUCING THE TWO OR THREE-DIMENSIONAL PRESENTATION AT LEAST THE PART OF THE OBJECT
DE102005008609A1 (en) Flexible generation of digitally reconstructed X-ray images
EP2038847A2 (en) Method and apparatus for representing 3d image records in 2d images
EP3220357A3 (en) Model-based generation and display of three-dimensional objects
DE202019006019U1 (en) Techniques for analyzing vehicle design deviations using deep learning with neural networks
DE102009042326A1 (en) Interactively changing the appearance of an object represented by volume rendering
DE102018118187A1 (en) Process and data processing system for the synthesis of images
DE102011076878A1 (en) Method for changing e.g. color value of three-dimensional object in computed tomography application, involves performing change of representation of three-dimensional volume for sample points along beams if points lie in affected areas
WO2010128097A2 (en) Method for stereoscopic illustration
DE102012223587A1 (en) Method for testing application on terminals e.g. virtual terminal, involves comparing differences between first and second information of second terminal to differences between first and second information of first terminal
DE102012005880A1 (en) Method for designing production environment e.g. workstation, involves recording sequence of movements of worker during production of performing action and evaluating sequence of movements of predetermined criterion
DE102009055821A1 (en) Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views
DE102016212888A1 (en) Determine a series of images depending on a signature set
DE102012217089A1 (en) Layer representation of volume data
DE102011079916A1 (en) Method and apparatus for progressively loading medical, multi-dimensional images into a medical application
DE102011083635A1 (en) 3D visualization of medical 3D image data
EP3984493A1 (en) Method for producing a dental restoration
DE102013203402A1 (en) Method for spatial representation of environment of car with view from virtual observer position during playing computer game, involves projecting network on virtual projection surface based on virtual observer position
WO2020057849A1 (en) Computer-implemented method for compressing measurement data from a measurement of a measurement volume
DE102004062361A1 (en) Method for deriving technical drawings from 3D models with at least two colliding 3D bodies
DE102013226332A1 (en) Method for processing a particular medical image data set

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130601