DE102009055821A1 - Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views - Google Patents
Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views Download PDFInfo
- Publication number
- DE102009055821A1 DE102009055821A1 DE102009055821A DE102009055821A DE102009055821A1 DE 102009055821 A1 DE102009055821 A1 DE 102009055821A1 DE 102009055821 A DE102009055821 A DE 102009055821A DE 102009055821 A DE102009055821 A DE 102009055821A DE 102009055821 A1 DE102009055821 A1 DE 102009055821A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- display
- camera
- depth map
- displays
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/52—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
Die Erfindung bezieht sich auf das Gebiet der räumlichen Darstellung, im speziellen auf ein Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, wobei eine interaktive Vorschau in Echtzeit ermöglicht wird.The invention relates to the field of spatial representation, in particular to a method for creating 3D images for 3D displays, allowing an interactive preview in real time.
Die
Zusammenfassend gibt es zwei Hauptkritikpunkte im Stand der Technik:
(1) Mit bisherigen Mitteln zur Erstellung von Szenen für Autostereoskopische Displays kann der 3D-Eindruck der erstellten Szene erst nach erfolgtem, zeitaufwändigem Rendern überprüft werden, was fehlerhafte Einstellungen nicht ausschließt. (2) Weiterhin ist das Modellieren einer 3D-Szene, d. h. das Variieren von Parametern, nicht intuitiv möglich, weil es bislang keine 3D-Echtzeit Vorschau gibt.In summary, there are two main criticisms in the prior art:
(1) With previous means for creating scenes for autostereoscopic displays, the 3D impression of the created scene can be checked only after successful, time-consuming rendering, which does not preclude erroneous settings. (2) Furthermore, modeling a 3D scene, ie, varying parameters, is not intuitively possible because there is no 3D real-time preview yet.
Der Erfindung liegt daher die Aufgabe zugrunde, durch eine 3D-Echtzeitvorschau des 3D-Ergebnisses diese vorgenannten Mängel abzustellen.The invention is therefore based on the object to remedy these aforementioned deficiencies by a 3D real-time preview of the 3D result.
Diese Aufgabe wird erfindungsgemäß gelöst von einem Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem
- – in einer Applikation eine 3D-Szene vorliegt, die in N (mit N > 1) verschiedenen Ansichten erstellt und auf einem 3D-Display mit M (mit M > 1) verschiedenen Ansichten dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird,
- – beim Zeichnen dieser abgeleiteten Ansicht mehrere Pässe möglich sind, wobei die Anzahl der Pässe gleich N ist,
- – für jede der M Ansichten des 3D-Displays im Kameramodell jeweils eine Kamera sowie eine Hauptkamera (interaktive Kamera) vorhanden sind,
- – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht (also die „View”) gesetzt wird,
- – pro Pass jeweils eine der Ansichten-Kameras gesetzt und das so jeweils erstellte Bild auf die Szene in eine Textur gelesen wird,
- – die Texturen nach dem letzten Pass mittels einer Kombinationsvorschrift miteinander zum einem 3D-Bild kombiniert werden, wobei Unterschiede zwischen N und der Anzahl M der Ansichten eines angeschlossenen 3D-Displays durch Wiederholung bzw. Verwerfung von Texturen ausgeglichen werden,
- – anschließend das 3D-Bild auf einem 3D-Display mit M verschiedenen Ansichten angezeigt wird.
- In an application, there is a 3D scene to be created in N (with N> 1) different views and displayed on a 3D display with M (with M> 1) different views, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view",
- - when drawing this derived view, multiple passes are possible, with the number of passes equal to N,
- - there is one camera and one main camera (interactive camera) for each of the M views of the 3D display in the camera model,
- - the main camera is set as the master camera for the derived view (ie the "view"),
- - set one of the view cameras for each pass and read the resulting image on the scene into a texture,
- The textures after the last pass are combined with one another by means of a combination rule to form a 3D image, whereby differences between N and the number M of the views of a connected 3D display are compensated for by repetition or rejection of textures,
- - Then the 3D image is displayed on a 3D display with M different views.
Das vorgenannte Verfahren ist insbesondere bei Verwendung eines 3D-Displays, welches als 3D-Eingangsbild ein aus mehreren Ansichten zusammengesetztes Bild verlangt, geeignet.The aforementioned method is particularly suitable when using a 3D display, which requires as a 3D input image composed of multiple views image suitable.
Bei der Kombinationsvorschrift zur Erstellung eines 3D-Bildes, insbesondere für das das angeschlossene 3D-Display handelt es sich um eine rasterartige Zuordnung von Bildinformationen der N bzw. M verschiedenen Ansichten zu dem 3D-Bild, wie im Stand der Technik hinreichend beschrieben (z. B. in der
Für andere 3D-Displays kann das folgende alternative erfinderische Verfahren von Vorteil sein. Es handelt sich dabei um ein Verfahren zur Erstellung von 3D-Bildern für 3D-Displays, bei welchem
- – in einer Applikation eine 3D-Szene vorliegt, die als 2D-Bild mit zugehöriger Tiefenkarte erstellt und auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, dargestellt werden soll, wobei die besagte Applikation eine Programmierschnittstelle aufweist, welche das Zeichnen der 3D-Szene in mehreren Pässen ermöglicht, und das Ergebnis der Nutzung dieser Schnittstelle als „Abgeleitete Ansicht” („view”) bezeichnet wird,
- – die Hauptkamera als Master-Kamera für die abgeleitete Ansicht gesetzt wird,
- – genau ein Pass durchgeführt wird, in welchem von der Master-Kamera ein 2D-Bild und eine dazugehörige Tiefenkarte ausgelesen werden,
- – die Tiefenkarte auf den Wertebereich zwischen nächster und fernster Ebene der Master-Kamera normalisiert wird, sowie
- – anschließend das 2D-Bild und eine dazugehörige Tiefenkarte auf einem 3D-Display, welches als Bildeingangssignal ein 2D-Bild mit zugehöriger Tiefenkarte benötigt, angezeigt wird.
- In an application, there is a 3D scene which is produced as a 2D image with associated depth map and is to be displayed on a 3D display which requires a 2D image with associated depth map as the image input signal, said application having a programming interface, which allows drawing of the 3D scene in multiple passports, and the result of using this interface is called a "view",
- - the main camera is set as the master camera for the derived view,
- Exactly one pass is made in which a 2D image and an associated depth map are read out by the master camera,
- - The depth map is normalized to the value range between the next and the farest level of the master camera, as well
- - Then the 2D image and an associated depth map on a 3D display, which requires a picture input signal as a 2D image with associated depth map, is displayed.
Beim Schritt der Normalisierung der Tiefenkarte auf den Wertebereich zwischen nächster und fernster Ebene der Master-Kamera werden bevorzugt die sogenannten Near- und die FarPlane verwendet, dass heißt, die Tiefenkarte wird zwischen dem nächsten und dem fernsten Punkt als minimale und maximale Tiefenwerte normiert.During the step of normalizing the depth map to the value range between the next and the farest level of the master camera, the so-called near and far planes are preferably used, that is, the depth map is interspersed normalized to the nearest and the farthest point as minimum and maximum depth values.
Beide erfinderische Verfahren können insbesondere als Plugin für bestehende Computerprogramme, die der Applikation entsprechen, (z. B. Computergrafik-Animationsprogramme) umgesetzt werden. Sie laufen in dem Falle auf einem geeigneten PC mit einer Grafikchip, an welchen das 3D-Display und ggf. noch ein zusätzlicher 2D-Monitor angeschlossen ist.Both inventive methods can be implemented in particular as a plug-in for existing computer programs that correspond to the application (for example computer graphics animation programs). In this case, they run on a suitable PC with a graphics chip to which the 3D display and, if necessary, an additional 2D monitor is connected.
Bei beiden erfinderischen Verfahren wird die 3D-Echtzeit-Vorschau auf dem 3D-Display durch den Ablauf der Verfahrensschritte gewährleistet.In both inventive methods, the 3D real-time preview on the 3D display is ensured by the sequence of the method steps.
Weitere Ausgestaltungen sehen vor, dass beim zweitgenannten erfinderischen Verfahren vor der Anzeige des 2D-Bildes und der dazugehörigen Tiefenkarte auf einem 3D-Display folgende Schritte ausgeführt werden:
- – Zusammensetzen des 2D-Bildes und der normalisierte Tiefenkarte zu einem Mischbild, wobei in diesem Mischbild bevorzugt links das 2D-Bild und rechts die Tiefenkarte enthalten sind,
- – in das entstandene Mischbild ein Farbcode geschrieben wird,
- – anschließend die eingangs genannte Anzeige vermittels des Mischbildes durchgeführt wird.
- Combining the 2D image and the normalized depth map into a mixed image, wherein in this mixed image preferably the 2D image is contained on the left and the depth map on the right,
- - a color code is written in the resulting mixed image,
- - Then the aforementioned display by means of the mixed image is performed.
Die Applikation ist bevorzugt ein Animationsprogramm, wie beispielsweise Autodesk® Maya. Eine Szene in Maya kann mehrere Instanzen der verschiedenen Kamera-Modelle enthalten. Zwischen diesen Instanzen kann gewechselt werden. Die Echtzeitvorschau wechselt in dem Zuge mit.The administration is preferred entertainment programs such as Autodesk ® Maya. A scene in Maya can contain multiple instances of different camera models. You can switch between these instances. The real-time preview changes in the course.
Das 3D-Display ist vorzugsweise ein autostereoskopischer Bildschirm.The 3D display is preferably an autostereoscopic screen.
Die Vorteile der Erfindung sind vielseitig. Vermöge der Erfindung ist es möglich, schon bei der Erstellung von 3D-Bildern für autostereoskopische Displays den 3D-Eindruck auf Grund der Echtzeitvorschau zu überprüfen, und damit Renderzeiten zur Überprüfung einzusparen. Weiterhin ist das Modellieren einer 3D-Szene fortan intuitiv möglich, weil es jetzt eine 3D-Echtzeit Vorschau gibt.The advantages of the invention are versatile. By virtue of the invention, it is possible to check the 3D impression on the basis of the real-time preview already when creating 3D images for autostereoscopic displays, and thus to save render times for checking purposes. Furthermore, the modeling of a 3D scene is now intuitively possible because there is now a 3D real-time preview.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2004/139401 [0002] US 2004/139401 [0002]
- EP 0791847 A1 [0007] EP 0791847 A1 [0007]
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009055821A DE102009055821A1 (en) | 2009-11-24 | 2009-11-24 | Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009055821A DE102009055821A1 (en) | 2009-11-24 | 2009-11-24 | Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009055821A1 true DE102009055821A1 (en) | 2011-05-26 |
Family
ID=43902163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009055821A Withdrawn DE102009055821A1 (en) | 2009-11-24 | 2009-11-24 | Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009055821A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0791847A1 (en) | 1996-02-23 | 1997-08-27 | Koninklijke Philips Electronics N.V. | Autostereoscopic display apparatus |
US20040139401A1 (en) | 1998-08-28 | 2004-07-15 | Unbedacht Kevin C. | Real time preview |
-
2009
- 2009-11-24 DE DE102009055821A patent/DE102009055821A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0791847A1 (en) | 1996-02-23 | 1997-08-27 | Koninklijke Philips Electronics N.V. | Autostereoscopic display apparatus |
US20040139401A1 (en) | 1998-08-28 | 2004-07-15 | Unbedacht Kevin C. | Real time preview |
Non-Patent Citations (3)
Title |
---|
A. Taylor: "multi-pass rendering", Auszug aus Kapitel 15, In: "Creative After Effects", 2002, S. 1-21 * |
P.D.E. Jensen et al.: "Interactive Shader Development", ACM 2007, 978-1-59593-749-0/07/0008, S. 89-96 * |
Th. Ertl et al.: "Efficient Partitioning of Fragment Shaders for Multipass Rendering on Programmable Graphics Hardware", Graphics Hardware, 2002, S. 69-78 & 156 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007014133B4 (en) | A method of visualizing a sequence of tomographic volume data sets of medical imaging | |
DE102009035441B4 (en) | Method and image processing system for generating a volume view image from inside a body | |
WO2010118729A2 (en) | Method for representing an animated object | |
DE69936078T2 (en) | Object rendering system for generating x-ray-like images | |
DE102015210453B3 (en) | METHOD AND APPARATUS FOR GENERATING DATA FOR A TWO OR THREE-DIMENSIONAL PRESENTATION OF AT LEAST ONE PART OF AN OBJECT AND FOR PRODUCING THE TWO OR THREE-DIMENSIONAL PRESENTATION AT LEAST THE PART OF THE OBJECT | |
DE102005008609A1 (en) | Flexible generation of digitally reconstructed X-ray images | |
EP2038847A2 (en) | Method and apparatus for representing 3d image records in 2d images | |
EP3220357A3 (en) | Model-based generation and display of three-dimensional objects | |
DE202019006019U1 (en) | Techniques for analyzing vehicle design deviations using deep learning with neural networks | |
DE102009042326A1 (en) | Interactively changing the appearance of an object represented by volume rendering | |
DE102018118187A1 (en) | Process and data processing system for the synthesis of images | |
DE102011076878A1 (en) | Method for changing e.g. color value of three-dimensional object in computed tomography application, involves performing change of representation of three-dimensional volume for sample points along beams if points lie in affected areas | |
WO2010128097A2 (en) | Method for stereoscopic illustration | |
DE102012223587A1 (en) | Method for testing application on terminals e.g. virtual terminal, involves comparing differences between first and second information of second terminal to differences between first and second information of first terminal | |
DE102012005880A1 (en) | Method for designing production environment e.g. workstation, involves recording sequence of movements of worker during production of performing action and evaluating sequence of movements of predetermined criterion | |
DE102009055821A1 (en) | Method for generating three-dimensional images for auto-stereoscopic displays, involves comparing differences between views of displays by repetition and/or shifting of textures, and displaying three-dimensional image with different views | |
DE102016212888A1 (en) | Determine a series of images depending on a signature set | |
DE102012217089A1 (en) | Layer representation of volume data | |
DE102011079916A1 (en) | Method and apparatus for progressively loading medical, multi-dimensional images into a medical application | |
DE102011083635A1 (en) | 3D visualization of medical 3D image data | |
EP3984493A1 (en) | Method for producing a dental restoration | |
DE102013203402A1 (en) | Method for spatial representation of environment of car with view from virtual observer position during playing computer game, involves projecting network on virtual projection surface based on virtual observer position | |
WO2020057849A1 (en) | Computer-implemented method for compressing measurement data from a measurement of a measurement volume | |
DE102004062361A1 (en) | Method for deriving technical drawings from 3D models with at least two colliding 3D bodies | |
DE102013226332A1 (en) | Method for processing a particular medical image data set |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130601 |