DE19853608C2 - Method for displaying an autostereoscopic image - Google Patents

Method for displaying an autostereoscopic image

Info

Publication number
DE19853608C2
DE19853608C2 DE19853608A DE19853608A DE19853608C2 DE 19853608 C2 DE19853608 C2 DE 19853608C2 DE 19853608 A DE19853608 A DE 19853608A DE 19853608 A DE19853608 A DE 19853608A DE 19853608 C2 DE19853608 C2 DE 19853608C2
Authority
DE
Germany
Prior art keywords
perspectives
cameras
image
pixels
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19853608A
Other languages
German (de)
Other versions
DE19853608A1 (en
Inventor
Siegbert Hentschke
Janine Graf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19853608A priority Critical patent/DE19853608C2/en
Priority to EP99119995A priority patent/EP0994630A3/en
Publication of DE19853608A1 publication Critical patent/DE19853608A1/en
Application granted granted Critical
Publication of DE19853608C2 publication Critical patent/DE19853608C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/225Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

Die Erfindung betrifft ein Verfahren nach dem Oberbegriff des Anspruchs 1 zur Dar­ stellung von autostereoskopischen Bildern.The invention relates to a method according to the preamble of claim 1 for Dar provision of autostereoscopic images.

Stereoskope Film- und Projektionsverfahren sind seit Jahren im Einsatz. Meist wird polarisiertes Licht (horizontal/vertikal, zirkular) benutzt, um das rechte und linke Bild zu trennen. Mit dem Fortschritt der LCD-Technik wurde es möglich, die Lichtdurchlässigkeit von Kristallen elektronisch zu steuern. Dies machte die Entwicklung der Shutter-Technik möglich, bei der synchron mit der Halbbildfrequenz abwechselnd das rechte und das linke Brillenglas lichtundurchlässig wird und synchron dazu rechte und linke Bilder sequentiell auf dem Bildschirm erscheinen.Stereoscopic film and projection processes have been in use for years. Mostly Polarized light (horizontal / vertical, circular) used to image the right and left separate. With the advancement of LCD technology, it became possible to increase light transmission of crystals to be controlled electronically. This made the development of the shutter technique possible, in which the right and left alternate with the field frequency The lens becomes opaque and the right and left images are sequentially synchronized appear on the screen.

Autostereoskope Projektionen werden mit Hilfe von Leinwänden mit Streifenlinsenrastern bei mehreren Projektionsrichtungen durchgeführt. Dabei wird der entsprechenden Richtung das richtige Perspektivbild zugeordnet [R. Börner: Autosteroscopic 3-D Imaging by Front and Rear Projection and on Flat Panel Displays, Displays Vol. 14. No. 1 (1993), pp. 39-46]. Ein fließender Übergang von einer Perspektive zur nächsten ist dabei kaum zu erreichen, da die Anzahl der Projektionsrichtungen nicht beliebig erhöht werden kann. Bei einem autostereoskopen Display, das für nur eine Person bestimmt ist, verwendet man nur zwei Perspektiven, die eine bestimmte Blickrichtung erfordern [EP 0 836 332 A1; R. Börner: Autostereoskope Rückprojektions- und Flachbildschirme, Fernseh- und Kinotechnik Bd. 48, Nr. 11 (1994). S. 594-600]. Die Darstellung eines stereoskopen Bildes wie in einem Hologramm wird dagegen unter Verwendung von "Head Tracking"- Sensoren erreicht, die einerseits einen leistungsstarken Echtzeitrechner zur Berechnung der passenden stereoskopen Bildperspektiven und andererseits einen autostereoskopen Schirm zur Nachführung des optischen Strahlenganges steuern [EP 0 836 332 A2; S. Hentschke: Personenadaptiver autostereoskoper Monitor - eine Option für den Fernseher? Fernseh- und Kinotechnische Zeitschrift Nr. 5/1996, S. 242-248; DE 39 21 061 A1]. Hierbei wird die genaue Kopfposition und -bewegung detektiert, und die zugehörigen Bilder werden gleichzeitig generiert. Darüberhinaus kommen auch aufwendige VR-Systeme (Virtual Reality) unter Benutzung gewöhnungsbedürftiger "Head Mounted Displays" zum Einsatz.Autostereoscopic projections are made with the help of screens with streaked lens grids performed with several projection directions. The corresponding one Direction assigned the correct perspective image [R. Börner: Autosteroscopic 3-D imaging by Front and Rear Projection and on Flat Panel Displays, Displays Vol. 14. 1 (1993), pp. 39-46]. A smooth transition from one perspective to the next is hardly possible achieve, because the number of projection directions can not be increased arbitrarily. at an autostereoscopic display that is intended for one person only is used two perspectives that require a certain viewing direction [EP 0 836 332 A1; R. Börner: Autostereoskope rear projection and flat screens, television and Kinotechnik Vol. 48, No. 11 (1994). Pp. 594-600]. The representation of a stereoscope On the other hand, images like in a hologram are created using "head tracking" - Sensors achieved, on the one hand, a powerful real-time computer for calculating the suitable stereoscopic image perspectives and on the other hand an autostereoscopic screen control for tracking the optical beam path [EP 0 836 332 A2; S. Hentschke: Personal adaptive autostereoscopic monitor - an option for the TV? TV  and Kinotechnische Zeitschrift No. 5/1996, pp. 242-248; DE 39 21 061 A1]. Here will the exact head position and movement are detected, and the associated images are generated at the same time. In addition, there are also elaborate VR systems (virtual Reality) using "Head Mounted Displays" which takes getting used to.

In der Medizintechnik sind Kernspinresonanz und Computertomographie die wichtigsten Einsatzgebiete für stereoskope 3D-Visualisierungen. Um bestimmte gesuchte Perspektiven zu berechnen, werden leistungsfähige Spezialrechner eingesetzt. Kombinierte Computervi­ sualisierungen und Echtzeitübertragungen von Endoskopen werden zu einem der wichtig­ sten neurochirurgischen Werkzeuge. Stereoskope Endoskope sind bereits im Einsatz. Eine elektronische Bewegungssteuerung über einen auf Infrarotbasis arbeitenden "Head Tracking Sensor" wird leicht zu kombinieren sein mit einem personenbezogenen auto­ stereoskopen Bildschirmsystem.In medical technology, magnetic resonance and computed tomography are the most important Areas of application for stereoscopic 3D visualizations. About certain perspectives you are looking for powerful special computers are used to calculate. Combined computer visi Visualizations and real-time transmission of endoscopes are becoming one of the most important most neurosurgical tools. Stereoscopes Endoscopes are already in use. A electronic motion control via an infrared head Tracking Sensor "will be easy to combine with a personal car stereoscopic screen system.

Neben den Shutter-Monitoren sind autostereoskope adaptive Monitore bekannt (DE 195 00 315 C1), die für die jeweilige Betrachterposition zwei Perspektiven, eine rechte und eine linke, auf dem Monitor-Display getrennt für das rechte und linke Auge darzustellen vermögen. Dies erfordert jedoch eine in Echtzeit zu tätigende Neuberechnung von Gegenstandsperspektiven, wenn sich der Benutzer bewegt.In addition to the shutter monitors, autostereoscopic adaptive monitors are known (DE 195 00 315 C1), two perspectives, one for the respective observer position right and left, separated on the monitor display for the right and left eye able to represent. However, this requires recalculation to be carried out in real time of object perspectives when the user is moving.

Zur Darstellung autostereoskopischer Bilder sind weiterhin Vorrichtungen in Form von Stereo-Hologramm-Displays bekannt geworden (PCT WO 98/21 619), die mehrere elektronische Kameras, einen Computer, ein Belichtungsgerät oder einen Drucker, ein Rasterglas und eine hinter diesem montierbare, schwarz-weiße, Rasterpixel aufweisende Folie enthalten, wobei in jedes Rasterpixel nebeneinander eine Vielzahl von z. B. 128 Perspektiven geschrieben wird, wobei auch die Möglichkeit angedeutet ist, aus zwei oder mehr vorhandenen Perspektiven (durch Interpolation) weitere Perspektiven zu gewinnen. Dabei wird allerdings stillschweigend vorausgesetzt, daß die aufgenommenen Objekte bekannte Tiefenpositionen haben und sich bei der Aufnahme nicht überdecken. Wie bei Überdeckungen vorzugehen ist, kann weder diesem benannten Vorschlag noch dem weiteren, für Verfahren der eingangs bezeichneten Gattung einschlägigen Stand der Technik entnommen werden (z. B. US 5 696 596, US 5 697 006, US 5 455 689, JP-37 813 B2). Eine derartige natürliche dreidimensionale Darstellung von Objekten benötigt kein Head-Tracking System mehr und kann von mehreren Personen gleichzeitig zur autostereoskopen Darstellung genutzt werden.Devices for the display of autostereoscopic images are also in the form of Stereo hologram displays have become known (PCT WO 98/21 619), the several electronic cameras, a computer, an exposure device, or a printer Grid glass and a black and white raster pixel that can be mounted behind it Contain foil, with a large number of z. B. 128 perspectives is written, whereby the possibility is indicated, from two or more existing perspectives (through interpolation) to further perspectives win. However, it is tacitly assumed that the admitted Objects have known depth positions and do not overlap when shooting. How to deal with overlaps can neither this named proposal nor the further, relevant for methods of the type described in the introduction Technology can be taken (e.g. US 5 696 596, US 5 697 006, US 5 455 689, JP-37 813 B2). Such a natural three-dimensional representation of objects  no longer needs a head tracking system and can be used by several people at the same time can be used for autostereoscopic display.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Darstellung von autostereo­ skopischen Bildern vorzuschlagen, mit dem mit einfachen technischen und kostengünstigen Mitteln ein Objekt, insbesondere ein Portrait einer Person, mit einer Vielzahl von Perspektiven farb- und tiefengetreu dargestellt werden kann. Die dreidimensionale Information des Bildes soll wie in PCT WO 98/21 619 dargestellt und wahlweise auf einer schwarz-weißen, hochpräzisen Fotofilmschicht, auf einem herkömmlichen Filmmaterial oder auf einer normalen Folie gespeichert werden können.The invention has for its object a method for representing autostereo to propose scopic images with the simple technical and inexpensive Mean an object, especially a portrait of a person, with a variety of Perspectives can be displayed true to color and depth. The three-dimensional Information of the image should be as shown in PCT WO 98/21 619 and optionally on one black and white, high-precision photo film layer, on a conventional film material or can be saved on a normal slide.

Zur Lösung dieser Aufgabe dienen die kennzeichnenden Merkmale des Anspruchs 1.The characterizing features of claim 1 serve to achieve this object.

In Erweiterung des bekannten Verfahrens (PCT WO 98/21 619) wird durch die Erfindung auch für eine Großdarstellung (z. B. 64 cm × 48 cm) eine preisgünstige schwarz-weiße Filmfolie verwendbar. Um die dreidimensionale Aufbereitung zu vereinfachen und auf wenige Objekte zu konzentrieren, hält ein Graphikcomputer vorbereitete dreidimensionale Umgebungen bzw. Hintergründe zur Auswahl bereit. Eine zu portraitierende Person wird von einem elektronischen Kamerasystem fotografiert. Die Daten werden zu einem Graphikcomputer geleitet, der diese Informationen auf das spezifische 3D Schwarzweiß­ format umrechnet und einer Belichtungsmaschine unmittelbar zuführt. Nach wenigen Minuten kann das Bild betrachtet und gegebenenfalls verändert aufgenommen und dargestellt werden. Das Verfahren arbeitet vorzugsweise mit einer Hintergrundbeleuch­ tung, aber auch eine normale diffuse Bestrahlung von vorne möglich.The invention extends the known method (PCT WO 98/21 619) An inexpensive black and white also for a large display (e.g. 64 cm × 48 cm) Film can be used. To simplify the three-dimensional preparation and on A graphic computer holds prepared three-dimensional to concentrate few objects Environments or backgrounds available for selection. A person to be portrayed photographed by an electronic camera system. The data becomes one Graphics computer directed this information to the specific 3D black and white format converted and fed directly to an exposure machine. After a few Minutes the picture can be viewed and, if necessary, changed and recorded being represented. The method preferably works with a background lighting tion, but also normal diffuse radiation from the front is possible.

Für die computergestützte tiefengetreue Berechnung eines Bildes benötigt man vor einem Gegenstand bis über einhundert verschiedene Ansichten aus unterschiedlichen Blickpositio­ nen. Die simultane Aufzeichnung von derartig vielen Bildern stellt dabei ein technisches Problem dar. Die dreidimensionale Aufzeichnung einer ruhenden Umgebung kann durch einen langsam und gleichmäßig bewegte Kamera vorgenommen werden, die alle paar Millimeter eine Aufnahme macht. Bei sich bewegenden Objekten versagt die sequentielle Aufzeichnung. Bei der fotographischen Aufnahme von einer Person oder von mehreren Personen muß man von Bewegungen ausgehen, so daß man auf die gleichzeitige Aufzeichnung unterschiedlicher Perspektiven nicht verzichten kann. Dieses Problem wird erfindungsgemäß vorzugsweise dadurch gelöst, daß eine geringe Anzahl von elektroni­ schen Kameras, beispielsweise zwei, vier oder acht, nebeneinander in gleichmäßigen Abständen angeordnet und synchron ausgelöst werden. Eine Person oder ein sich bewe­ gender Gegenstand wird dabei vor einem weißen oder gleichfarbigen Hintergrund dargestellt. Aus diesen wenigen Bildern berechnet dann ein Graphikcomputer mit einer schnellen Korrelationsanalyse alle anderen erforderlichen Zwischenansichten. Die dann mit Tiefenpositionen gekennzeichneten dreidimensionalen Bildpixel eines Objektes können in eine wunschgemäß ausgewählte ruhende Umgebung positionsgerecht gemischt werden.For the computer-aided depth-accurate calculation of an image one needs before one Object up to over a hundred different views from different perspectives NEN. The simultaneous recording of such a large number of images represents a technical one Problem. The three-dimensional recording of a still environment can by a slowly and steadily moving camera should be made every few Millimeter takes a picture. The sequential fails with moving objects Recording. When photographing one or more people People have to start from movements, so that one is on the simultaneous recording  different perspectives can not do without. This problem will According to the invention preferably solved in that a small number of electronics cameras, for example two, four or eight, side by side in uniform Intervals are arranged and triggered synchronously. One person or one move The gender object is set against a white or the same colored background shown. From these few images, a graphics computer then calculates one quick correlation analysis all other necessary intermediate views. Then with Depth positions marked three-dimensional image pixels of an object can in a resting environment selected as desired can be mixed according to position.

Die Erfindung ermöglicht eine echte dreidimensionale Darstellung eines räumlichen Gegenstandes. Die 3D-Bilder selbst können auf handelsüblichen preisgünstigen Schwarz­ weißfilmen mit Größen über DIN A 3 untergebracht werden. Die in dem Graphikcompu­ ter abgelegten dreidimensionalen Hintergrundbilder sowie Objekte tragen alle Objektken­ nungen und können unterschiedlich in einem zusammengesetzten Bild positioniert werden. Es kann auch ein Gruppenbild vieler Personen vor einem bekannten Objekt tiefengetreu zusammengestellt werden. Bevor man einen Film belichtet, kann man sich ein solches Szenario auf einem personenadaptiven 3D-Monitor betrachten und Veränderungen in der Darstellung vornehmen.The invention enables a true three-dimensional representation of a spatial Object. The 3D images themselves can be found on commercially available, inexpensive black white films with sizes larger than DIN A3 can be accommodated. The in the graphics compu The stored three-dimensional background images and objects carry all objects and can be positioned differently in a composite image. It can also be a group picture of many people in front of a known object be put together. Before you expose a film, you can have one Consider the scenario on a person-adaptive 3D monitor and changes in the Make representation.

Für Werbezwecke können auch Objekte mit bestimmten Bewegungseffekten aufgezeichnet werden: beispielsweise kann sich beim Vorübergehen ein Gesicht verändern oder ein Arm heben, oder es kann sich aus einer bestimmten Blickrichtung ein Fenster öffnen, etc. Dabei ist es durchaus denkbar, daß sich ein sehr großes Bild aus mehreren kleinen Teilbildern zusammensetzen läßt.For promotional purposes, objects with certain movement effects can also be recorded For example: a face or an arm can change when passing by lift, or a window may open from a certain direction, etc. It is quite conceivable that a very large picture can consist of several small ones Lets you assemble drawing files.

Auch Personen, denen eine normale Stereosicht verwehrt ist, weil beispielsweise ein Auge zu schwach sieht, können den 3D-Effekt hierbei wahrnehmen, indem sie ihre Position geringfügig horizontal variieren und hier die verschiedenen Perspektiven erkennen.Even people who are denied a normal stereo view, for example because of one eye Seeing too weakly can perceive the 3D effect by changing their position vary slightly horizontally and recognize the different perspectives here.

Das hauptsächliche Anwendungsgebiet für das erfindungsgemäße Verfahren sind 3D- Fotostudios, die mit einem System elektronischer Kameras, einen Graphikcomputer, einem personenadaptiven 3D-Monitor sowie mit einem Schwarzweißbelichtungsgerät ausgerüstet sind. Selbstverständlich kann diese technische Ausrüstung auch genutzt werden, um preisgünstige, große, zweidimensionale Farbbilder anzufertigen. Anstelle einer Linsenra­ sterscheibe könnte in diesem Fall ein billigeres Bildglas mit einer Farbmaske benutzt werden.The main area of application for the method according to the invention is 3D Photo studios using a system of electronic cameras, a graphics computer, a person-adaptive 3D monitor and equipped with a black and white exposure device  are. Of course, this technical equipment can also be used to produce inexpensive, large, two-dimensional color images. Instead of a lentil In this case, the window could use cheaper glass with a color mask become.

Ein weiteres interessantes Anwendungsgebiet ist die Radiologie in der Medizintechnik: schwer zu interpretierende zweidimensionale Röntgenbilder können durch dreidimensiona­ le ersetzt werden. Jeder Arzt, der heute Röntgenbilder interpretiert, braucht nur zusätzlich eine Linsenrasterscheibe mit Farbmaske, wenn er auf eine 3D-Röntgenstation zurückgreift. Das gleiche gilt für die Kernspintomographie.Another interesting area of application is radiology in medical technology: two-dimensional x-ray images that are difficult to interpret can be determined by three-dimensional le to be replaced. Every doctor who interprets X-rays today only needs additional a lenticular screen with a color mask when he uses a 3D X-ray station. The same applies to magnetic resonance imaging.

Setzt man mehrere Teilbilder zu einem Großbild zusammen, so wird in der Architektur ein besonders interessantes Anwendungsgebiet erschlossen: anstatt eines Modells kann ein 3D-Großbild präsentiert werden.If you put several drawing files together to form a large picture, then in architecture opened up a particularly interesting area of application: instead of a model, a 3D large screen can be presented.

Weitere vorteilhafte Merkmale der Erfindung ergeben sich aus den Unteransprüchen.Further advantageous features of the invention emerge from the subclaims.

Die Erfindung wird nachfolgend in Verbindung mit den beiliegenden Zeichnungen an Ausführungsbeispielen näher erläutert. Es zeigen:The invention will be described in connection with the accompanying drawings Embodiments explained in more detail. Show it:

Fig. 1 schematisch eine 3D-Portraitierung mit elektronischen Kameras, einem Graphik­ computer und einem Belichtungsgerät und die nachfolgende Wiedergabe; Figure 1 schematically shows a 3D portrait with electronic cameras, a graphics computer and an exposure device and the subsequent playback.

Fig. 2 ein Stereofarbhologramm-Sichtgerät für 3D-Fotos, z. B. für die Kernspin- und Röntgentomographie; Fig. 2 shows a stereo color hologram viewer for 3D photos, e.g. B. for nuclear spin and X-ray tomography;

Fig. 3 die Darstellung von Objektpositionen in Kamera-Bildern; Fig. 3 is a representation of object positions in camera images;

Fig. 4 die Darstellung von Objektpositionen in Bildern von kreisförmig angeordneten Kameras; Fig. 4 is the representation of object positions in images of cameras arranged in a circle;

Fig. 5 die Darstellung der verschiedenen Perspektiven in einem Hologrammbild; Fig. 5 is the representation of the different perspectives in a hologram image;

Fig. 6 die Darstellung der Interpolation fehlender Perspektiven; Fig. 6 is the representation of the interpolation of missing perspectives;

Fig. 7 die Darstellung eines relativen Koordinatensystems für die Kamera und für den Betrachter; und Fig. 7 is the representation of a relative coordinate system for the camera and for the viewer; and

Fig. 8 eine Zylinderlinsen-Rasterscheibe in auseinandergezogener Darstellung zusammen mit einem positionsgetreu auflegbaren 3D-Foto. Fig. 8 is a cylindrical lens grid in an exploded view together with a 3D photo that can be placed in the correct position.

Ausführliche Beschreibung des 3D-PortraitierungsverfahrensDetailed description of the 3D portrait process A) Präzisionsmontage und Beschreibung des FilmesA) Precise assembly and description of the film

Um auch ein größeres 3D-Bild, z. B. 60 cm × 40 cm, preisgünstig halten zu können, ist es wichtig, daß man für den Schwarzweißfilm Standardmaterial verwenden kann. Dabei taucht das Problem auf, daß es ohne Zusatzmaß­ nahmen unmöglich ist, auf eine solche große Fläche den Film µm genau auf die Farb- und Helligkeitsmasken aufzubringen. Beispielsweise müßte Filmma­ terial auf ein Glas dieser Größe aufgebracht werden und danach belichtet und entwickelt werden, damit es µm genau auf die vordere Glasscheibe mit dem Linsenraster und der aufgesputterten Farb- und Helligkeitsmaske aufgebracht werden kann. Das bei der Verwendung von Standardfolien auftretende Montageproblem ist auch in der Basisanmeldung "HOLDISP" nicht gelöst. Deshalb wird im Folgenden ein ergänzender Vorschlag be­ schrieben, wie man dennoch Standard-Filmmaterial, das z. B. auch für Röntgenfotos verwendet wird, einsetzen kann. To get a larger 3D image, e.g. B. 60 cm × 40 cm, inexpensive to keep it is important to use standard material for the black and white film can use. The problem arises that there is no additional dimension was impossible to record the film µm precisely on such a large area to apply the color and brightness masks. For example, Filmma material on a glass of this size and then exposed and be developed so that it fits exactly onto the front glass pane the lenticular grid and the sputtered color and brightness mask can be applied. That when using standard foils assembly problem occurring is also in the basic application "HOLDISP" unsolved. Therefore, a supplementary proposal will be given below wrote how to get standard footage, e.g. B. also for X-rays are used.  

Fig. 8 veranschaulicht die erforderlichen Maßnahmen. Man kann davon ausgehen, daß eine Zylinderlinsen-Rasterscheibe vorhanden ist mit vertikalen Zylinderlinsen (1) im Pitchabstand von ca. 0,5 mm der Glasscheibe, auf die die Linsen aufgebracht sind (2) und mit einer µm genau aufgesputterten Farb- und Helligkeitsmaske. Die Farb- und Helligkeitsmaske besteht aus horizontalen, sich wiederholenden Streifen der Farben schwarz, rot, grün, blau. Jeder einzelne Farbstreifen hat eine Breite von ca. 100 µm. Jeder rote, grüne oder blaue Farbstreifen ist unterteilt in je drei weitere Streifen der Breite 25 µm, 50 µm 25 µm. Der mittlere, 50 µm breite Streifen enthält keine weitere Helligkeitsfilterung zur Absorbierung des Lichts, während die Streifen (5) und (6) zusätzlich geschwärzt sind, so daß Licht absorbiert wird. Dabei absorbiert der Streifen (5) 90% und der Streifen (6) 98%. Der aufgelegte Film (8) enthält die eigentliche Bildinformation mit kleinen qua­ dratischen schwarzen oder durchsichtigen Flächen in der Größe von 5 µm × 5 µm. Das bedeutet, daß auf einem Streifen von 100 µm 20 schwarz- weiße Substreifen Platz finden. Der aufzubringende Film (8) wird nun so belichtet, daß bei den Übergängen von beispielsweise rot auf grün oder von stärker absorbierenden auf weniger absorbierenden Streifen jeweils ein schwarz bleibender Streifen auf dem Film symmetrisch zu den Übergängen aufgebracht wird, während die anderen Pixel zur Codierung frei sind. Auf den Streifen (5) und (6) können dann übereinander noch 4 µ-Pixel zur Codierung benutzt werden, während auf dem breiten mittleren Streifen von 50 µm 9 übereinanderliegende µ-Pixel für die schwarz-weiß Codierung benutzt werden können. Im Gegensatz zu dem ursprünglichen Verfahren in "HOLDISP" wird hier ein breiter Streifen von 50 µm verwendet, in dem 9 Unterpixel zur Codierung nebeneinander benutzt werden können. Dies hat den Vorteil, daß insgesamt bei der hellsten Bildinformation weniger als 50 % des Lichtes verloren gehen, d. h. durch die Helligkeitsfilterung absorbiert werden. In dem mittleren Streifen, der keine Helligkeit absorbiert, können folgende Helligkeitswerte codiert werden 0, 25, 50, 75, 100, 125, 150, 175, 200, 225. In dem Streifen (5) können dann folgende 5 Helligkeits­ werte, die den ersten additiv überlagert werden, codiert werden: 0, 5, 10, 15, 20. Und im Streifen (6) schließlich die Werte 0, 1, 2, 3, 4, die additiv überlagert werden können. Damit sind insgesamt 250 verschiedene Hellig­ keitsstufen codierbar. Fig. 8 illustrates the necessary steps. It can be assumed that a cylindrical lens grid is available with vertical cylindrical lenses ( 1 ) at a pitch distance of approx. 0.5 mm of the glass pane to which the lenses are applied ( 2 ) and with a color and brightness mask sputtered on with a micrometer. The color and brightness mask consists of horizontal, repeating strips of black, red, green, blue. Each individual color strip has a width of approx. 100 µm. Each red, green or blue color strip is subdivided into three further strips with a width of 25 µm, 50 µm and 25 µm. The middle, 50 µm wide strip contains no further brightness filtering to absorb the light, while the strips ( 5 ) and ( 6 ) are additionally blackened so that light is absorbed. The strip ( 5 ) absorbs 90% and the strip ( 6 ) 98%. The applied film ( 8 ) contains the actual image information with small square black or transparent areas in the size of 5 µm × 5 µm. This means that there is room for 20 black and white sub-strips on a 100 µm strip. The film ( 8 ) to be applied is now exposed in such a way that during the transitions from, for example, red to green or from more absorbent to less absorbent strips, a strip which remains black is applied symmetrically to the transitions on the film, while the other pixels are free for coding are. On the strips ( 5 ) and ( 6 ) 4 µ pixels can then be used one above the other for coding, while on the wide middle strip of 50 µm 9 superposed µ pixels can be used for the black and white coding. In contrast to the original method in "HOLDISP", a wide strip of 50 µm is used here, in which 9 sub-pixels can be used next to each other for coding. This has the advantage that less than 50% of the light is lost overall in the brightest image information, ie it is absorbed by the brightness filtering. In the middle strip, which does not absorb any brightness, the following brightness values can be coded 0, 25, 50, 75, 100, 125, 150, 175, 200, 225. In the strip ( 5 ) the following 5 brightness values can then be encoded first additively superimposed, are coded: 0, 5, 10, 15, 20. And finally in strip ( 6 ) the values 0, 1, 2, 3, 4, which can be superimposed additively. This means that a total of 250 different brightness levels can be coded.

Der aufzubringende Film darf nun auf Grund der überdeckten Übergänge in vertikaler Richtung einen Versatz um maximal plus/minus 2,5 µm aufweisen, ohne daß eine Veränderung in der Qualität des Bildes auftritt.The film to be applied may now be due to the covered transitions in have an offset of maximum plus / minus 2.5 µm in the vertical direction, without changing the quality of the image.

Der im Hologramm-Display (HOLDISP) vorgesehene schwarze Streifen bietet die Möglichkeit zur µm genauen Positionierung des Filmes gegenüber der Scheibe. Es wird nun eine Glasscheibe verwendet, die an den vorgesehenen schwarzen Streifen kleine Positionierungszapfen (4) mit einem Durchmesser von ungefähr 50 µm und einem Vorsprung in der Dicke des Filmmaterials von ca. 20 µm haben. In den Film, bzw. der Folie werden vor dem Belichten bzw. Beschreiben ebenfalls diese Positionierungslöcher gestanzt in µm genauem Maß. Der Belichter oder Drucker muß nun ebenfalls in den gleichen Abständen diese Positionierungszapfen aufweisen, damit der Film groß­ flächig µm genau beschrieben werden kann.The black stripe provided in the hologram display (HOLDISP) enables the film to be positioned with µm accuracy in relation to the pane. A glass pane is now used which has small positioning pins ( 4 ) with a diameter of approximately 50 μm and a projection in the thickness of the film material of approximately 20 μm on the black strips provided. Before the exposure or writing, these positioning holes are also punched into the film, or film, to the exact micrometer. The imagesetter or printer must now also have these positioning pins at the same intervals, so that the film can be accurately written over a large area.

Die Positionierungszapfen (4) bzw. (11) sind wie im Schnitt C gezeigt konisch, damit sich das Filmmaterial leichter in die passende Stelle drücken läßt. Es könnte nun vorkommen, daß der aufgedrückte Film in den Farb­ streifen RGB zwischen Glas und Film Luftblasen übrigbehält und an anderen Stellen nicht aufliegt. Und auf diese Weise könnten später Newton-Ringe entstehen. Deshalb wird hier das vorgesehene Glas (2) so ausgeführt, daß in den Bereichen der Farbstreifen RGB, also in einer Breite von ca. 300 µm das Glas eine Vertiefung von ca. 3 bis 5 µm aufweist, so daß zwischen Glas und Film in dem Bereich der Farbstreifen ein Luftkissen (10) entsteht, über das der Film gespannt wird.The positioning pins ( 4 ) and ( 11 ) are conical as shown in section C, so that the film material can be pressed more easily into the appropriate position. It could now happen that the printed film in the color stripes RGB between the glass and film remains air bubbles and is not in other places. And in this way Newton rings could be created later. Therefore, the proposed glass ( 2 ) is designed so that in the areas of the color strips RGB, ie in a width of about 300 microns, the glass has a recess of about 3 to 5 microns, so that between glass and film in the In the area of the color stripes an air cushion ( 10 ) is created over which the film is stretched.

Um die Helligkeitswerte in den 3 Unterstreifen des Farbstreifens zu codieren gibt es mehrere Möglichkeiten. Verwendet man eine ungünstige Codierung, z. B. übereinander Pixel transparent/schwarz, transparent/schwarz etc., so kann dies bei Verwendung von kohärentem Licht zu störenden Interferen­ zen führen. Deshalb wird in den einzelnen Helligkeitssubstreifen eine Codie­ rung derart gewählt, daß bei steigender Helligkeit die transparenten Subpixel übereinander so angeordnet werden, daß bei der kleinsten Helligkeitsstufe in der Mitte eines Streifens auf transparent geschaltet begonnen wird und bei steigender Helligkeit um diese herum direkt darüber und dann darunter durchgeschaltete transparente Pixel angeordnet werden, so daß kein Wech­ sel zwischen transparent und schwarz entsteht. Dies führt, wie in Fig. 8B gezeigt, bei fallender Helligkeit in horizontaler Richtung zu einem Keil in der Codiermaske.There are several ways to code the brightness values in the 3 sub-strips of the color strip. If one uses an unfavorable coding, e.g. B. on top of each other pixels transparent / black, transparent / black etc., this can lead to disturbing interferences when using coherent light. Therefore, a coding is selected in the individual brightness sub-strips such that, as the brightness increases, the transparent sub-pixels are arranged one above the other so that the lowest brightness level in the middle of a strip is switched to transparent, and as the brightness increases around them directly above and then underneath switched transparent pixels are arranged so that there is no change between transparent and black. As shown in FIG. 8B, this leads to a wedge in the coding mask when the brightness falls in the horizontal direction.

Diese hier beschriebenen Positionierungs-Maßnahmen führen dazu, daß ein dreidimensionales Bild mit hoher Qualität entsteht, das für einen Betrachter in der vorgesehenen Abstandsposition 50 verschiedene Stereobilder bietet mit voller Fotoqualität. Voraussetzung hierfür ist, daß dieses Bild von hinten gleichmäßig beleuchtet wird, wobei man natürlich auch auf die Erfahrung bei TFT Flachbildschirmen zurückgreifen kann.These positioning measures described here result in a three-dimensional image of high quality which offers 50 different stereo images with full photo quality for an observer in the intended spacing position. The prerequisite for this is that this image is evenly illuminated from behind, although one can of course also draw on experience with TFT flat screens.

B) BESCHREIBUNG DES PORTRAITIERUNGSVERFAHRENSB) DESCRIPTION OF THE PORTRAITING PROCEDURE

Ermittlung fehlender Zwischenperspektiven aus zwei vorhandenen Perspekti­ ven: Ein hier beschriebenes 3D-Bild setzt sich im Normalfall aus 128 Einzel­ perspektiven zusammen. Diese Zahl entspricht dann auch der Anzahl dar­ stellbarer Tiefenpositionen. Diese müßte für bewegte Objekte synchron von 128 Kameras aufgezeichnet werden. Bei einfachen Objekten könnte man mit weniger aufgezeichneten Perspektiven auskommen, wenn Zwischenper­ spektiven aus den vorhandenen berechnet werden. Dies führt jedoch bei einer drastischen Reduktion auf nur 4 oder 8 aufgezeichnete Perspektiven auf erhebliche Probleme, da in der Regel nicht definierte verdeckte Regionen fehlen. Auch die Rekonstruktion von Tiefenpositionen aus zwei oder mehr Bildern aus unterschiedlichen Richtungen per Korrelation ist in den meisten Fällen nicht eindeutig möglich, wenn sich ähnliche Texturen oder kleine Formen wiederholen. Wie man dieses Problem bei 3D-Portraitbildern mit detailreichem Hintergrund löst, wird im Folgenden beschrieben.Determination of missing intermediate perspectives from two existing perspectives ven: A 3D image described here is normally made up of 128 individual images perspectives together. This number then corresponds to the number adjustable depth positions. This would have to be synchronized for moving objects 128 cameras can be recorded. With simple objects one could get along with less recorded perspectives when intermediate prospects can be calculated from the existing ones. However, this leads to a drastic reduction to just 4 or 8 recorded perspectives on significant problems, as usually undefined hidden regions absence. Also the reconstruction of depth positions from two or more  Images from different directions are correlated in most Cases not clearly possible when there are similar textures or small ones Repeat shapes. How to deal with this problem with 3D portrait pictures detailed background resolves, is described below.

Durch folgende Einzelmaßnahmen wird erreicht, daß ein 3D-Portrait in detailreicher Umgebung so gut wie vollständig aus wenigen 2dimensionalen Bildern aus bestimmten unterschiedlichen Richtungen rekonstruiert werden kann.The following individual measures ensure that a 3D portrait in detailed environment almost completely from a few 2-dimensional Images can be reconstructed from certain different directions can.

  • 1. Das zu portraitierende Objekt wird in einem genau vordefinierten be­ grenzten Raum positioniert.1. The object to be portrayed is in a precisely predefined limited space positioned.
  • 2. Zwei, vier oder mehr Kameras werden um das zu portraitierende Objekt herum genau reproduzierbar aufgestellt vor einem bekannten, vorher aufge­ zeichneten Hintergrund oder vor einem gleichfarbigen (blauen) Hinter­ grund mit einem Eichmuster, vgl. Fig. 3 und Fig. 4.2. Two, four or more cameras are placed exactly reproducible around the object to be portrayed against a known, previously recorded background or against a background of the same color (blue) with a calibration pattern, cf. Fig. 3 and Fig. 4.
  • 3. Mehrere auf einem Bild zu portraitierende Objekte werden nacheinander aufgezeichnet.3. Several objects to be portrayed in one picture are taken one after the other recorded.
  • 4. Die Pixel auf den aufgezeichneten zweidimensionalen Perspektivbildern werden unter Benutzung von a priori-Informationen über Grobform und Raumposition eines Objektes die möglichst genauen Tiefenpositionen der einzelnen Pixel ermittelt. Die Tiefenpositionswerte werden zu den RGB Werten als weiteres Wort zu den einzelnen Pixeln der Datei abgespeichert.4. The pixels on the recorded two-dimensional perspective images are made using a priori information about rough form and Spatial position of an object the most accurate depth positions possible individual pixels. The depth position values become the RGB Values saved as another word for the individual pixels of the file.
  • 5. Die jeweils zwischen zwei Kamerapositionen fehlenden Perspektiven werden aus den beiden Randbildern mittels der Tiefenpositionskennzeich­ nungen der einzelnen Pixel für die Zwischenperspektiven interpoliert und in die entsprechenden Dateiplätze eingetragen bzw. hinzugefügt. Eventuell unterschiedliche Farbwerte des gleichen Objektpunktes aus unterschiedlichen Richtungen werden für die Zwischenwerte linear interpoliert.5. The perspectives missing between two camera positions are made from the two marginal images using the depth position indicator interpolated and in the corresponding file locations entered or added. Perhaps different color values of the same object point from different  Directions are interpolated linearly for the intermediate values.
  • 6. Ein detailreiches dreidimensionales Umgebungsbild wird entweder per Computer erzeugt, wobei jedes Pixel jeder Perspektive mit der Tiefenposi­ tion gekennzeichnet ist, oder ein natürliches Umgebungsbild wird mit einer bewegten Kamera aus den entsprechenden Perspektiven nacheinander aufgezeichnet, so daß 128 oder mehr Perspektiven verfügbar sind, aus denen Tiefenangaben für alle Pixel ermittelt werden können. Dabei werden nicht eindeutig gefundene Tiefenpositionen gekennzeichnet und durch eine Sonderprozedur nachträglich festgelegt.6. A detailed three-dimensional image of the surroundings is either by Computer generated, with every pixel of every perspective using the depth posi tion is marked, or a natural environment is marked with a moving camera from the corresponding perspective one after the other recorded so that 128 or more perspectives are available which depth information can be determined for all pixels. In doing so depth positions not clearly identified and marked by a Special procedure specified later.
  • 7. Die 3D-Bilder eines Objekts und der Umgebung, bestehend aus 128 Per­ spektivbildern, in denen jedes Pixel mit einer Tiefenangabe gekennzeichnet ist, können nun ansichtengetreu überlagert werden, indem bei jedem Pixel dasjenige mit der geringeren Tiefenposition ausgewählt wird. Bei teiltrans­ parenten Objekten, die entsprechend gekennzeichnet sein müssen, ist das hintere mit einem gewissen Gewicht zu berücksichtigen.7. The 3D images of an object and its surroundings, consisting of 128 per spotting scopes in which each pixel is marked with a depth can now be superimposed true to the view by at each pixel the one with the lower depth position is selected. With partially trans Parent objects that must be labeled accordingly is that rear with a certain weight to be considered.
  • 8. Sollen mehrere Objekte bzw. Positionen von 3D Bildern tiefengetreu an bestimmten Raumpositionen dargestellt werden auf einem Bild, so können die Raumpositionen der einzelnen Objekte mit einer 3D Mouse verschoben auf einem Monitor angezeigt und fixiert abgespeichert werden.8.Should several objects or positions of 3D images be true to depth certain spatial positions can be represented on a picture, so the spatial positions of the individual objects shifted with a 3D mouse displayed on a monitor and saved in a fixed manner.
  • 9. Soll ein Objekt ringsherum aufgezeichnet werden, so wird der in Bild 4 gezeigte Teilkreis von Kameras fortgesetzt zu einem Kreis. Alle Kameras nehmen dann zwei Bilder auf, eins mit Objekt in der Mitte und eins ohne Objekt in der Mitte. Dadurch kann die nicht zum Objekt gehörende Umge­ bung nachher aus dem Bild wieder entfernt werden.9. If an object is to be recorded all around, the partial circle shown in Figure 4 is continued by cameras to form a circle. All cameras then take two pictures, one with an object in the middle and one without an object in the middle. This means that the surroundings that do not belong to the object can later be removed from the image.
  • 10. Die Tiefenpositionen eines Pixels im Raum wird aus zwei benachbarten Perspektiven durch Minimieren einer Umgebungsnorm beim horizontalen Verschieben von Pixel zu Pixel gefunden. Die Norm besteht dabei aus der Summe der Absolutbeträge von Differenzen von Pixeln aus dem einen Bild mit Pixeln aus der Nachbarperspektive, die um einen bestimmten Betrag horizontal verlagert sind. Dort, wo die Umgebung des Punktes des einen Bildes sich am besten deckt mit der Umgebung des Punktes aus dem ande­ ren Bild, ergibt sich die horizontale Verschiebung, die dann korrespondiert mit der Tiefenposition. Dadurch, daß die Grobposition des Objektes bekannt ist, kann die Minimierung mit einer erwarteten Verschiebung gestartet werden. Berücksichtigt werden bei der Minimierung auch variabel gewichte­ te Umgebungspunkte.10. The depth position of a pixel in space becomes two neighboring ones Perspectives by minimizing an environmental norm when horizontal Moving from pixel to pixel found. The standard consists of the Sum of the absolute amounts of differences of pixels from the one image  with neighboring perspective pixels by a certain amount are shifted horizontally. Where the area around the point of one Image best coincides with the surroundings of the point from the other ren picture, there is the horizontal shift, which then corresponds with the depth position. Because the rough position of the object is known minimization can be started with an expected shift become. Variable weights are also taken into account when minimizing te environmental points.
Berechnung der Tiefenpositionen aus zwei BildernCalculation of the depth positions from two images

Es werde angenommen, daß ein bestimmter Objektpunkt auf zwei Bilden benachbarter Kameras eindeutig als Pixel identifiziert wurde. Sind dann die Kamerapositionen einschließlich ihrer Richtungen genau bekannt, so kann aus dem horizontalen Versatz dieser Pixel auf den beiden Bildern die Tiefen­ position dieses Punktes berechnet werden. Die Tiefenposition wird im Folgenden geometrisch bestimmt. Hierfür verwenden wir ein relatives xyz- Koordinatensystem und ein lokales uv-Koordinatensystem, wie sie in Fig. 7 gezeigt sind. Die relativen Koordinaten sind so angebracht, daß der Ur­ sprung in dem Punkt liegt, un dem sich die Strahlen von den Objektpunkten aus dieser Umgebung kreuzen. Die uv-Koordinaten liegen auf der Bildebene und sind in negative xy-Richtungen orientiert. Die uv-Bildebene liegt dabei parallel zur xy-Ebene an der Stelle z = ZK. Ein sichtbarer Objektpunkt mit den Koordinaten (X1, Y1, Z1) erscheint dann auf dem Bild an der Stelle
It is assumed that a certain object point on two images of neighboring cameras has been clearly identified as a pixel. If the camera positions including their directions are then exactly known, the depth position of this point can be calculated from the horizontal offset of these pixels on the two images. The depth position is determined geometrically below. For this we use a relative xyz coordinate system and a local uv coordinate system as shown in Fig. 7. The relative coordinates are such that the origin lies in the point where the rays from the object points from this environment cross. The uv coordinates lie on the image plane and are oriented in negative xy directions. The uv image plane is parallel to the xy plane at z = Z K. A visible object point with the coordinates (X 1 , Y 1 , Z 1 ) then appears on the image at the location

(U1, V1) = (X1, Y1).ZK/Z1 (1)(U 1 , V 1 ) = (X 1 , Y 1 ) .Z K / Z 1 (1)

Nun seien zwei Kameras K1, K2 gegeben mit den lokalen Koordinaten u1, v1 bzw. u2, v2, deren Strahlenkreuzungspunkte auf der x-Achse an den Stellen XK1 = -DK/2 und XK2 = +DK/2 liegen. Die Bildebenen mögen wieder parallel zur xy-Ebene angeordnet sein, im Abstand ZK. Dann erscheint der identifizierte Bildpunkt auf den Bildern an den Stellen
Now two cameras K 1 , K 2 are given with the local coordinates u1, v1 and u2, v2, whose beam crossing points on the x-axis at the locations X K1 = -D K / 2 and X K2 = + D K / 2 lie. The image planes may again be arranged parallel to the xy plane, at a distance Z K. Then the identified pixel appears on the images at the points

(U1, V1) = (X1 + -DK/2, Y1).AK/Z1 (2) bzw.
(U1, V1) = (X1 + -D K / 2, Y 1 ) .A K / Z 1 (2) or

(U2, V2) = (X1 - -DK/2, Y1).AK/Z1 (3).(U2, V2) = (X1 - -D K / 2, Y 1 ) .A K / Z 1 (3).

Dabei ist ZK = -AK der Abstand der Bildebene vom Kreuzungspunkt. In der Praxis muß später berücksichtigt werden, daß die Auflösung der Bilder nur endlich ist, z. B. 1280 oder 2560 Pixel horizontal beträgt. Es muß also in Betracht gezogen werden, daß jeder diskrete Wert, wie U1, U2, auf Grund der Quantisierung mit gewissen Toleranzen versehen werden muß.Z K = -A K is the distance of the image plane from the crossing point. In practice, it must be taken into account later that the resolution of the images is only finite, e.g. B. is 1280 or 2560 pixels horizontally. It must therefore be taken into account that each discrete value, such as U1, U2, must be provided with certain tolerances due to the quantization.

Da die Parameterwerte für die Ein- und Aufstellungen der Kameras bekannt sind, folgt aus der Differenz der obigen Gleichungen die Angabe für die Tiefenposition.
Since the parameter values for the settings and setups of the cameras are known, the difference for the above equations results in the specification for the depth position.

Z1 = DK.AK/(U1 - U2) (4)Z 1 = D K .A K / (U1 - U2) (4)

Um eine bessere Ausnutzung des Filmes in der Kamera zu erreichen, ist es vorteilhaft, die Kameras um den Mittelpunkt des vorgesehenen Objektzen­ trums anzuordnen, wie es Fig. 4 zeigt. In diesem Falle würde man Polarkoor­ dinaten bevorzugen, für die folgende Beziehung gilt:
In order to achieve better utilization of the film in the camera, it is advantageous to arrange the cameras around the center of the intended object center, as shown in FIG. 4. In this case one would prefer polar coordinates, for which the following relationship applies:

x = r.cos(ϕ).sin(δ), 0 < ϕ < 2π
x = r.cos (ϕ) .sin (δ), 0 <ϕ <2π

y = r.sin(ϕ).sin(δ), 0 < δ < +π
y = r.sin (ϕ) .sin (δ), 0 <δ <+ π

z = r.cos(δ) (5)z = r.cos (δ) (5)

Die inverse Transformation lautet dann
The inverse transformation is then

r = √(x2 + y2 + z2) (6)
r = √ (x 2 + y 2 + z 2 ) (6)

ϕ = arctan(y/x) (7)
ϕ = arctan (y / x) (7)

δ = arctan[z/√(x2 + y2)] (8)δ = arctan [z / √ (x 2 + y 2 )] (8)

Die kreisförmig angeordneten Kameras seien auf das Objektzentrum gerich­ tet mit den Koordinaten
The circular cameras are aimed at the object center with the coordinates

MO = (xo, yo, zo) = (0, 0, RO) (9)M O = (x o , y o , z o ) = (0, 0, R O ) (9)

Die Kameras haben also alle einen Abstand RO; vom Objektzentrum OZ und seien von diesem aus, in negativer z-Richtung betrachtet, an den Winkeln Ψi positioniert, wobei je zwei benachbarte eine Winkeldifferenz ΔK = Ψi - Ψi-1 einschließen mögen (vgl. Fig. 4).The cameras are all at a distance R O ; from the object center O Z and from this point, viewed in the negative z direction, positioned at the angles Ψ i , whereby two neighboring ones may include an angle difference Δ K = Ψ i - Ψ i-1 (cf. FIG. 4).

Die lokalen Koordinaten der i-ten Kamera, die auf das Objektzentrum OZ ausgerichtet ist, seien mit ui, vi bezeichnet In den relativen Koordinatensy­ stemen der i-ten Kamera Ki kann zu einem identifizierten Objektpunkt mit den Koordinaten Ui0, Vi0 der zugehörigen relativen Raumwinkel berechnet werden.The local coordinates of the i-th camera, which is aligned with the object center O Z , are denoted by ui, vi. In the relative coordinate systems of the i-th camera K i , the identified object point can be identified with the coordinates Ui 0 , Vi 0 associated relative solid angle can be calculated.

In Bezug auf die i.te Kamera ergibt sich folgender Raumwinkel
With regard to the i.te camera, the following solid angle results

ϕi0 = arctan(Vi0/Ui0) (10)
ϕi 0 = arctan (Vi 0 / Ui 0 ) (10)

δi0 = arctan[√(Ui0 2 + Vi0 2)/AK] (11)δi 0 = arctan [√ (Ui 0 2 + Vi 0 2 ) / A K ] (11)

Die Projektion des Raumwinkels auf die Ebene y = 0 liefert den Winkel zur z- Achse
The projection of the solid angle on the plane y = 0 provides the angle to the z axis

δi0z = arctan[Ui0/AK] (12)δi 0z = arctan [Ui 0 / A K ] (12)

Der Schnittpunkt der Projektionen zweier Raumwinkel, von zwei benach­ barten Kameras Ki, Ki-1 aus betrachtet, führt dann zur Tiefenposition des identifizierten Objektpunktes.The intersection of the projections of two solid angles, viewed from two neighboring cameras K i , K i-1 , then leads to the depth position of the identified object point.

Der Strahlenkreuzungspunkt der i-ten Kamera in der xz-Ebene ist dann in dem ursprünglichen xyz-Koordinatensystem durch folgende Koordinaten gegeben
The point of intersection of the i-th camera in the xz plane is then given in the original xyz coordinate system by the following coordinates

XiK = ROK.sin(Ψi) (12)
Xi K = R OK .sin (Ψ i ) (12)

ZiK = ROK.(1 - cos(Ψi)) (13).Zi K = R OK . (1 - cos (Ψ i )) (13).

Die i-te projizierte Gerade durch den zugehörigen Kamerakreuzungspunkt besitzt dann folgende Gleichung in der xz-Ebene:
The i th projected straight line through the associated camera crossing point then has the following equation in the xz plane:

x - XiK = (z - ZiK).tan(δi0z.ΨiK) (14):x - Xi K = (z - Zi K ) .tan (δi 0z .Ψi K ) (14):

Die Differenz aus zwei solchen benachbarten Gleichungen liefert den Schnittpunkt z = Z0, der gleichzeitig die Tiefenposition Z0 des identifizierten Objektpunktes angibt.
The difference from two such adjacent equations provides the intersection z = Z 0 , which at the same time indicates the depth position Z 0 of the identified object point.

XiK - XIK - ZiK.tan(δi0z.ΨiK) + ZIK.tan(δI0z.ΨIK) = ZO.[tan(δi0z.ΨiK) - tan(δI0z.ΨIK)]
Xi K - XI K - Zi K .tan (δi 0z .Ψi K ) + ZI K .tan (δI 0z .ΨI K ) = Z O. [Tan (δi 0z .Ψi K ) - tan (δI 0z .ΨI K )]

für I = i - 1.for I = i - 1.

Die Division der Gleichung durch den Faktor bei ZO auf der rechten Seite dieser Gleichung führt auf die Tiefenposition ZO des identifizierten Punktes O. Kann in allen perspektivischen Bildern derselbe Objektpunkt identifiziert werden, so müssen aus den benachbarten Perspektiven die gleichen Tiefen­ positionen sich ergeben - bis auf eine zulässige Quantisierungsunsicherheit. Zur Kontrolle sollte die Tiefenposition eines identifizierten Objektpunktes nicht nur aus den beiden Perspektiven i und i - 1 ermittelt werden, sondern man sollte auch aus mehr Perspektiven wie I = i + 1, I = i - 2u, m. die Tiefen­ positionen von Punkten ermitteln um ggf. dann gültige Mittelwerte daraus zu ermitteln. Diejenigen Objektpunkte, die mindestens in zwei verschiedenen perspektivischen Bildern eindeutig identifiziert werden konnten, sind somit mit genauen Tiefenpositionen versehbar. Das gilt auch für eine Anordnung, in der die Kameras um das ganze Objekt herum angeordnet sind.The division of the equation by the factor at Z O on the right side of this equation leads to the depth position Z O of the identified point O. If the same object point can be identified in all perspective images, the same depth positions must result from the neighboring perspectives - except for a permissible quantization uncertainty. As a check, the depth position of an identified object point should not only be determined from the two perspectives i and i - 1, but also from more perspectives such as I = i + 1, I = i - 2u, m. determine the deep positions of points in order to determine valid mean values from them if necessary. Those object points that could be clearly identified in at least two different perspective images can thus be provided with precise depth positions. This also applies to an arrangement in which the cameras are arranged around the entire object.

Hat eine Objektregion in einer gewissen Umgebung gleichmäßige Helligkeit und Farbe, so können Punkte dieser Region auf benachbarten Bildern nicht eindeutig identifiziert werden. In diesen Fällen muß eine ganze Umgebung zur Findung der Tiefenposition herangezogen werden. Dies wird im Folgen­ den näher erläutert. Die Größe einer zu berücksichtigen Umgebung soll mittels eines Parameters a einstellbar sein. Für die Gewichtung der Umge­ bung wird eine Exponentialfunktion herangezogen, wie sie auch für eine optische Filterung gilt.Has an object region of uniform brightness in a certain environment and color, points of this region cannot appear on neighboring images be clearly identified. In these cases, an entire environment can be used to find the depth position. This will follow the explained in more detail. The size of an environment to be considered be adjustable by means of a parameter a. For weighting the reverse an exponential function is used, just like for a optical filtering applies.

Die Farbwerte auf den Pixeln der Bilder der Kameras sind nicht kontinuierlich abgespeichert, sondern quantisiert und über die lokalen Koordinaten u, v digitalisiert mit Pixelzahlen in der horizontalen Richtung in der Regel von 1280 und in der vertikalen von 1024. Das bedeutet, die relative horizontale Koordinate ui der i-ten Kamera hat ganzzahlige Werte zwischen -640 und +629 und die vertikale Koordinate vi liegt zwischen -512 und +511. Die horizontalen Koordinatenpunkte mögen gekennzeichnet werden durch die ganzzahligen Indexwerte m und die vertikalen Koordinaten v, durch die Indexwerte n, m bezeichnet dann also Spaltenpositionen einer Matrix und n Zeilenpositionen. Wenn die horizontalen Koordinaten zwischen -umax und +umax variieren und die vertikalen zwischen -vmax und +vmax, dann kann die Quantisierung durch die Integerfunktion ausgedrückt werden.
The color values on the pixels of the images from the cameras are not stored continuously, but are quantized and digitized via the local coordinates u, v with numbers of pixels in the horizontal direction usually from 1280 and in the vertical direction from 1024. That means the relative horizontal coordinate ui of the i-th camera has integer values between -640 and +629 and the vertical coordinate vi is between -512 and +511. The horizontal coordinate points may be characterized by the integer index values m and the vertical coordinates v, by the index values n, m then denotes column positions of a matrix and n row positions. If the horizontal coordinates vary between -u max and + u max and the vertical coordinates between -v max and + v max , then the quantization can be expressed by the integer function.

m = int(640.u/umax) (16) und
m = int (640.u / u max ) (16) and

n = int(612.v/vmax) (17).n = int (612.v / v max ) (17).

Die Farben R, G, B sind ebenfalls quantisiert und zwar in 256 Stufen, d. h. sie haben ganzzahlige Werte zwischen 0 und 255. Ein quantisierter Farbwert in der i-ten Kamera möge bezeichnet werden mit Fi. Um die Farben R, G, B an den Pixel n, m mit zu berücksichtigen, werden die Pixelwerte gekennzeichnet durch die Funktion Fi(f, m, n). Dabei stehe f = 0 für R (Rot), f = 1 für G (Grün) und f = 2 für B (Blau).The colors R, G, B are also quantized in 256 steps, i. H. she have integer values between 0 and 255. A quantized color value in the i-th camera may be called Fi. To the colors R, G, B on to take into account the pixels n, m, the pixel values are marked by the function Fi (f, m, n). Where f = 0 for R (red), f = 1 for G (green)  and f = 2 for B (blue).

In der Regel wird es genügen, eine Umgebung von ±10 Punkten in beiden Richtungen zu berücksichtigen. Dann lautet die Identifizierungsfunktion zwi­ schen zwei Bildern benachbarter Kameras i und I
As a rule, it will be sufficient to take into account an environment of ± 10 points in both directions. Then the identification function between two images of adjacent cameras is i and I.

Derjenige ganzzahlige λ-Wert, bei dem diese Summe ein Minimum ist, liefert die Differenz in der u-Koordinate, die dann auf die Tiefenposition führt. Der Bereich, den λ durchläuft, wird durch die Begrenzung des Portraitierungs­ raumes bestimmt. Die obige Differenzbildung verschiedener Pixel ist für kleine Werte von n richtig und müßte für größere n-Werte geringfügig korrigiert werden. Punkte vor und hinter dem Objektzentrum in unterschiedli­ chen Bildern können auf unterschiedliche v-Koordinaten fallen. Der zweite Term in der Differenz ist dann durch einen ganzzahligen Indexwert ρ zu ergänzen. Dieser Wert ρ ist abhängt von n, d. h. der Höhe im Bild, und der Kamera-Differenz i - I: ρ = ρ(n, i - I). Auf eine genaue Berechnung der zugehöri­ gen ganzzahligen Werte kann an dieser Stelle verzichtet werden, da es vorteilhaft ist, diese Wert in einer Tabelle abzulegen und bei Bedarf auf­ zurufen. Der Term lautet also FI(f, m - µ - λ, n - ν - ρ).The integer λ value for which this sum is a minimum delivers the difference in the u-coordinate, which then leads to the depth position. The The area that λ passes through is limited by the portrayal room determined. The above difference formation of different pixels is for small values of n correct and would have to be minor for larger n values Getting corrected. Different points in front of and behind the object center Chen images can fall on different v-coordinates. The second Term in the difference is then due to an integer index value ρ complete. This value ρ depends on n, i.e. H. the height in the picture, and the Camera difference i - I: ρ = ρ (n, i - I). On a precise calculation of the belonging integer values can be omitted here, because it it is advantageous to store this value in a table and, if necessary, to call. The term is FI (f, m - µ - λ, n - ν - ρ).

Die wesentlichen Bildinformationen, aus denen die Tiefenpositionen rekon­ struiert werden, liegen in den Rändern von Figuren, d. h. bei Farb- und Hellig­ keitsänderungen im Bild. Deshalb kann es vorteilhaft sein, die Bilder vor der Ermittlung der Tiefenpositionen zu filtern. Ein solcher Filteroperator, der nicht benötigte Bildinhalte wegfiltert, wäre ein Kantenfilter, der vertikale Kanten anhebt und gleichmäßige Helligkeitsregionen auf einen konstanten Wert setzt. Dadurch kann erreicht werden, daß das oben angegebene zu ermit­ telnde Minimum über λ ausgeprägter ist. Auf eine genauere Beschreibung der Kantenfilterung braucht hier nicht eingegangen zu werden, da sie zu den Standartmethoden in der digitalen Bildverarbeitung gehört.The essential image information from which the depth positions are reconstructed are located in the edges of figures, i.e. H. in color and light changes in the image. Therefore it may be advantageous to take the pictures before Filter determination of depth positions. Such a filter operator, which is not would filter the required image content away, would be an edge filter, the vertical edges raises and even brightness regions to a constant value  puts. This can be achieved that the above-mentioned is more pronounced minimum λ. For a more detailed description edge filtering need not be dealt with here, since it is one of the Standard methods used in digital image processing.

Das Hintergrundbild, das später mit einem Portraitbild tiefengetreu vermischt werden soll, enthält ggf. zahlreiche Details in unterschiedlichen Tiefen, die u. U. aus Nachbarbildern nicht eindeutig rekonstruierbar sind. Man kann aber davon ausgehen, daß in diesem Fall alle Perspektiven von einer Kamera auf­ genommen wurden, die sich horizontal und geradlinig bewegt hat. Es brau­ chen dann keine Zwischenperspektiven rekonstruiert werden. Dennoch müssen für alle Pixel die Tiefenpositionen ermittelt und hinzugefügt werden, damit eine tiefengetreue Vermischung mit anderen Bildern möglich ist. Da aber eine ganze Sequenz benachbarter Bilder vorhanden ist, ist es möglich, über mehrere Perspektiven hinweg eine Bewegung von Konturen zu detek­ tieren. Aus der über eine gewisse Anzahl benachbarter Bildern ermittelten Geschwindigkeit kann dann unmittelbar auf die Tiefenposition dieser Kontur geschlossen werden. Bleibt dennoch eine Region übrig, in der sich keine Konturen befinden und gleichbleibende Farben auftreten und in der auch keine Bewegung erkennbar ist, so muß man zusätzlich die Annahme treffen, daß eine Fläche, die von einer sich bewegenden Kontur umhüllt wird, sich genauso schnell bewegt wie die Kontur, d. h. sich in der gleichen Tiefenposi­ tion befindet.The background image, which later blends in depth with a portrait image may contain numerous details at different depths u. U. from neighboring images can not be clearly reconstructed. But you can assume that in this case all perspectives from one camera that have moved horizontally and in a straight line. It's brewing then no intermediate perspectives can be reconstructed. Yet the depth positions must be determined and added for all pixels, so that it can be mixed with other images in depth. There but there is a whole sequence of neighboring images, it is possible Detect a movement of contours across multiple perspectives animals. From the determined over a certain number of neighboring images Speed can then go directly to the depth position of this contour getting closed. There is still a region left in which there are none There are contours and consistent colors appear and in the too no movement is recognizable, one must also make the assumption that a surface that is surrounded by a moving contour, itself moved just as quickly as the contour, d. H. themselves in the same depth posi tion.

Auf diese Weise wird es dann möglich, daß jedes RGB-Pixel in jeder Per­ spektive mit einer Tiefenangabe gekennzeichnet werden kann. Darüberhin­ aus wird es per Software-Tools möglich sein, auch Tiefenpositionen von Gegenständen zu verändern. Legt man Schnitte durch die so erfaßte dreidi­ mensionale Landschaft, so läßt sich auf diese Weise testen, ob die Ergeb­ nisse mit den gewünschten oder tatsächlichen übereinstimmen. In this way it becomes possible that every RGB pixel in every person spotting can be marked with a depth. Darüberhin from it will be possible via software tools, also depth positions from Change objects. If one cuts through the dreidi thus captured dimensional landscape, this way it can be tested whether the results nisse agree with the desired or actual.  

Interpolation von ZwischenperspektivenInterpolation of intermediate perspectives

Objektpunkte oder Objektregionen, die von zwei Kamerapositionen aus ein­ deutig identifiziert werden konnten in der Tiefenposition, können auf Zwi­ schenperspektiven dargestellt werden durch die im Folgenden beschriebene Interpolation. Wie in Fig. 6 gezeigt, sei ein Punkt des Objektes eindeutig identifiziert auf den beiden Kameras K1 und K2, deren lokale Koordinaten u1 und v1 bzw. u2 und v2 eine Ebene aufspannen, die parallel zu der Bildebene ist. Darüberhinaus werde ohne Beschränkung der Allgemeinheit angenom­ men, daß das Raster in den Koordinaten u1 bzw u2 übereinstimmt mit dem Raster bzw. dem Pitchabstand der Linsenrasterscheibe. Es sind also alle 1280 Pixel auf den lokalen Koordinaten u1 und u2 wiederzufinden. Ist die von u1 und u2 aufgespannte Ebene nicht parallel zu der Ebene der Linsenra­ sterscheibe, so muß ein linearer Streckungsfaktor berücksichtigt werden. Es werde nun angenommen, daß in der Kamera 1 ein Bild der Perspektive 1 mit der richtigen Rasterung aufgezeichnet ist. Das Gleiche werde angenommen für die Perspektive 6 des Objektes, die in der Kamera 2 in der richtigen Rasterung aufgezeichnet sei. Dann können die RGB Werte inklusive der ermittelten Tiefenpositionen in die Perspektiven 1 bzw 6 eingetragen wer­ den, die in der Regel 1280 Pixel horizontal enthalten und 128 Perspektiven je Pixel. Die Objekte im Raum sind also jetzt abzubilden auf die Bildebene, die sich im Brennpunkt der Zylinderlinsen befindet und der Ebene z = ZB sich befindet. Ist ein identifizierter Objektpunkt O1 in den Perspektiven P1 und P6 der Kameras K1 und K2 bekannt mit der zugehörigen Tiefenposition und den Farbwerten, so kann die in der Ebene z = 0 gezeigte Rasterung für die Perspektiven P2, P3, P4 und P5 durchlaufen werden. Es können Strahlen zu dem Objektpunkt u1 gezogen werden und die Durchstoßpunkte durch die Bildebene ZB genau berechnet werden. Das auf der Bildebene ZB angelegte Pitchraster kennzeichnet die Zugehörigkeit zu bestimmten Pixeln. Es kann nun vorkommen, daß die Strahlen von benachbarten Perspektiven zu dem Objektpunkt in die gleiche Pixelspalte fallen. Dann sind diese auch in die zugehörigen Perspektiven der gleichen Pixelspalte einzutragen. Stehen dort an dieser Position bereits Werte mit der gleichen Tiefenposition, so wird hieraus ein Mittelwert gebildet. Ist an einer Stelle bereits ein Objektpunkt mit einer größeren Tiefenposition eingetragen, so wird dieser überschrieben. Ist ein Objektpunkt eingetragen mit einer kleineren Tiefenposition, so wird keine Eintragung vorgenommen. Hat der gleiche identifizierte Objektpunkt O1 in der Kamera 1 einen etwas anderen Farbwert als in der Kamera 2, so werden diese Farbwerte von der Perspektive 1 bis 6 linear interpoliert. Wenn die Rasterung für die Perspektiven fein genug ist und die Bildobjekte sich in der richtigen Position befinden, so wird beim Durchlaufen der ver­ schiedenen Perspektiven kein Pixel in den Zwischenpositionen ausgelassen. Befindet sich jedoch ein Objektpunkt vor der Scheibe, so kann es vorkom­ men, daß die Strahlen durch bestimmte Pixel gehen und dazwischen einige ausgelassen werden. In diesem Falle ist es erforderlich, daß die ausgelasse­ nen Pixelpunkte Eintragungen bekommen mit den gleichen Werten, den gleichen Tiefenpositionen und den gleichen Perspektiven wie sie in den direkt benachbarten Pixelspalten eingetragen sind. Sind nun alle identifizier­ ten Objektpunkte durchlaufen, so sind in sämtlichen Pixeln der Bildebene (1280 × 1024) 128 verschiedene RGB Werte mit Tiefenpositionen eingetra­ gen.Object points or object regions that could be clearly identified in the depth position from two camera positions can be represented on intermediate perspectives by the interpolation described below. As shown in FIG. 6, a point of the object is clearly identified on the two cameras K1 and K2, whose local coordinates u1 and v1 or u2 and v2 span a plane that is parallel to the image plane. In addition, it is assumed without restriction of generality that the grid in the coordinates u1 or u2 corresponds to the grid or the pitch distance of the lenticular screen. So all 1280 pixels can be found on the local coordinates u1 and u2. If the plane spanned by u1 and u2 is not parallel to the plane of the lenticular disk, a linear aspect ratio must be taken into account. It is now assumed that an image of perspective 1 with the correct screening is recorded in camera 1 . The same is assumed for the perspective 6 of the object, which is recorded in the correct grid in the camera 2 . Then the RGB values including the determined depth positions can be entered in perspectives 1 and 6, which generally contain 1280 pixels horizontally and 128 perspectives per pixel. The objects in space are now to be mapped onto the image plane, which is located in the focal point of the cylindrical lenses and is located on the plane z = Z B. If an identified object point O1 is known in the perspectives P1 and P6 of the cameras K1 and K2 with the associated depth position and the color values, then the screening shown in the plane z = 0 can be carried out for the perspectives P2, P3, P4 and P5. Rays can be drawn to the object point u1 and the penetration points through the image plane Z B can be calculated precisely. The pitch grid created on the image plane Z B denotes the affiliation to certain pixels. It can now happen that the rays from neighboring perspectives to the object point fall into the same pixel column. Then these must also be entered in the associated perspectives of the same pixel column. If there are already values with the same depth position at this position, an average is formed from this. If an object point with a larger depth position is already entered at one point, it will be overwritten. If an object point is entered with a smaller depth position, no entry is made. If the same identified object point O1 in camera 1 has a slightly different color value than in camera 2 , these color values are linearly interpolated from perspective 1 to 6 . If the grid is fine enough for the perspectives and the image objects are in the correct position, no pixel is left out in the intermediate positions when going through the different perspectives. However, if there is an object point in front of the pane, it can happen that the rays pass through certain pixels and some are omitted in between. In this case it is necessary that the omitted pixel points get entries with the same values, the same depth positions and the same perspectives as they are entered in the directly adjacent pixel columns. If all identified object points have now been run through, 128 different RGB values with depth positions are entered in all pixels of the image plane (1280 × 1024).

So wie die horizontalen und vertikalen Koordinaten des Bildes quantisiert sind, ist es auch sinnvoll, die Tiefenpositionen zu quantisieren. Wählt man beispielsweise für die Kennzeichnung der Tiefenangaben eine 12 bit genaue Quantisierung, so sind zu unterscheiden Tiefenpositionen zwischen 0 und 4095; dabei ist 0 die Position der Kamera bzw. des später betrachtenden Auges und die größte Position die gewählte maximale Tiefenposition, beispielsweise 10 m. Bei der Eintragung der Objektpunkte in die Bildebene, d. h. in die verschiedenen Perspektiven aller Pixel geht man aus von einer Anfangseintragung, bei der in jeder Perspektive jeden Pixels die größtmögli­ che Tiefenposition eingetragen ist, die von jedem anderen vorkommenden Objekt einer geringeren Tiefenposition überschrieben werden kann. Auf diese Art und Weise erhält man für ein Portraitbild alle gewünschten Eintragungen in die Perspektiven. Ist eine Rundherum-Portraitierung vorgese­ hen, so muß man zwischen verschiedenen Darstellungsebenen unterschei­ den und nicht parallele Bildebenen und Kameraebenen umrechnen.Just as the horizontal and vertical coordinates of the image are quantized it also makes sense to quantize the depth positions. You choose For example, a 12 bit accurate for marking the depth information Quantization, depth positions between 0 and 4095; where 0 is the position of the camera or the one to be viewed later Eye and the largest position the selected maximum depth position, for example 10 m. When entering the object points in the image plane, d. H. in the different perspectives of all pixels one starts from one Initial entry, with the greatest possible in every perspective of every pixel che depth position is entered, that of any other occurring Object of a lower depth position can be overwritten. On this way you get all the desired entries for a portrait picture  in the perspectives. A full-length portrait is provided hen, one must differentiate between different levels of representation convert the and non-parallel image planes and camera planes.

Auf Erweiterungen dieses Verfahrens wie es beispielsweise für teiltrans­ parente Objekte auftritt, soll an dieser Stelle nicht eingegangen werden. Es würde dann erforderlich, daß bei einem Pixel bei der gleichen Perspektive mehrere Eintragungen und Farbwertpositionen vorgesehen werden müßten.On extensions of this process, such as for partially trans Parent objects occurs, should not be discussed here. It would then require that at a pixel with the same perspective several entries and color value positions would have to be provided.

Ein System mit festem Abstand von zwei Kameras hat den Vorteil, daß man leicht bewegte Szenen aufzeichnen kann, bei denen jeweils immer die beiden Perspektiven gleichzeitig aufgenommen werden, die die Augen später auch sehen. Die dicht nebeneinander liegenden Perspektiven können dann unter­ schiedlichen Zeitschlitzen angehören, aber die Augen des Betrachters sehen zeitsynchrone Aufnahmen. Bei geringfügigen seitlichen Bewegungen des Be­ trachters können auch leichte Bewegungen eines Gegenstandes wahrge­ nommen werden. Beispielsweise kann ein Portrait, wird das Bild von links betrachtet, einen ernsten Gesichtsausdruck aufweisen und beim Betrachten von rechts einen freundlichen. Auch zufällige Bewegungen wie bei­ spielsweise Augenzwinkern wirken dann nicht störend. Hingegen würde es stören, wenn das linke Auge des Betrachters von einer bestimmten Position ein geschlossenes Auge des Portraits sehen würde und das rechte ein offenes. Natürlich ist hier der richtige gültige Abstand des Betrachters von der Oberfläche des Rasterbildes einzuhalten.A system with a fixed distance of two cameras has the advantage that you can easily can record moving scenes, in which always the two Perspectives are recorded at the same time, which the eyes later too see. The closely spaced perspectives can then be under belong to different time slots, but see the eyes of the viewer time-synchronous recordings. With slight lateral movements of the Be Trachters can also detect slight movements of an object be taken. For example, a portrait, the picture is from the left considered, have a serious facial expression and when looking at a friendly one from the right. Also random movements like with for example, winking will not be a nuisance. However, it would disrupt when the viewer's left eye from a certain position a portrait's closed eye would see and the right one open. Of course here is the correct valid distance of the viewer from to adhere to the surface of the raster image.

Claims (18)

1. Verfahren zur Darstellung eines autostereoskopischen Bildes mittels mehrerer elek­ tronischer Kameras (A), eines Computers (B), eines Belichtungsgeräts oder Druckers (C), eines Rasterglases (1) und einer hinter dem Rasterglas (1) montierbaren, schwarz-weißen, Rasterpixel aufweisenden Folie (D), wobei in jedes Rasterpixel nebeneinander eine Vielzahl von Perspektiven geschrieben werden, dadurch gekennzeichnet, daß die Per­ spektiven eines einzelnen Objekts (O1, O2) des darzustellenden Bildes separat mit den Kameras aufgezeichnet werden und daß dann diese Perspektiven und entsprechende, jedoch ebenfalls separat aufgezeichnete Perspektiven eines weiteren Objekts und/oder separat aufgezeichnete oder erzeugte Perspektiven eines Hintergrundbildes durch 3D- gerechte Überlagerung im Computer (B) zum autostereoskopischen Bild zusammengesetzt werden.1. A method for displaying an autostereoscopic image using a plurality of electronic cameras (A), a computer (B), an exposure device or printer (C), a scanning glass ( 1 ) and a black and white mountable behind the scanning glass ( 1 ), Film (D) having raster pixels, a large number of perspectives being written side by side in each raster pixel, characterized in that the perspectives of a single object (O 1 , O 2 ) of the image to be displayed are recorded separately with the cameras and then these perspectives and corresponding but also separately recorded perspectives of a further object and / or separately recorded or generated perspectives of a background image are combined to form an autostereoscopic image by 3D-appropriate superimposition in the computer (B). 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß jeder Perspektive eine Tiefenposition zugeordnet wird und bei der 3D-gerechten Überlagerung von Perspektiven mit unterschiedlichen Tiefenpositionen diejenigen Perspektiven zur Herstellung des autostereoskopischen Bildes verwendet werden, denen die geringeren Tiefenpositionen zugeordnet sind.2. The method according to claim 1, characterized in that each perspective Depth position is assigned and in the 3D-appropriate overlay of perspectives with different depth positions those perspectives for producing the autostereoscopic image can be used, showing the lower depth positions assigned. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß den Perspektiven auch Transparenzmerkmale zugeordnet werden und in dem zusammengesetzten autostereoskopi­ schen Bild hinter den Perspektiven mit den geringsten Tiefenpositionen liegende Per­ spektiven mit einem Farbanteil berücksichtigt werden.3. The method according to claim 2, characterized in that the perspectives too Transparency features are assigned and in the composite autostereoskopi per picture behind the perspectives with the lowest depth positions Spectives with a color component are taken into account. 4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß die Tiefenpositionen aus Veränderungen von Objektkonturen benachbarter Perspektiven berechnet werden. 4. The method according to claim 2 or 3, characterized in that the depth positions can be calculated from changes in object contours of neighboring perspectives.   5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei der Darstellung des autostereoskopischen Bildes auf einem adaptiven 3D-Monitor ein separat aufgezeichnetes, dreidimensionales Objekt oder ein Hintergrund einkopiert und mit einem 3D-Cursor wunschgemäß in diesem positioniert wird.5. The method according to any one of claims 1 to 4, characterized in that the Representation of the autostereoscopic image on an adaptive 3D monitor separately recorded, three-dimensional object or a background and copied with a 3D cursor is positioned as desired in this. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß das Objekt (O1, O2) bei der Aufnahme in einem genau definierten, bekannten Raum (31, 32) positioniert wird.6. The method according to any one of claims 1 to 5, characterized in that the object (O1, O2) is positioned in the recording in a precisely defined, known space ( 31 , 32 ). 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur Herstellung des Bildes (6) wesentlich weniger Kameras (K1 bis K5) verwendet werden, als der Vielzahl der Perspektiven entspricht, und daß die Vielzahl der Perspektiven durch Verschiebung der Kameras (K1 bis K5) relativ zum Objekt (O1, O2) erhalten wird.7. The method according to any one of claims 1 to 6, characterized in that for Production of the image (6) uses far fewer cameras (K1 to K5) than corresponds to the multitude of perspectives, and that the multitude of perspectives through Displacement of the cameras (K1 to K5) relative to the object (O1, O2) is obtained. 8. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die verschiedenen Kameras (K1 bis K5), um das zu fotografierende Objekt (O1, O2) herum kreisförmig verteilt werden.8. The method according to any one of claims 1 to 5, characterized in that the various cameras (K1 to K5) around the object to be photographed (O1, O2) be distributed in a circle. 9. Verfahren nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) abschnittsweise bewegt werden und daß nach jedem Bewegungs­ abschnitt mit allen Kameras (K1 bis K5) gleichzeitig je eine Aufnahme des Objekts (O1, O2) gemacht wird.9. The method according to any one of claims 7 or 8, characterized in that the Cameras (K1 to K5) are moved in sections and that after each movement section with all cameras (K1 to K5) one image of the object at a time (O1, O2) is made. 10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) zur Aufzeichnung von Zwischenperspektiven um das aufzuzeichnen­ de Objekt (O1, O2) rotieren.10. The method according to any one of claims 7 to 9, characterized in that the Cameras (K1 to K5) to record intermediate perspectives in order to record this Rotate the object (O1, O2). 11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, daß genau zwei Kameras (K1, K2) verwendet werden, die einen bestimmten horizontalen Abstand (Δk) derart aufweisen, daß die jeweils zwei aufgezeichneten Perspektiven denjenigen entsprechen, die ein Betrachter im Standardabstand bei der Darstellung des autostereosko­ pischen Bildes mit dem rechten und linken Auge sieht. 11. The method according to any one of claims 7 to 10, characterized in that exactly two cameras (K1, K2) are used which have a certain horizontal distance (Δ k ) such that the two recorded perspectives correspond to those that a viewer with the right and left eye when viewing the autostereoscopic image at standard distance. 12. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß zur Herstellung des autostereoskopischen Bildes wesentlich weniger stationär angeordnete Kameras (K1 bis K5) verwendet werden als der Vielzahl der Perspektiven entspricht, und daß die Vielzahl der Perspektiven dadurch erhalten wird, daß von den Kameras (K1 bis K5) nicht lieferbare Perspektiven durch Interpolation der von den Kameras (K1 bis K5) gelieferten Perspektiven mit dem Grafikcomputer (4) generiert werden.12. The method according to any one of claims 1 to 6, characterized in that much less stationary cameras (K1 to K5) are used to produce the autostereoscopic image than corresponds to the plurality of perspectives, and that the plurality of perspectives is obtained in that Perspectives that cannot be delivered by the cameras (K1 to K5) are generated by interpolation of the perspectives supplied by the cameras (K1 to K5) with the graphics computer ( 4 ). 13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Kameras (K1 bis K5) auf einer Kreisbahn um das Objekt (O1, O2) herum angeordnet sind und die Zwischenperspektiven durch Interpolation im Grafikcomputer (4) unter Anwendung eines Minimierungs-Algorithmus für kreisförmig angeordnete Kameras (K1 bis K5) generiert werden.13. The method according to claim 11 or 12, characterized in that the cameras (K1 to K5) are arranged on a circular path around the object (O1, O2) and the intermediate perspectives by interpolation in the graphics computer ( 4 ) using a minimization algorithm for cameras arranged in a circle (K1 to K5). 14. Verfahren nach einem der Ansprüche 1 bis 13 dadurch gekennzeichnet, daß die Rasterpixel übereinander angeordnete Informationen betreffend Farbe und/oder Helligkeit in digitaler Form enthalten, wobei diese Informationen in Abhängigkeit von einer beim Betrachten des autostereoskopischen Bildes verwendeten Farb- und/oder Helligkeitsmaske (2, 3) gewählt sind.14. The method according to any one of claims 1 to 13, characterized in that the raster pixels contain information about color and / or brightness arranged one above the other in digital form, this information depending on a color and / or brightness mask used when viewing the autostereoscopic image ( 2 , 3 ) are selected. 15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß jedes Rasterpixel des Bildes in einem einer einzelnen Farb- und/oder Helligkeitsmaske (2, 3) zugeordneten Bereich einen mittleren Abschnitt mit neun übereinanderliegenden, schwarz- weiß codierbaren Pixeln und je einen darüber- und darunterliegenden Abschnitt mit je vier übereinanderliegenden, schwarz-weiß codierbaren Pixeln aufweist.15. The method according to any one of claims 1 to 14, characterized in that each raster pixel of the image in a single color and / or brightness mask ( 2 , 3 ) associated area has a central section with nine superimposed, black and white codable pixels and each has a section above and below it, each with four superimposed, black and white codable pixels. 16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß das autostereoskopische Bild im Bereich von Übergängen zwischen den Abschnitten jeweils nicht codierbare, schwarze, zum Ausgleich von Montagetoleranzen bestimmte Pixel aufweist.16. The method according to claim 15, characterized in that the autostereoscopic Image in the area of transitions between the sections, each of which is not codable, has black pixels intended to compensate for assembly tolerances. 17. Verfahren nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, daß die Pixel in den Abschnitten jeweils so codiert werden, daß die weiß codierbaren Pixel jeweils in der Mitte eines Abschnitts und dort direkt übereinander zu liegen kommen. 17. The method according to any one of claims 15 or 16, characterized in that the Pixels in the sections are encoded so that the white encodable pixels each in the middle of a section and come to lie directly one above the other.   18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß der Bildträger mit zur µm-genauen Positionierung bestimmten, mit entsprechenden Justier­ zapfen (11) im Aufzeichnungs- und/oder Betrachtungsgerät zusammenwirkenden Justierlö­ chern versehen wird.18. The method according to any one of claims 1 to 17, characterized in that the image carrier is provided with specific for µm-accurate positioning, with corresponding adjustment pin ( 11 ) in the recording and / or viewing device interacting Justierlö holes.
DE19853608A 1998-10-15 1998-11-20 Method for displaying an autostereoscopic image Expired - Fee Related DE19853608C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19853608A DE19853608C2 (en) 1998-11-20 1998-11-20 Method for displaying an autostereoscopic image
EP99119995A EP0994630A3 (en) 1998-10-15 1999-10-13 Method for making 3D-photos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19853608A DE19853608C2 (en) 1998-11-20 1998-11-20 Method for displaying an autostereoscopic image

Publications (2)

Publication Number Publication Date
DE19853608A1 DE19853608A1 (en) 2000-05-25
DE19853608C2 true DE19853608C2 (en) 2003-06-18

Family

ID=7888477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19853608A Expired - Fee Related DE19853608C2 (en) 1998-10-15 1998-11-20 Method for displaying an autostereoscopic image

Country Status (1)

Country Link
DE (1) DE19853608C2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10046786A1 (en) * 2000-09-19 2002-04-18 4D Vision Gmbh Method for matching perspective views e.g. for three-dimensional (3-D) photography, involves ascertaining the object represented by camera rotation point in perspective views
DE102005058586B4 (en) 2005-12-04 2009-12-17 Universität Kassel Reproduction device for autostereoscopic reproduction of three-dimensional representations
DE102007056652A1 (en) 2007-11-24 2009-05-28 Looxis Gmbh Three-dimensional replication generating method for object i.e. human head of person, involves converting image into three-dimensional model data and reproducing three-dimensional replication of object from powdered material by model data
DE102010002462B4 (en) 2010-03-01 2018-08-02 Bundesdruckerei Gmbh Camera system for taking pictures and storing pictures in a document

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5937813B2 (en) * 1975-12-25 1984-09-12 凸版印刷株式会社 Ritsutai Kahenin Satsubutsunimochiil Gasozo Keisei Souchi
US5455689A (en) * 1991-06-27 1995-10-03 Eastman Kodak Company Electronically interpolated integral photography system
US5696596A (en) * 1994-07-05 1997-12-09 Canon Kabushiki Kaisha Electrostatic stereoscopic image recording method and apparatus
US5697006A (en) * 1992-02-06 1997-12-09 Fuji Photo Film Co., Ltd. Method and apparatus for recording stereoscopic images and lenticular recording material used therefor
WO1998021619A1 (en) * 1996-11-08 1998-05-22 Siegbert Hentschke Stereo hologram display (holdisp)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5937813B2 (en) * 1975-12-25 1984-09-12 凸版印刷株式会社 Ritsutai Kahenin Satsubutsunimochiil Gasozo Keisei Souchi
US5455689A (en) * 1991-06-27 1995-10-03 Eastman Kodak Company Electronically interpolated integral photography system
US5697006A (en) * 1992-02-06 1997-12-09 Fuji Photo Film Co., Ltd. Method and apparatus for recording stereoscopic images and lenticular recording material used therefor
US5696596A (en) * 1994-07-05 1997-12-09 Canon Kabushiki Kaisha Electrostatic stereoscopic image recording method and apparatus
WO1998021619A1 (en) * 1996-11-08 1998-05-22 Siegbert Hentschke Stereo hologram display (holdisp)

Also Published As

Publication number Publication date
DE19853608A1 (en) 2000-05-25

Similar Documents

Publication Publication Date Title
EP2153269B1 (en) Method for the orientation of a parallax barrier screen on a display screen
WO2005029871A2 (en) Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master
DE19500315C1 (en) Personal autostereoscopic viewing screen for TV or displays
DE19924096C2 (en) System for stereoscopic image display
AT394459B (en) METHOD FOR OBTAINING IMAGES FOR USE IN REPRESENTING A THREE-DIMENSIONAL SHEET IMAGE RECORDING CARRIER ON WHICH THE FIRST AND SECOND GROUPS OF SERIES OF SUCH IMAGES ARE STORED
DE102007047470B3 (en) Method for aligning a parallax barrier screen on a screen
DE10245611A1 (en) Three-dimensional image display apparatus, has image forming display flat panel and lens unit, which comprises diffractive optical devices having several diffractive grating elements parallel to each other
DE19646046C1 (en) Stereo hologram display
DE19853608C2 (en) Method for displaying an autostereoscopic image
WO2011032642A1 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
EP2561682A1 (en) Simultaneous reproduction of a plurality of images by means of a two-dimensional imaging matrix
DE102010041870A1 (en) Method for horizon-fit stereoscopic image processing of stereoscopic images or image sequences in fields of e.g. stereoscopic photography, involves creating two images based on picture and depth information with respect to viewing positions
DE10340109A1 (en) Method for producing a medium for the real and virtual reproduction of real or calculated three-dimensional arrangements
DE2546785C3 (en)
EP0994630A2 (en) Method for making 3D-photos
DE10348618B4 (en) Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth
DE19848936A1 (en) Printer to give interlocking picture strips
DE10123933C1 (en) Stereoscopic information representation method uses laser beam for scanning projection surface with structured pixel elements
WO1999009449A1 (en) Method and device for producing an image which can be represented in 3-d
DE19512293A1 (en) Method and device for generating spatial images
WO2009143815A2 (en) Method for producing an autostereoscopic display and arrangement for an autostereoscopic display
DE10112181A1 (en) Optical filter for three-dimensional display on matrix screens, e.g. LCD or plasma screens
DE10311389A1 (en) Autostereoscopic reproduction system for three-dimensional displays has coding unit controlled and raster plate dimensioned so that image strips appear free of overlapping for one or more observers
DE102008025913A1 (en) Scene and/or object image recording and reproducing method for multi-focal camera system, involves providing combination of two different images for spatial representation, and representing combined three-dimensional image on display
DD259766A3 (en) METHOD FOR GENERATING 3-D IMAGES

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee