DE10348618A1 - Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth - Google Patents
Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth Download PDFInfo
- Publication number
- DE10348618A1 DE10348618A1 DE10348618A DE10348618A DE10348618A1 DE 10348618 A1 DE10348618 A1 DE 10348618A1 DE 10348618 A DE10348618 A DE 10348618A DE 10348618 A DE10348618 A DE 10348618A DE 10348618 A1 DE10348618 A1 DE 10348618A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- virtual
- dimensional
- depth
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000000694 effects Effects 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 23
- 238000003708 edge detection Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000000853 adhesive Substances 0.000 description 3
- 230000001070 adhesive effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000002313 adhesive film Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 239000002985 plastic film Substances 0.000 description 1
- 229920006255 plastic film Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003856 thermoforming Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/52—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zum Erstellen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 1 und eine Vorrichtung zum Anzeigen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 16.The The invention relates to a method for creating a spatial image template according to the preamble of claim 1 and a device for displaying a Room image template according to the preamble of claim 16.
Dreidimensionale Objekte werden mit monokularen Aufnahmeeinrichtungen nur zweidimensional abgebildet. Das liegt daran, daß diese Objekte von einem einzigen Beobachtungsstandort und unter nur einem Beobachtungswinkel aufgenommen werden. Bei einem derartigen Aufnahmeverfahren wird das räumliche Objekt auf einen Film, einen photovoltaischen Empfänger, insbesondere ein CCD-Array oder eine andere lichtempfindliche Fläche projiziert. Ein räumlicher Eindruck ergibt sich von dem abgebildeten Objekt erst dann, wenn das Objekt von mindestens zwei unterschiedlichen Beobachtungspunkten bzw. unter mindestens zwei verschiedenen Betrachtungswinkeln aufgenommen und einem Betrachter so präsentiert wird, daß die beiden zweidimensionalen monokularen Bilder von beiden Augen getrennt wahrgenommen und in dessen physiologischem Wahrnehmungsapparat zusammengefügt werden. Dazu werden die monokularen Einzelbilder zu einer Raumbildvorlage kombiniert, die unter Verwendung eines dafür geeigneten Abbildungsverfahrens zu einem räumlichen Bildeindruck beim Betrachter führen. Derartige Verfahren werden auch auch als „Anaglyphentechnik" bezeichnet.Three-dimensional Objects are only displayed two-dimensionally with monocular recording devices. That's because these Objects from a single observation site and under only one Observation angle to be recorded. In such a recording method becomes the spatial Object on a film, a photovoltaic receiver, in particular a CCD array or other photosensitive surface is projected. A spatial Impression results from the imaged object only when the object of at least two different observation points or taken under at least two different viewing angles and presented to a viewer like that will that the perceived two two-dimensional monocular images separated by two eyes and be put together in its physiological perception apparatus. To the monocular frames are combined to a spatial image template, the ones using one for that appropriate imaging process to a spatial image impression Viewers lead. such Methods are also referred to as "anaglyphics".
Eine für ein solches Verfahren verwendbare Raumbildvorlage kann auf verschiedene Weise vorliegen bzw. erstellt werden. Als einfachstes Beispiel sind hier die bekannten Stereo-Diabetrachter zu erwähnen, bei denen der Betrachter mit je einem Auge je ein in einem verschiedenen Blickwinkel aufgenommenes Bildmotiv betrachtet. Bei einer zweiten Möglichkeit wird das unter dem ersten Blickwinkel erzeugte Bild mit einer ersten Farbe und das andere unter dem zweiten Blickwinkel fotografierte Bild mit einer zweiten Farbe eingefärbt. Beide Bilder werden mit einer dem natürlichen Blickwinkelunterschied der menschlichen Augen oder dem Blickwinkelunterschied des Kamerasystems entsprechenden Versetzung zum Erstellen einer Raumbildvorlage übereinander gedruckt oder übereinander projiziert, wobei der Betrachter eine Zweifarbenbrille zum Betrachten der Bildvorlage benutzt. Dabei wird die jeweils andere Blickwinkelkomponente durch das entsprechend gefärbte Brillenglas ausgefiltert. Jedes Auge des Betrachters erhält somit ein entsprechend des unterschiedlichen Blickwinkels differierendes Bild, wobei bei dem Betrachter ein räumlicher Eindruck der Bildvorlage entsteht. Ein derartiges Verfahren ist vorteilhaft, wenn Daten aus einer Stereokamera in Echtzeit und unter geringem apparativem Aufwand übertragen und dargestellt werden sollen. Darüber hinaus werden auch simulierte räumliche Abbildungen mit einem derartigen Verfahren zum Erzeugen einer Raumbildvorlage dargestellt, wobei der Betrachter einen besseren Eindruck komplizierter räumlicher Strukturen, beispielsweise komplizierter simulierter Molekülstrukturen und dergleichen erhalten kann.A for a such room image template can be used on various Be present or created way. The simplest example is Here to mention the well-known stereo slide viewer, where the viewer with one eye each, taken from a different angle Picture motive considered. In a second possibility this will be under the first viewpoint generated image with a first color and that another picture shot under the second angle with a second one Color colored. Both images become with a natural perspective difference the human eyes or the viewing angle difference of the camera system corresponding offset to create a spatial image template on top of each other printed or on top of each other projected, the viewer a two-tone glasses for viewing the Image template used. In doing so, the respective other perspective component becomes through the correspondingly colored Spectacle lens filtered out. Each eye of the observer thus receives a different according to the different point of view Picture, whereby the viewer a spatial impression of the picture template arises. Such a method is advantageous when data out a stereo camera in real time and with little equipment expense transferred and should be displayed. In addition, are also simulated spatial Illustrations with such a method for generating a spatial image template shown, with the viewer a better impression more complicated spatial structures, For example, more complicated simulated molecular structures and the like can receive.
Weiterhin können subtiler wirkende Mechanismen des physiologischen Wahrnehmungsapparates zum Erzeugen der Raumbildvorlage angewendet werden. So ist beispielsweise bekannt, daß zwei kurz innerhalb der Reaktionszeit nacheinander wahrgenommene Bilder zu einem subjektiven Gesamteindruck zusammengeführt werden. Sendet man demnach als kombinierte Raumbildvorlage kurz hintereinander zwei Bildinformationen, die jeweils aus Aufnahmen bestehen, die aus dem ersten, bzw. dem zweiten Betrachtungswinkel gemacht wurden, fügen diese sich in der Wahrnehmung des Betrachters zu einem subjektiven räumlichen Gesamteindruck unter Verwendung einer Shutterbrille zusammen.Farther can subtler mechanisms of the physiological apparatus of perception be used to generate the spatial image template. Such is for example known that two shortly after the reaction time, successively perceived images be brought together to a subjective overall impression. If you send accordingly as a combined spatial image template in quick succession two image information, each consisting of recordings, consisting of the first, and the second Viewing angles are made, they add in the perception the viewer to a subjective overall impression using a shutter glasses together.
Allen erwähnten Verfahren ist jedoch gemeinsam, daß mindestens eine binokulare Aufnahme des räumlichen Bildmotivs vorab vorliegen muß. Das heißt, daß mindestens zwei aus unterschiedlichen Betrachtungswinkeln gemachte Aufnahmen von vornherein vorhanden sein oder (wie zum Beispiel bei Zeichnungen) von Anfang an erzeugt wer den müssen. Bilder oder Filme, Videosequenzen und dergleichen Abbildungen, die von vornherein monokular erzeugt wurden und daher nur monokulare Bildinformationen tragen, sind demnach nicht für eine räumliche Darstellung des Objektes verwendbar. Ein beispielsweise mit einem monokularen Fotoapparat aufgenommenes Foto ist eine zweidimensionale Projektion ohne Raumtiefe. Die Information über die Raumtiefe ist durch die monokulare Abbildung unwiederbringlich verlorengegangen und muss vom Betrachter aufgrund von Erfahrungswerten in das Bild hinein interpretiert werden. Verständlicherweise ergibt sich dabei aber keine echte räumliche Abbildung mit Tiefenwirkung.all mentioned However, the common method is that at least one binocular Recording the spatial Picture motif must be available in advance. The is called, that at least two shots taken from different angles be present in the first place or (as for example in drawings) produced from the beginning who must. Images or films, video sequences and the like images that were produced monocularly from the beginning and therefore only monocular Therefore image information is not for a spatial representation of the object usable. An example taken with a monocular camera Photo is a two-dimensional projection without room depth. The information about the depth of the room has been irretrievably lost through monocular imaging and must by the viewer due to experience in the picture be interpreted into it. Understandably, this results but no real spatial Illustration with depth effect.
Dies ist insofern nachteilig, als daß bei einer ganzen Reihe derartiger zweidimensionaler monokular erzeugter Aufnahmen ein beträchtlicher Teil der ursprünglichen Wirkung und der Information des Bildmotivs verlorengeht. Der Betrachter muß sie sich hinzudenken oder versuchen, dies anderen Betrachtern zu erklären, wobei natürlich der ursprüngliche Eindruck der Räumlichkeit mit keinem räumlichen Abbildungsverfahren der oben genannten Beispiele zurück zu gewinnen ist.This is disadvantageous in that at a whole series of such two-dimensional monocular generated Recordings a considerable Part of the original Effect and the information of the image is lost. The viewer does she have to to think or try to explain this to other viewers, where Naturally the original one Impression of the space with no spatial To recover the mapping process of the above examples is.
Es besteht somit die Aufgabe, ein Verfahren zum Erstellen von Raumbildvorlagen aus zweidimensionalen Bilddaten, insbesondere von Bilddaten aus Bildsequenzen, Videofilmen und dergleichen Informationen anzugeben, bei dem aus einer zweidimensionalen Aufnahme eine Raumbildvorlage für ein Abbildungsverfahren mit räumlicher Tiefenwirkung erzeugt wird.It is therefore the task of a method to create spatial image templates from two-dimensional image data, in particular from image data from image sequences, video films and the like, in which a spatial image template for an imaging process with spatial depth effect is generated from a two-dimensional image.
Diese Aufgabe wird mit einem Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst, wobei die Unteransprüche mindestens ausgestaltende Merkmale der Erfindung enthalten.These The object is achieved by a method according to the features of the claim 1 solved, the dependent claims contain at least ausgestaltende features of the invention.
Bei der folgenden Beschreibung wird unter dem Begriff des „Urbildes" die anfangs gegebene monokular angefertigte zweidimensionale Abbildung verstanden. Es ist unmittelbar einsichtig, daß eine Anwendung des nachfolgend beschriebenen erfindungsgemäßen Verfahrens auch auf Sequenzen von derartigen Urbildern anwendbar ist und daher ohne weiteres auch für bewegte Bilder, insbesondere Video- oder Filmaufnah men, verwendet werden kann, sofern diese aus einer Serie aufeinander abfolgender Abbildungen bestehen oder in diese überführt werden können.at In the following description, under the term "archetype", the initially given monocular made two-dimensional image understood. It is immediate understand that an application of the method according to the invention described below also on sequences is applicable by such Urbildern and therefore readily for moving Images, in particular video or Filmaufnah men used can, if this from a series of successive illustrations exist or be transferred to this can.
Erfindungsgemäß wird auf der Grundlage von aus monokularen Urbilddaten ermittelten Bildinformationen abgebildeter Objekte ein auf einer vermutungsbasierten Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst erzeugt. Die Urbilddaten werden auf das virtuelle dreidimensionale Bildgerüst zum Erzeugen eines virtuellen dreidimensionalen Bildmodells angepaßt. Die Daten des virtuellen dreidimensionalen Bildmodells werden als Vorlage zum Erstellen der Raumbildvorlage für das Abbildungsverfahren mit räumlicher Tiefenwirkung verwendet.According to the invention the basis of image information determined from monocular original image data imaged objects on a guess-based image depth gradation based virtual three-dimensional image framework generated. The original image data are applied to the virtual three-dimensional image framework for generating adapted to a virtual three-dimensional image model. The Data of the virtual three-dimensional image model are used as a template to create the spatial image template for the imaging process with spatial Depth effect used.
Es werden erfindungsgemäß somit zunächst die auf der zweidimensionalen Abbildung abgebildeten Objekte ermittelt. Dann wird diesen Objekten jeweils eine Vermutung über deren Raumtiefe zugeordnet. Es entsteht ein virtuelles dreidimensionales Modell, wobei die ursprünglichen Bilddaten der zweidimensionalen Abbildung auf dieses virtuelle dreidimensionale Modell angepaßt werden. Dieses virtuelle dreidimensionale Modell bildet nun ein virtuelles Objekt, dessen Daten den Ausgangspunkt zum Erzeugen der Raumbildvorlage darstellen.It become according to the invention thus first the determined on the two-dimensional image imaged objects. Then each of these objects is a guess about their Assigned room depth. The result is a virtual three-dimensional model, being the original one Image data of the two-dimensional image on this virtual three-dimensional Model adapted become. This virtual three-dimensional model now forms virtual object whose data is the starting point for generating the Represent room image template.
Auf den monokularen Urbilddaten wird zum Ermitteln der Bildinformation ein Verfahren zu einer Kantenerkennung der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes ausgeführt. Dabei werden bei der vermutungsbasierten Bildtiefenabstufung Urbildareale aufgrund eines ermittelten Kantenreichtums verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder Vordergrund zugeordnet.On The monocular master image data is used to determine the image information a method for edge detection of the imaged objects executed with a generation of an edge-marked image. there become in the presumption-based image depth gradation Urbildareale due to a determined edge richness different virtual depth levels, especially associated with a background and / or foreground.
Hier wird die Erkenntnis genutzt, daß detailreiche und damit kantenreiche Objekte im allgemeinen zu einer anderen Bildtiefe und damit Tiefenebene gehören, als detailarme und damit auch kantenarme Objekte. Der Schritt der Kantenerkennung sortiert demnach Bestandteile des Urbilds aus, von denen auszugehen ist, dass sich diese im Hintergrund des Bildes befinden und separiert sie von denen, die im Vordergrund oder einer weiteren Tiefenebene zu vermuten sind.Here the realization is used that detailed and thus edge-rich objects in general to a different image depth and thus include deep level, as low-detail and thus low-edge objects. The step of Edge detection therefore sorts out components of the original image, from which is assumed to be in the background of the picture they are located and separated from those in the foreground or one further depth level are to be assumed.
Bei einer weiteren Vorgehensweise zum Ermitteln der Bildinformation wird ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt. Dabei wird bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet.at another approach to determining the image information For example, a method for determining the color information of given original image areas is performed. there becomes at the guess-based depth of image at least a first identified color information of a first virtual Depth plane and a second color information of a second virtual Assigned depth level.
Dabei wird hier die Erfahrungstatsache angewandt, daß bestimmte Farben oder Farbkombinationen bei gewissen Bildmotiven bevorzugt in einer anderen Tiefenebene auftreten, als andere Farben oder Farbkombinationen. Beispiele sind hierfür Blau als eine typische Hintergrundfarbe bei Landschaften einerseits und Rot oder Grün als typische Vordergrundfarben des abgebildeten Motivs andererseits.there here the fact of experience is applied that certain colors or color combinations in certain image motifs, preferably in a different depth plane occur as other colors or color combinations. examples are therefor Blue as a typical background color in landscapes on the one hand and red or green on the other hand, as typical foreground colors of the depicted subject.
Das Verfahren zur Kantenerkennung und das Verfahren zum Ermitteln der Farbinformation können sowohl einzeln oder in Kombination miteinander angewendet werden, wobei vor allem eine kombinierte Anwendung aus Kantenerkennung und Ermitteln der Farbinformation weitere Differenzierungsmöglichkeiten der Urbilddaten, insbesondere ein feineres Festlegen weiterer Tiefenebenen erlaubt.The Edge detection method and method for determining the Color information can both individually or in combination with each other, especially a combined application of edge detection and detection the color information further differentiation options of the original image data, in particular a finer setting of further depth levels allowed.
Auf dem kantenmarkierten Bild wird in einer zweckmäßigen Ausgestaltung ein Weichzeichnungsverfahren zur Verstärkung und zum Vereinheitlichen eines kantenreichen Urbildareals angewendet. Damit werden einerseits mögliche Fehler bei der Kantenerkennung ausgeglichen und andererseits nebeneinander liegende, nicht zufällig vorgegebene Strukturen verstärkt. Optional können die Werte des kantenmarkierten Bildes zusätzlich tonwertkorrigiert werden.On the edge-marked image is in a suitable embodiment, a soft-focus method for reinforcement and used to unify an edged original picture area. This will be possible on the one hand Error in edge detection balanced and on the other side lying, not accidental reinforced given structures. Optionally the values of the edge-marked image are additionally corrected for tone value.
Auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes, wird eine auf dem Tonwert eines Bildpunktes basierende Zuordnung eines betreffenden Bildabschnittes zu einer Tiefenebene ausgeführt. Die Strukturen des kantenmarkierten Bildes, das weichgezeichnet und optional tonwertkorrigiert ist, werden nun je nach ihrem Tonwert einzelnen definierten Tiefenebenen zugeordnet. Das kantenmarkierte, weichgezeichnete und optional tonwertkorrigierte Bild bildet daher die Grundlage für eine eindeutige Zuweisung der einzelnen Bildstrukturen zu den Tiefenebenen, wie beispielsweise dem definierten virtuellen Hintergrund, einer virtuellen Bildebene oder einem virtuellen Vordergrund.On the basis of the softened and / or additionally tone-corrected edge-marked image, an assignment of a relevant image section based on the tonal value of a pixel to a depth plane is carried out. The structures of the edge-marked image, which is softened and optionally tone-corrected, are now assigned to individual defined depth levels, depending on their tone value. The edge-marked, softened and optionally tone-corrected image bil Therefore, the basis for a clear assignment of the individual image structures to the depth levels, such as the defined virtual background, a virtual image plane or a virtual foreground.
Bei einer dabei ausgeführten Fixpunktdefinition erfolgt eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert. Damit wird ein virtueller Drehpunkt für die später zu erzeugenden Einzelansichten festgelegt. Dabei bildet der ausgewählte Farb- und/oder Tonwert einen Referenzwert, der einer virtuellen Bildebene zugeordnet wird und somit einen virtuellen Tiefenhintergrund von einem virtuell aus der Bildebene herausragenden Vordergrund trennt.at an executed thereby Fixed point definition, the color and / or tone values are limited to a predetermined value. This becomes a virtual pivot for the later set to be generated individual views. The selected color and / or Tonwert a reference value of a virtual image plane and thus a virtual depth background of a foreground that is virtually out of the picture plane.
Die Zuweisung einer virtuellen Tiefenebene kann auf verschiedene Weise erfolgen. Die bereits dargestellten Verfahrensschritte legen zweckmäßigerweise eine Zuordnung einer Tiefenebene an einen jeweils vorgegebenen Farb- und/oder Helligkeitswert eines Bildpixels nahe. Objekte mit Bildpixeln, die somit gleiche Farb- und/oder Helligkeitswerte aufweisen, werden somit einer Tiefenebene zugeordnet.The Assigning a virtual depth layer can be done in several ways respectively. The process steps already described expediently an assignment of a depth level to a given color and / or brightness value of an image pixel. Objects with image pixels, which thus have the same color and / or brightness values thus assigned to a depth level.
Alternativ dazu besteht auch die Möglichkeit, willkührlich festgelegte Bildabschnitte, insbesondere einen Bildrand und/oder die Bildmitte, einer virtuellen Tiefenebene zuzuordnen. Damit wird insbesondere eine virtuelle „Wölbung", „Verspannung", „Kippung" und dergleichen dreidimensionale Bildeffekte erreicht.alternative There is also the possibility of arbitrarily determined Image sections, in particular a picture edge and / or the center of the picture, assign to a virtual depth layer. This is especially a virtual "curvature", "strain", "tilt" and the like achieved three-dimensional image effects.
Zum Erzeugen des virtuellen dreidimensionalen Bildmodells wird das virtuelle dreidimensionale Bildgerüst als eine entsprechend der virtuellen Tiefenebenen deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt. Die Netzstruktur bildet dabei eine Art virtuelle dreidimensionale „Matrize" oder „Profilform", während das zweidimensionale Urbild eine Art „elastisches Tuch" darstellt, das über die Matrize gespannt und in die Matrize in einer Art virtuellem „Tiefziehverfahren" hineingepreßt wird. Das Ergebnis ist ein virtuelles dreidimensionales Bildmodell mit den Bildinformationen des zweidimensionalen Urbilds und der zusätzlich dem Urbild aufgeprägten „virtuellen Tiefziehstruktur" der virtuellen dreidimensionelen Matrize.To the Creating the virtual three-dimensional image model becomes the virtual one three-dimensional image framework as a virtual deformed according to the virtual depth planes Net structure generated and the two-dimensional archetype in a mapping process as a texture adapted to the deformed network structure. The network structure forms doing a kind of virtual three-dimensional "matrix" or "profile shape", while the two-dimensional archetype represents a kind of "elastic cloth" that over the Matriar is stretched and pressed into the matrix in a kind of virtual "thermoforming process". The result is a virtual three-dimensional image model with the image information of the two-dimensional archetype and the additional the Original image imprinted "virtual Thermoforming structure "the virtual three-dimensional matrix.
Von diesem dreidimensionalen Bildmodell können virtuelle binokulare oder auch multiokulare Ansichten abgeleitet werden. Das geschieht dadurch, indem von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Bobachtungswinkeln eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenen Einzelbildern erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes entsprechend des virtuellen Beobachtungswinkels verschoben und/oder verzerrt werden. Das virtuelle dreidimensionale Bildmodell dient somit als ein virtuelles räumliches Objekt, das virtuell binokular oder multiokular betrachtet wird, wobei dabei virtuelle Ansichten gewonnen werden, die sich entsprechend den Beobachtungswinkeln unterscheiden.From This three-dimensional image model can be virtual binocular or Also, multi-focal views are derived. That happens by from the virtual three-dimensional image model from a Set of virtual observation angles a series of virtual, Play the views of the virtual three-dimensional image model Frames are generated, where a fixed depth corresponding image sections of the original image corresponding to the virtual Observation angle shifted and / or distorted. The virtual Three-dimensional image model thus serves as a virtual spatial Object that is considered to be virtually binocular or multi-eyed, where doing this, virtual views are gained that are appropriate differ from the observation angles.
Diese virtuellen Einzelbilder werden nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage kombiniert. Dabei werden die virtuellen Einzelbilder wie real binokular oder multiokular aufgenommene Einzelbilder behandelt, die nun für ein dreidimensionales Darstellungsverfahren geeignet aufbereitet und kombiniert werden. Damit liegt eine virtuell gewonnene binokulare oder multiokulare Bildinformation vor, die für jedes beliebige räumliche Abbildungsverfahren verwendet werden kann.These virtual frames are after one for the imaging process with additional room effect suitable algorithm for generating a spatial image template combined. The virtual frames are like binocular or real treated multi-ocular captured frames, which now for a three-dimensional Preparation method suitably prepared and combined. This is a virtual binocular or multi-cellular Picture information before, for any spatial Imaging method can be used.
Zum Erstellen der Raumbildvorlage wird bei einer Ausführungsform des Verfahrens eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln ausgeführt und die so erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters angezeigt.To the Creating the room image template is in one embodiment the process an image processing of individual image areas of the original image, in particular scaling and / or rotating and / or mirroring executed and the generated space image template by means of an overlying monofocal lens raster displayed.
Dabei werden die Bildstrukturen, die in dem virtuellen dreidimensionalen Bildmodell gewissen Tiefenebenen zugeordnet werden, so verändert, dass diese bei Anzeige der so erzeugten Raumbildvorlage einen ausreichenden Akkomodationsreiz für das betrachtende menschliche Auge bieten. Die so hervorgehobenen Bildstrukturen werden mittels der optischen Abbildung durch das Linsenraster entweder vor oder hinter der gegebenen Bildebene wahrgenommen und führen somit zu einem räumlichen Eindruck beim Betrachten des Bildes. Dieses Verfahren benötigt nur eine relativ einfach gestaltete Raumbildvorlage in Verbindung mit einer einfachen Ausführung des Abbildungsverfahrens mit räumlicher Tiefenwirkung.there be the image structures in the virtual three-dimensional Image model assigned to certain depth levels, so changed that These are sufficient when displaying the generated space image template Accommodation stimulus for the to provide contemplating human eye. The highlighted image structures either by means of optical imaging through the lens grid perceived before and behind the given image plane and thus lead to a spatial impression when viewing the picture. This method only requires a relatively simple designed room image template in conjunction with a simple execution of the Imaging method with spatial depth effect.
Das zweidimensionale Urbild kann auch direkt ohne eine Bildbearbeitung durch das monofokale Linsenraster angezeigt werden. Das zweidimensionale Urbild ist somit sofort als Raumbildvorlage für eine Anzeige durch das monofokale Linsenraster verwendbar. Eine derartige Vorgehensweise ist besonders dann zweckmäßig, wenn einfache Bildstrukturen vor einem homogen strukturierten Hintergrund, insbesondere Zeichen vor einem einheitlich ausgebildeten Texthintergrund, mit Tiefenwirkung anzuzeigen sind. Der durch die abbildene Wirkung des monofokalen Linsenrasters erzielte Akkomodationsreiz für das betrachtende Auge bewirkt dann einen Tiefeneffekt, wobei das Urbild an sich für eine derartige Anzeige nicht vorher aufbereitet werden muß.The two-dimensional archetype can also be displayed directly without any image processing by the monofocal lenticular. The two-dimensional archetype image can thus be used immediately as a spatial image template for display by the monofocal lenticular grid. Such a procedure is particularly expedient if simple image structures in front of a homogeneously structured background, in particular characters in front of a uniformly formed text background, are to be displayed with depth effect. The obtained by the imaging effect of the monofocal lens raster Akkomodationsreiz for the viewing eye then effects a depth effect, wherein the original image does not have to be prepared beforehand for such a display.
Eine Vorrichtung zum Anzeigen einer Raumbildvorlage ist durch eine zweidimensionale Raumbildvorlage und ein über der Raumbildvorlage angeordnetes monofokales Linsenraster gekennzeichnet. Das monofokale Linsenraster bildet hierbei Bereiche der Raumbildvorlage ab und bewirkt einen entsprechenden Akkomodationsreiz im betrachtenden Auge.A Apparatus for displaying a spatial image template is characterized by a two-dimensional Room image template and an over the spatial image template arranged monofocal lens grid characterized. The monofocal lenticular forms here areas of the spatial image template and causes a corresponding Akkomodationsreiz in observing Eye.
Die zweidimensionale Bildvorlage ist dazu zweckmäßigerweise aus einem Mosaik aus der Rasterstruktur des Linsenrasters zugeordneten Bildabschnitten ausgeführt, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein zugehöriges Linsenelement des monofokalen Linsenrasters ist. Die zweidimensionale Bildvorlage ist demnach in eine Gesamtheit einzelner Bildbereiche aufgeteilt, die jeweils durch ein Linsenelement angezeigt werden.The Two-dimensional image template is expediently made of a mosaic from the grid structure of the lens grid associated image sections executed wherein substantially each one image section is an imaging object for essentially one associated each Lens element of the monofocal lens grid is. The two-dimensional Picture template is therefore in a totality of individual image areas divided, each by a lens element are displayed.
Bei dieser Vorrichtung sind prinzipiell zwei Ausführungsformen der Bildvorlage und insbesondere der Bildbereiche möglich. Bei einer ersten Ausführungsform sind die Bildabschnitte im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage des Urbildes. Das heißt, dass bei dieser Ausführungsform das im wesentlichen unveränderte zweidimensionale Bild die Raumbildvorlage für das Linsenraster bildet. Bei dieser Ausführungsform wird somit, abgesehen von Größenänderungen oder Skalierungen des gesamten Bildes, auf eine Bildbearbeitung einzelner Bildbereiche verzichtet.at This device are in principle two embodiments of the image template and in particular the image areas possible. In a first embodiment the image sections are essentially unchanged image components of two-dimensional image template of the archetype. It means that in this embodiment essentially unchanged two-dimensional image forms the spatial image template for the lenticular grid. In this embodiment thus, apart from size changes or scaling the entire image, to image editing omitted individual image areas.
Bei einer weiteren Ausführungsform sind die Bildabschnitte zur Kompensation der Abbildungswirkungen des Linsenrasters skaliert und/oder gespiegelt und/oder gedreht. Dadurch wird eine verbesserte Bildqualität erreicht, wobei allerdings der Aufwand für die Erstellung der Raumbildvorlage zunimmt.at a further embodiment are the image sections to compensate for the imaging effects the lens grid scaled and / or mirrored and / or rotated. This achieves an improved image quality, although the effort for the Creation of the room image template increases.
Die zweidimensionale Bildvorlage ist insbesondere ein auf einem Display erzeugtes Bild, während das Linsenraster auf der Oberfläche des Displays befestigt ist. Das Linsenraster wird somit auf einem vorab vorhandenen Display, beispielsweise einem Röhren- oder Flachbildschirm, an einer geeigneten Stelle angebracht und befindet sich somit über dem auf dem Display angezeigten Bild. Diese Anordnung läßt sich in sehr einfacher Weise verwirklichen.The two-dimensional image template is in particular a on a display generated image while the lenticular grid on the surface the display is attached. The lenticular is thus on a pre-existing display, such as a tube or Flat screen, attached to a suitable place and is located thus above the displayed on the screen. This arrangement can be in a very simple way.
In einer ersten Ausführungsform ist das Linsenraster als eine rasterartige, auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt. Die Verwendung von Fresnel-Linsen gewährleistet eine flache und einfache Gestaltung des Linsenrasters, wobei die für Fresnel-Linsen typischen Rillenstrukturen in der nach dem Stand der Technik bekannten Weise in ein durchsichtiges Kunststoffmaterial, insbesondere eine Kunststofffolie eingearbeitet werden können.In a first embodiment The lenticular is a grid-like, adhering to the display surface Fresnel lens assembly executed. The use of Fresnel lenses ensures a flat and simple Design of the lenticular grid, wherein the groove structures typical for Fresnel lenses in the manner known in the art in a transparent Plastic material, in particular a plastic film are incorporated can.
In einer zweiten Ausführungsform ist das Linsenraster als eine rasterartige, insbesondere flexible, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt. Eine Zonenplatte ist ein konzentrisches System aus hellen und dunklen Ringen, die durch Lichtinterferenz eine Bündelung des hindurchlaufenden Lichtes bewirken und damit eine abbildende Wirkung ermöglichen. Eine derartige Ausführungsform ist durch ein Bedrucken einer durchsichtigen flexiblen Folie in aufwandsarmer und kostengünstiger Weise herstellbar.In a second embodiment is the lenticular grid as a grid-like, in particular flexible, on the display surface adhesive zone plate assembly executed. A zone plate is a concentric one System of light and dark rings caused by light interference a bundling of the passing light effect and thus an imaging Enable effect. Such an embodiment is by printing a transparent flexible film in less expensive and less expensive Way to produce.
Bei einer dritten Ausführungsform ist das Linsenraster auch als eine Anordnung konventionell geformter Konvexlinsen möglich, wobei allerdings die Dicke der gesamten Anordnung und damit auch deren Materialverbrauch zunimmt.at a third embodiment For example, the lenticular grid is also conventionally shaped as an array Convex lenses possible, However, although the thickness of the entire arrangement and thus their material consumption increases.
Das Verfahren und die Vorrichtung sollen im Folgenden anhand von Ausführungsbeispielen näher erläutert werden. Zur Verdeutlichung dienen die angefügten Figuren. Es werden für gleiche oder gleich wirkende Verfahrensschritte und Verfahrensbestandteile die gleichen Bezugszeichen verwendet. Es zeigt:The Method and the device will be described below with reference to exemplary embodiments be explained in more detail. To clarify serve the attached figures. It will be for same or equivalent process steps and process components the same reference numerals are used. It shows:
Die
Den
Ausgangspunkt des Verfahrens bildet eine Menge von Urbilddaten
Zweckmäßigerweise
wird davon ausgegangen, daß die
Urbilddaten
Die
Urbilddaten
Für die weitere
Verarbeitung werden die angepaßten
Bilddaten in einem Schritt
In
Abhängigkeit
von dem vermuteten räumlichen
Bildaufbau, d.h. der vermuteten Abstufung der Tiefenebenen im Urbild,
folgt nun optional unter einem Zugriff auf die zwischengespeicherten
Bilddaten
Im
weiteren Verfahrensverlauf schließt sich eine Kantenerkennung
Nebeneinander
liegende Strukturen werden nachfolgend mittels eines als „Weichzeichnung" bezeichneten Verfahrensschrittes
Gegebenenfalls
kann anschließend
in einem Schritt
Der
nächste
Verfahrensschritt ist durch eine Fixpunktfestlegung
Weiterhin
können
optional in einem Verfahrensschritt
Durch
die so erzeugten Abstufungen der virtuellen Tiefenebenen wird ein
virtuelles dreidimensionales Bildgerüst erzeugt, die als eine Verzerrungsmaske
oder „Displacement-Map" dient und in Form einer
Graustufenmaske visualisiert werden kann. Dieses virtuelle dreidimensionale
Bildgerüst
wird in einem Schritt
Das
virtuelle dreidimensionales Bildgerüst dient als Verzerrungsmaske
und virtuelle Form zum Erzeugen eines virtuellen dreidimensionalen
Bildmodells. Dabei wird in einem Verfahrensschritt
In
einem Kombinationsschritt
Im
Folgenden werden einige Bildbearbeitungen anhand von Beispielen
näher erläutert.
Die
Im
weichgezeichneten und tonwertkorrigierten Bild bilden der Himmel
und der Strand aus dem Urbild
Dies
ist mit der oben bereits erwähnten
Fixpunktfestlegung
In
dem hier dargestellten Beispiel stellt sich heraus, dass sich der
dem Strand aus dem Urbild
Die
Die
vorhergehend beschriebenen Verfahren zur Konturenmarkierung, zur
Fixpunktdefinition und weitere Vermutungen über die Bildtiefe lassen es
beispielhafter Weise für
das schematische Urbild
Das
zweidimensionale Urbild wird auf das virtuelle Bildgerüst angepaßt. Bei
dem in den
Fließende Übergänge zwischen
den einzelnen virtuellen Tiefenebenen können in Ergänzung dazu zum einen dadurch
erreicht werden, indem das Raster der Abstufungen der virtuellen
Abstände
zwischen den einzelnen Tiefenebenen verfeinert wird und bei den
einzelnen Tiefenebenen weitere Abstufungen vorgenommen werden. Zum
anderen ist es auch möglich,
die Ränder
der Tiefenebenen bzw. der auf den Tiefenebenen gelegenen Objekte
geeignet virtuell so zu deformieren, daß diese ineinander übergehen.
So wäre
es beispielsweise bei dem schematischen Objekt
Die
Andere virtuelle Projektionstechniken sind ebenfalls anwendbar bzw. zweckmäßig. So kann das Projektionszentrum virtuell hinter dem Hintergrund des virtuellen dreidimensionalen Bildmodells angeordnet sein und die entsprechenden Objekte der virtuellen Tiefenebenen als „Schattenriß" auf eine zweckmäßig positionierte Projektionsebene projizieren, die von einem Betrachtungswinkel aus betrachtet wird. Bei einer derartigen virtuellen Projektion erscheinen die im virtuellen Vordergrund gelegenen Objekte gegenüber den virtuell hinter ihnen befindlichen Objekten vergrößert, wodurch ein zusätzlicher Raumeffekt hervorgerufen werden kann.Other Virtual projection techniques are also applicable. So can the projection center virtually behind the background of the be arranged in a virtual three-dimensional image model and the corresponding objects of the virtual depth planes as a "silhouette" on a suitably positioned Projection plane projecting from a viewing angle is looked at. In such a virtual projection appear the objects located in the virtual foreground opposite the magnified virtually behind them objects, causing an additional space effect can be caused.
Weiterhin ist es möglich, mehrere virtuelle Projektionszentren in Verbindung mit mehreren virtuellen Projektionsebenen in beliebiger zweckmäßiger Kombination vorzusehen. So kann beispielsweise der virtuelle Hintergrund von einem virtuell sehr weit hinter dem virtuellen dreidimensionalen Bildmodell angeordneten Projektionszentrum auf eine erste Projektionsebene projiziert werden, während eine Anordnung vieler, sehr dicht gegeneinander abgestufter Objekte im virtuellen Vordergrund durch ein zweites Projektionszentrum projiziert werden, die keinerlei Vergrößerungen an diesen Objekten, sondern nur eine virtuelle Verschiebung dieser Objekte hervorruft.Farther Is it possible, multiple virtual projection centers in conjunction with multiple virtual projection levels in any convenient combination provided. For example, the virtual background of a virtual very far behind the virtual three-dimensional Image model arranged projection center on a first projection level be projected while an arrangement of many, very close to each other graduated objects projected through a second projection center in the virtual foreground will be no enlargements at these objects, but only a virtual shift of these Causes objects.
Die
Wahl der virtuellen Projektionsmechanismen bzw. der Anzahl der Betrachtungswinkel
hängt von
konkreten Einzelfall, insbesondere vom Bildmotiv des zweidimensionalen
Urbildes, von den in das Urbild hinein interpretierten Tiefenverhältnissen,
von den gewünschten
und/oder zu unterdrückenden
Bildeffekten und nicht zuletzt auch vom als zweckmäßig erachteten
Rechenaufwand und von dem letztlich angewendeten räumlichen
Abbildungsverfahren ab, für das
die Raumbildvorlage erzeugt werden soll. Prinzipiell können jedoch
von dem virtuellen dreidimensionalen Bildmodell beliebig viele perspektivische
Einzelbilder mit beliebig vielen, beliebig angeordneten virtuellen
Projektionszentren, virtuellen Projektionsebenen, Betrachtungswinkeln
usw. erzeugt werden, wobei das in
In
der
Im
Folgenden werden unter Bezugnahme auf die
Die
Die
Bildabschnitte
In
dem in
In
den
Der
Bildausschnitt
Jeder
dieser Bildabschnitte wird, wie in
Bei
dem Ausführungsbeispiel
aus den
Bei
einer zweiten Möglichkeit,
die insbesondere für
einfache Bildmotive, wie Zeichen oder einfache geometrische Strukturen
auf einem einheitlichen Bildhintergrund, anwendbar ist, werden Anzahl,
Anordnung und Größe der Linsenelemente
im Linsenraster so gewählt,
dass die Abbildungsfaktoren für das
gesamte Bild unbedeutend sind. Diese Ausführungsform bietet vor allem
den Vorteil, dass zum Teil rechenintensive Bildvorbereitungen entfallen
und die Raumbildvorlage ohne Linsenraster problemlos erkannt werden
kann. Das Bild
Anbringen des Linsenrasters, also mit sehr einfachen Mitteln, hervorgerufen werden kann.install the lenticular grid, so with very simple means, caused can be.
- 1010
- Urbilddatenarchetype data
- 2020
- Einlesen der Urbilddatenread in the archetype data
- 3030
- Anpassen der UrbilddatenTo adjust the archetype data
- 4040
- Zwischenspeichern der angepaßten Urbilddatencaching the adapted one archetype data
- 5050
- zwischen gespeicherte Bilddatenbetween stored image data
- 6060
- optionale Farbkanal/Farbverteilungsänderungoptional Color channel / color distribution change
- 7070
- Umwandlung in Grauwerteconversion in gray values
- 8080
- KantenerkennungsverfahrenEdge detection method
- 8181
- Daten des Bildpixelsdates of the image pixel
- 8282
- Auswahl des Bildpixelsselection of the image pixel
- 8383
- Einlesen des Helligkeitswertes des Bildpixelsread in the brightness value of the image pixel
- 8484
- Erhöhen des HelligkeitswertesIncrease the brightness value
- 8585
- Bildpixel mit erhöhtem Helligkeitswertimage pixels with increased brightness value
- 8686
- Erniedrigen des Helligkeitswerteshumiliate the brightness value
- 8787
- Bildpixel mit erniedrigtem Helligkeitswertimage pixels with reduced brightness value
- 8888
- Gehe zu: nächster PixelGo to: next pixel
- 8989
- Bildmenü zur KantenerkennungPicture menu for edge detection
- 9090
- WeichzeichnungsprozedurSoftening procedure
- 100100
- optional: Tonwertkorrekturoptional: Levels
- 110110
- Fixpunktdefinitionfixed point definition
- 120120
- optional: setzen weiterer Fixpunktoptionenoptional: set more checkpoint options
- 130130
- Speichern der Graustufenmasketo save the grayscale mask
- 140140
- erzeugte Graustufenmaskegenerated Grayscale mask
- 150150
- Verzerren der Urbildtextur, Erstellen des virtuellen dreidimensionalen BildmoDistort the original image texture, creating the virtual three-dimensional Bildmo
- dells, Erzeugen virtueller Einzelbilderdells, Create virtual frames
- 160160
- virtuelle Einzelbildervirtual Single images
- 170170
- Kombination der virtuellen Einzelbildercombination the virtual frames
- 180180
- Bilddaten für räumliches Abbildungsverfahrenimage data for spatial imaging
- 200200
- Beispielhaftes zweidimensionales Urbildexemplary two-dimensional archetype
- 200a200a
- Bildausschnittimage section
- 208a208a
- erstes virtuelles Einzelbildfirst virtual single picture
- 208b208b
- zweites virtuelles Einzelbildsecond virtual single picture
- 208c208c
- drittes virtuelles Einzelbildthird virtual single picture
- 208d208d
- viertes virtuelles Einzelbildfourth virtual single picture
- 209209
- kombinierte Raumbildvorlagecombined Space template
- 209a209a
- vergrößerter Ausschnitt einer kombinierten Raumbildvorlageenlarged section of a combined room image template
- 210210
- beispielhaftes kantenmarkiertes Bildexemplary edge-marked image
- 220220
- beispielhaftes kantenmarkiertes, weichgezeichnetes Bildexemplary edge-marked, softened image
- 230230
- beispielhaftes tonwertkorrigiertes weichgezeichnetes Bildexemplary Tonwertkorrigiertes soft-drawn image
- 239239
- FixpunktdefinitionsmenüFixed point definition menu
- 240240
- fixpunktdefiniertes Bildfixed point defined image
- 241241
- Histogrammhistogram
- 242242
- GrauwertleisteGray scale bar
- 243243
- Indikatorenzeigerindicators pointer
- 244244
- Auswahlindikatorselection indicator
- 245245
- Direktauswahl für Helligkeitswertedirect selection for brightness values
- 301301
- Urbild, schematischarchetype, schematically
- 303303
- erstes Objektfirst object
- 304304
- zweites Objektsecond object
- 305305
- drittes Objektthird object
- 306306
- angenommener Hintergrundaccepted background
- 307307
- virtuelles Bildgerüst mit virtuellen Tiefenebenenvirtual picture frame with virtual depth levels
- 308308
- virtuelles Einzelbildvirtual frame
- 351351
- erster virtueller Betrachtungspunkt mit erstem Betrachtungswinkelfirst virtual viewpoint with first viewing angle
- 352352
- zweiter virtueller Betrachtungspunkt mit zweitem Betrachtungswinkelsecond virtual viewing point with second viewing angle
- 360360
- monofokales Linsenrastermonofokales lenticular
- 361361
- Bildabschnittpicture section
- 361a361a
- strukturarme Bildabschnittelow-structured image sections
- 361b361b
- strukturreiche Bildabschnittestructurally rich sections of the picture
- 365365
- Linsenelementlens element
- 370370
- Displaydisplay
- 375 Displayoberfläche375 display surface
Claims (23)
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10348618A DE10348618B4 (en) | 2003-09-15 | 2003-10-20 | Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth |
US10/572,025 US20070159476A1 (en) | 2003-09-15 | 2004-08-25 | Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a steroscopic image master |
JP2006526536A JP2007506167A (en) | 2003-09-15 | 2004-08-25 | Method of generating 3D image pattern for image display method having 3D depth effect and apparatus for displaying 3D image pattern |
EP04764457A EP1665815A2 (en) | 2003-09-15 | 2004-08-25 | Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master |
PCT/EP2004/009480 WO2005029871A2 (en) | 2003-09-15 | 2004-08-25 | Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10342465.2 | 2003-09-15 | ||
DE10342465 | 2003-09-15 | ||
DE10348618A DE10348618B4 (en) | 2003-09-15 | 2003-10-20 | Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10348618A1 true DE10348618A1 (en) | 2005-04-14 |
DE10348618B4 DE10348618B4 (en) | 2006-07-27 |
Family
ID=34305745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10348618A Expired - Lifetime DE10348618B4 (en) | 2003-09-15 | 2003-10-20 | Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10348618B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009041328A1 (en) | 2009-09-15 | 2011-03-24 | Natural View Systems Gmbh | Method and device for generating partial views and / or a spatial image template from a 2D view for stereoscopic reproduction |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012100848B4 (en) | 2012-02-01 | 2019-05-29 | Hans Pfriem | System and method for the stereoscopic display of images of an endoscope |
DE102015112411A1 (en) | 2015-07-29 | 2017-02-02 | Universal Consulting GmbH | System for the stereoscopic display of images of an endoscope |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4878247A (en) * | 1986-03-19 | 1989-10-31 | Rollei Fototechnic Gmbh | Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor |
US6069608A (en) * | 1996-12-03 | 2000-05-30 | Sony Corporation | Display device having perception image for improving depth perception of a virtual image |
US6445814B2 (en) * | 1996-07-01 | 2002-09-03 | Canon Kabushiki Kaisha | Three-dimensional information processing apparatus and method |
-
2003
- 2003-10-20 DE DE10348618A patent/DE10348618B4/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4878247A (en) * | 1986-03-19 | 1989-10-31 | Rollei Fototechnic Gmbh | Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor |
US6445814B2 (en) * | 1996-07-01 | 2002-09-03 | Canon Kabushiki Kaisha | Three-dimensional information processing apparatus and method |
US6069608A (en) * | 1996-12-03 | 2000-05-30 | Sony Corporation | Display device having perception image for improving depth perception of a virtual image |
Non-Patent Citations (5)
Title |
---|
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.ht Remote Sensing Tutorioal:Table of Contents (S.1-6), Section 11:The Display of Contuors in Maps (S.1-4), Section 11:Seeing in 3-D Stereo (S.1-4),Section 11: Measuring Heights from Individual and Paired Images (S.1-4),Section 11:Digital Elevation Models (DEMs) and Viewing Modes (S.1-4),Start bei:http://rst.gsfc.nasa.gov./Front/tofc.html |
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.htRemote Sensing Tutorioal:Table of Contents (S.1-6), Section 11:The Display of Contuors in Maps (S.1-4), Section 11:Seeing in 3-D Stereo (S.1-4),Section 11: Measuring Heights from Individual and Paired Images (S.1-4),Section 11:Digital Elevation Models (DEMs) and Viewing Modes (S.1-4),Start bei:http://rst.gsfc.nasa.gov./Front/tofc.html * |
IWAINSKY,A.,WILHELMI,W.:Lexikon der Computergrafik und Bildverarbeitung,Vieweg, 1994, S.273,281-283, ISBN 3-528-05342-9 * |
IWAINSKY,A.,WILHELMI,W.:Lexikon der Computergrafik und Bildverarbeitung,Vieweg, 1994, S.273,281-283; ISBN 3-528-05342-9 |
US GeoData Digital Elevation Models, Fact Sheet 040-00 (April 2000),S.1-4 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009041328A1 (en) | 2009-09-15 | 2011-03-24 | Natural View Systems Gmbh | Method and device for generating partial views and / or a spatial image template from a 2D view for stereoscopic reproduction |
WO2011032642A1 (en) | 2009-09-15 | 2011-03-24 | Natural View Systems Gmbh | Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback |
US8693767B2 (en) | 2009-09-15 | 2014-04-08 | Natural View Systems Gmbh | Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback |
AU2010294914B2 (en) * | 2009-09-15 | 2014-05-01 | Natural View Systems Gmbh | Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback |
Also Published As
Publication number | Publication date |
---|---|
DE10348618B4 (en) | 2006-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2005029871A2 (en) | Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master | |
DE69221346T2 (en) | Device and method for creating stereoscopic images | |
EP1784978B1 (en) | Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry | |
DE69428543T2 (en) | AUTOSTEREOSCOPIC IMAGE RECORDING DEVICE AND METHOD WITH A PARALLAX SCREENING Aperture | |
EP2153269B1 (en) | Method for the orientation of a parallax barrier screen on a display screen | |
DE69621509T2 (en) | Process for the selection of two individual images of a two-dimensional image sequence as the basis for the calculation of the relative depth of image objects | |
DE69515522T2 (en) | THREE-DIMENSIONAL IMAGING SYSTEM | |
DE69420892T2 (en) | Optical device | |
DE102007047470B3 (en) | Method for aligning a parallax barrier screen on a screen | |
DE102014205519A1 (en) | Method and apparatus for adapting a display of an autostereoscopic display for a vehicle | |
EP1782637A1 (en) | Method for the autostereoscopic representation of a stereoscopic original image displayed on a display unit | |
DE69927239T2 (en) | SYSTEM AND METHOD FOR PROCESSING PICTURES | |
DE69735106T2 (en) | COMPENSATION OF BACKGROUND LUMINUM DIFFERENCE IN PICTURE COMPOSITION SYSTEMS WITH REAL-TIME OPERATION | |
DE19646046C1 (en) | Stereo hologram display | |
DE10126546A1 (en) | Arrangement for determining position-dependent intensity and color profile and/or focus profile of optical lens systems has measurement fields arranged in both dimensions of test image | |
WO2004023348A1 (en) | Method for simulating optical components for the stereoscopic production of spatial impressions | |
DE10348618B4 (en) | Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth | |
DE69015170T2 (en) | Display means. | |
DE69230668T2 (en) | IMAGINOGRAPH | |
DE3529819C2 (en) | Projection device for generating autostereoscopically viewable images | |
EP2478705A1 (en) | Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback | |
DE60121443T2 (en) | Block-based motion or depth estimation | |
DE212022000122U1 (en) | Stereoscopic display device based on a beam splitting device and test device | |
DE19853608C2 (en) | Method for displaying an autostereoscopic image | |
WO1999009449A1 (en) | Method and device for producing an image which can be represented in 3-d |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: 3D PHOTO AG, SCHWECHAT, AT |
|
8381 | Inventor (new situation) |
Inventor name: GRASNICK, ARMIN, 07745 JENA, DE |
|
8339 | Ceased/non-payment of the annual fee | ||
R073 | Re-establishment requested | ||
R073 | Re-establishment requested | ||
R409 | Internal rectification of the legal status completed |