DE102008016553A1 - A method for generating a 3D image of a scene from a 2D image of the scene - Google Patents

A method for generating a 3D image of a scene from a 2D image of the scene Download PDF

Info

Publication number
DE102008016553A1
DE102008016553A1 DE102008016553A DE102008016553A DE102008016553A1 DE 102008016553 A1 DE102008016553 A1 DE 102008016553A1 DE 102008016553 A DE102008016553 A DE 102008016553A DE 102008016553 A DE102008016553 A DE 102008016553A DE 102008016553 A1 DE102008016553 A1 DE 102008016553A1
Authority
DE
Germany
Prior art keywords
scene
image
scenes
depth information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008016553A
Other languages
German (de)
Inventor
Markus Klippstein
Alexander Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D International Europe GmbH
Original Assignee
Visumotion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visumotion GmbH filed Critical Visumotion GmbH
Priority to DE102008016553A priority Critical patent/DE102008016553A1/en
Priority to PCT/EP2009/002156 priority patent/WO2009118156A2/en
Publication of DE102008016553A1 publication Critical patent/DE102008016553A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

Die Erfindung bezieht sich auf ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D derselben Szene S1, wobei die Szene S1 Gebilde in unterschiedlichen Abständen von der Aufnahmeposition enthält. Gebilde im Sinne der Erfindung sind Körper, Figuren, Zeichen, Gegenstände oder Dinge, die allgemein in Szenen vorkommen. Erfindungsgemäß sind folgende Verfahrensschritte vorgesehen: f) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), bei denen jedem Gebilde eine Tiefeninformation zugeordnet ist, g) Vergleichen der Abbildung A2D mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich von Gebilden mit gleichen oder ähnlichen Merkmalen, h) Auswahl von mindestens einer Szene Sk (2 2D haben, i) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit vergleichbaren Merkmalen in der Abbildung A2D, j) Generieren einer dreidimensionalen Abbildung A3D durch Verknüpfung der darin enthaltenen Gebilde mit den übertragenen Tiefeninformationen.The invention relates to a method for generating a three-dimensional image A3D of a scene S1 from a two-dimensional image A2D of the same scene S1, the scene S1 containing images at different distances from the recording position. For the purposes of the invention, structures are bodies, figures, signs, objects or things that generally occur in scenes. According to the invention, the following method steps are provided: f) creating or using a data set of images of scenes Si (i = 2... N) in which each entity is assigned depth information, g) comparing the image A2D with the images of the scenes Si (FIG. i = 2 ... n) with regard to structures having the same or similar features, h) selecting at least one scene Sk (2 2D, i) transferring the depth information from the respective structures contained in the scene Sk to the structures having comparable features in the figure A2D, j) generating a three-dimensional image A3D by linking the entities contained therein with the transmitted depth information.

Description

Die Erfindung bezieht sich auf ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung einer Szene aus einer zweidimensionalen Abbildung derselben Szene, wobei die Szene Gebilde in unterschiedlichen Abständen von der Position enthält, aus der die Abbildung der Szene aufgenommen worden ist. Unter Gebilden im Sinne der nachfolgend beschriebenen Erfindung sind Körper, Figuren, Zeichen, Gegenstände oder Dinge zu verstehen, die allgemein in Szenen vorkommen, und auch Einzelheiten, die daran ausgebildet sind.The The invention relates to a method for generating a three-dimensional Illustration of a scene from a two-dimensional image of the same Scene, where the scene entities at different intervals from the position that contains the picture of the scene has been recorded. Under structures in the sense of the following described body, figures, characters, To understand objects or things that are common in scenes and also details that have been developed.

Es ist bekannt, Bilder mit Hilfe von Computern zu erzeugen. So wird beispielsweise der Begriff 2D-Computergrafik im Zusammenhang mit der Erzeugung von Bildern verwendet, deren Inhalte sich in einer Ebene darstellen lassen.It It is known to generate images using computers. So will For example, the term 2D computer graphics related to the creation of images whose contents are in one Level.

In 3D-Computergrafiken dagegen werden die Bildinhalte dreidimensional aufbereitet. Die Gesamtheit der in einer 3D-Computergrafik darzustellenden Gebilde wird als Szene bezeichnet, und die Erzeugung eines Bildes oder Films auf der Grundlage solcher Szenen ist unter der Bezeichnung Rendern bekannt. 3D-Computergrafiken können als echte stereoskopische 3D-Bilder dargestellt werden. Es sind verschiedene Renderverfahren anwendbar, wie beispielsweise das Raytracing, ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung und damit zur Ermittlung der Sichtbarkeit von Objekten von einem bestimmten Punkt im Raum aus, und das Radiosity, ebenfalls ein Verfahren zur Berechnung der Lichtausbreitung innerhalb einer Szene.In 3D computer graphics, on the other hand, make the image content three-dimensional edited. The entirety of the images to be displayed in a 3D computer graphic Entity is referred to as a scene, and the creation of an image or film based on such scenes is under the name Rendering known. 3D computer graphics can be considered true stereoscopic 3D images are displayed. There are different rendering methods applicable, such as raytracing, on the broadcast ray based algorithm for occlusion calculation and thus determining the visibility of objects from a particular point in the room, and the radiosity, also a method of calculation the spread of light within a scene.

Zur Erzeugung von 3D-Computergrafiken dienen kommerzielle 3D-CAD-Anzeigeprogramme wie beispielsweise Pro/ENGINEER oder AutoVue. Insbesondere bei Letzterem erfolgt eine Renderung in mehreren 3D-Modi, um technische Gebilde wahlweise in Form eines schattierten Modells, einer Drahtdarstellung oder im Umriß mit versteckter Linienentfernung dreidimensional wahrnehmbar anzuzeigen.to Generation of 3D computer graphics serve commercial 3D CAD viewing programs such as for example, Pro / ENGINEER or AutoVue. Especially with the latter Rendering is done in several 3D modes to technical entities optionally in the form of a shaded model, a wire representation or in outline with hidden line removal three-dimensional perceptible.

Mit der zunehmend verfügbaren Speicherkapazität im Zusammenhang mit der Fortentwicklung der Computertechnik wird in jüngerer Zeit angestrebt, dreidimensionale Abbildungen von Szenen aus zweidimensionalen Abbildungen zu erzeugen. So ist beispielsweise in WO 98/10584 A2 ein „Displaysystem” zur Hinter einanderdarstellung von zwei Bildebenen beschrieben, bei dem eine erste Bildquelle, die den Vordergrund liefert, und eine zweite Bildquelle, die den Hintergrund wiedergibt, mit Hilfe eines optischen Strahlenteilers zu einer Gesamtszene so überlagert werden, daß der Betrachter den Hintergrund in größerer Entfernung wahrnimmt als den Vordergrund und auf diese Weise bedingt einen räumlichen Eindruck erhält. Zur optischen Anpassung des Aspektverhältnisses zwischen Vordergrundbild und Hintergrundbild werden hierbei monofokale Fresnelzylinderlinsen oder Zylinderspiegel verwendet.With the increasingly available storage capacity associated with the advancement of computer technology, it is more recently sought to produce three-dimensional mappings of scenes from two-dimensional mappings. For example, in WO 98/10584 A2 describe a "display system" for the rearrangement of two image planes in which a first image source, which provides the foreground, and a second image source, which represents the background, are superimposed by means of an optical beam splitter into an overall scene so that the viewer can see the background perceives at a greater distance than the foreground and in this way conditionally receives a spatial impression. For optical adaptation of the aspect ratio between the foreground image and the background image, monofocal Fresnel cylinder lenses or cylindrical mirrors are used.

Unter der Bezeichnung ”Automatic Photo Pop Up” ist auf der Siggraph 2005, einer jährlich stattfindenden Messe für Spezialisten der 2D- und 3D-Grafiken, ein Verfahren vorgestellt worden, bei dem aus einer einzigen Photographie eine 3D-Ansicht der abgebildeten Objekte im Raum rekonstruiert wird. Dabei wird geschätzt, wo in dieser Photographie vertikal ausgerichtete Objekte sind und welche Bildteile zur Bodenfläche oder zum Himmel gehören, um aus dieser Erkenntnis die Lage des Horizontes zu bestimmen.Under the term "Automatic Photo Pop Up" is on the Siggraph 2005, an annual fair for specialists of 2D and 3D graphics, a procedure been presented in which a single photograph of a 3D view of the imaged objects in the room is reconstructed. It is estimated where in this photograph vertically aligned objects are and which image parts to the bottom surface or belonging to heaven, out of this realization the situation of the horizon.

Diesem sowie dem vorher erwähnten Verfahren haftet der Nachteil an, daß die Qualität der damit erzielbaren dreidimensionalen Darstellungen keinen höheren Anforderungen genügt und zudem der manuelle Anteil an dem Zeitaufwand, der für die Herstellung der dreidimensionalen Darstellungen erforderlich ist, verhältnismäßig hoch ist.this as well as the aforementioned method has the disadvantage that the quality of the achievable three-dimensional Representations does not meet higher requirements and also the manual share of the time required for the preparation of the three-dimensional representations required is relatively high.

Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung einer Szene aus einer zweidimensionalen Abbildung derselben Szene zu entwickeln, bei dem mit einem höheren Anteil an automatisierbaren Verfahrensschritten eine bessere Bildqualität erzielt wird.From that The invention is based on the object, a method for generating a three-dimensional image of a scene from a develop two-dimensional image of the same scene, in which with a higher proportion of automatable process steps a better picture quality is achieved.

Erfindungsgemäß sind bei einem Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D der Szene S1 folgende Verfahrensschritte vorgesehen:

  • a) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), die Gebilde mit unterschiedlichen Abständen von der Aufnahmeposition enthalten und bei denen jedem Gebilde eine Tiefeninformation als Maß für dessen Abstand von der Aufnahmeposition zugeordnet ist,
  • b) Vergleichen der Abbildung A2D der Szene S1 mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich des Vorhandenseins von Gebilden mit gleichen oder ähnlichen Merkmalen,
  • c) Auswahl von mindestens einer Szene Sk (2 ≤ k ≤ n), in der Gebilde vorkommen, welche die gleichen oder ähnliche Merkmale der Gebilde haben, die auch in der Abbildung A2D der Szene S1 enthalten sind,
  • d) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit gleichen oder ähnlichen Merkmalen in der Abbildung A2D der Szene S1,
  • e) Generieren einer dreidimensionalen Abbildung A3D der Szene S1 durch Verknüpfung der darin enthaltenen Gebilde mit den übertragenen Tiefeninformationen in Form eines Datensatzes.
According to the invention, in a method for generating a three-dimensional image A 3D of a scene S1 from a two-dimensional image A 2D of the scene S1, the following method steps are provided:
  • a) applying or using a set of images of scenes Si (i = 2 ... n) containing entities at different distances from the capture position and where each entity is assigned depth information as a measure of its distance from the capture position;
  • b) comparing the image A 2D of the scene S1 with the images of the scenes Si (i = 2... n) with regard to the presence of entities having the same or similar features,
  • c) selecting at least one scene Sk (2 ≤ k ≤ n) in which entities occur that have the same or similar features of the entities that are also included in the image A 2D of the scene S1,
  • d) transferring the depth information from the respective structures contained in the scene Sk to the structures having the same or similar features in the image A 2D of the scene S1,
  • e) Generate a three-dimensional image A 3D of the scene S1 by linking the entities contained therein with the transmitted depth information in the form of a data set.

Damit liegt die dreidimensionale Abbildung A3D zunächst in einem Datensatz gespeichert vor und kann nun mit üblichen Anzeigeverfahren für einen oder mehrere Betrachter sichtbar dargestellt werden. So kann die Darstellung beispielsweise auf einem elektronisch ansteuerbaren, für 3D-Anzeigen geeigneten LC-Display, mittels eines Projektors auf einer reflektierenden Bildwand (unter Zuhilfenahme von 3D-Brillen für den Betrachter) oder auf einem holographischen Bildschirm erfolgen. Das LC-Display ist zum Beispiel dann für 3D-Anzeigen geeignet, wenn es mit einem Parallaxen-Barriere-Schirm oder einem Lentikularschirm ausgestattet ist, so daß das vom Display ausgehende Licht getrennt zu beiden Augen eines Betrachters gelangt.Thus, the three-dimensional image A 3D is initially stored in a data record and can now be displayed visually with conventional display methods for one or more observers. For example, the display can be made on an electronically controllable LC display suitable for 3D displays, by means of a projector on a reflective screen (with the aid of 3D glasses for the viewer) or on a holographic screen. The LC display is suitable for 3D displays, for example, when it is equipped with a parallax barrier screen or a lenticular screen, so that the light emitted from the display comes separately to both eyes of an observer.

Die Tiefeninformationen im Sinne der vorliegenden Erfindung entsprechen im übertragenen Sinne der Seh-Erfahrung des Menschen; das erfindungemäße Verfahren nutzt diese Seh-Erfahrung des Menschen. Insofern besteht ein weiterer Schritt des erfindungsgemäßen Verfahrens darin, den Datensatz von Abbildungen von Szenen Si (i = 2...n) einschließlich der Tiefeninformationen aus einer Vielzahl von dreidimensionalen oder quasi-dreidimensionalen Abbildungen zu gewinnen, die in herkömmlicher Weise erzeugt worden sind, wie etwa mit 3D-Kameras aufgenommene Bilder oder durch Rendern erzeugte 3D-Bilder.The Depth information according to the present invention correspond in the figurative sense of the visual experience of man; the inventive method uses this visual experience of the human. In this respect, there is a further step of the invention Method is to use the record of images of scenes Si (i = 2 ... n) including the depth information from one Variety of three-dimensional or quasi-three-dimensional pictures to win, which has been produced in a conventional manner such as images taken with 3D cameras or rendering generated 3D images.

Zum Messen von Größen und Entfernungen in Bildern und damit zur Gewinnung der Tiefeninformationen kann beispielsweise eine unter der Bezeichnung ”VisualSize” bekannte Software genutzt werden, die dazu lediglich zwei verschiedene Bilder ein und derselben Szene benötigt, die aus voneinander abweichenden Blickwinkeln aufgenommen worden sind. Die beiden Bilder werden anhand identischer Bildinhalte rechnerisch miteinander verglichen, und aus dem Ergebnis dieses Vergleichs wird ein virtueller Maßstab erstellt, mit dem auf Größen und Entfernungen bzw. auf die Tiefeninformationen geschlossen wird.To the Measuring sizes and distances in pictures and thus for obtaining the depth information can, for example one known as VisualSize Software that uses only two different images and the same scene needed, which differ from each other Viewing angles have been recorded. The two pictures are based identical image content computationally compared, and The result of this comparison becomes a virtual scale created with the on sizes and distances or on the depth information is closed.

Die Tiefeninformationen werden als Codierungen, bevorzugt in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen, in den Datensätzen des Abbildungsvorrates von Szenen Si (i = 2...n) gespeichert. Sie können beispielsweise in Form einer Vektorgrafik der betreffenden Abbildung zugeordnet werden.The Depth information is called codings, preferably in the form of Shades of gray, brightness or color values, patterns, hatchings or similar characterizations, in the datasets of the Image stock of scenes Si (i = 2 ... n) stored. You can for example in the form of a vector graphic of the relevant image be assigned.

Die Speicherung des Datensatzes der Abbildungen, sowohl des Vorrates an Abbildungen von Szenen Si (i = 2...n) als auch der Abbildung A2D, die in eine 3D-Darstellung konvertiert werden soll, erfolgt bevorzugt in elektronischer Form, wodurch der Vergleich der Abbildung A2D mit den einzelnen Abbildungen des Vorrates automatisch anhand der elektronischen Bilddaten vorgenommen werden kann.The storage of the data set of the images, both of the stock of images of scenes Si (i = 2... N) and of the image A 2D , which is to be converted into a 3D representation, preferably takes place in electronic form, as a result of which the comparison Figure A 2D with the individual illustrations of the stock can be made automatically using the electronic image data.

Im Rahmen der Erfindung liegt sowohl auch die komprimierte Speicherung der Bilddaten in elektronischer Form als auch die Speicherung in jeglicher anderen Form, die eine Automatisierung des erfindungsgemäßen Verfahrens zuläßt, wie beispielsweise eine Speicherung auf Basis optischer Daten.in the The scope of the invention is also the compressed storage the image data in electronic form as well as the storage in any other form that automates the invention Allow process, such as storage based on optical data.

Bei dem Vergleich wird die Ähnlichkeit der Merkmale von Gebilden, die in der Abbildung A2D enthalten sind, mit der Ähnlichkeit der Merkmale von Gebilden bewertet, die in den bevorrateten Abbildungen enthalten sind, wobei die Ähnlichkeit der Umrisse, der Größe, der Farbe bzw. Graustufen und/oder der Strukturen verglichen wird. Auch können dem Vergleich jeweils nur Bildausschnitte zugrunde gelegt werden.In the comparison, the similarity of the features of entities included in the map A 2D is evaluated with the similarity of the features of entities contained in the stored images, the similarity of the outlines, the size, the color or Grayscale and / or structures is compared. Also, the comparison can only be based on image sections.

Zu diesem Vergleich kann z. B. ein als „Scene Completion” bekanntes Verfahren genutzt werden, das ursprünglich dazu entwickelt wurde, ein in einer aufgenommenen Szene verdecktes und dadurch nicht sichtbares Gebilde zu ergänzen, indem in einer Vielzahl von verschiedenen Bildern nach Szenen mit ähnlichen Bildinhalten gesucht, das fehlende Gebilde als Bildausschnitt aus einer vergleichbaren Darstellung entnommen und in das zu ergänzende Bild eingesetzt wird.To this comparison can z. B. one known as "Scene Completion" Procedures are used, originally developed became one hidden in a recorded scene and therefore not to complement visible structure by adding in a variety from different pictures to scenes with similar picture content searched, the missing structure as image section from a comparable representation and inserted into the picture to be supplemented.

Die Übereinstimmung einer in dem Abbildungsvorrat gefundenen Abbildung einer Szene Sk mit der in der Abbildung A2D dargestellten Szene S1 wird dabei anhand vergleichbarer Umrisse, Farben bzw. Graustufen und/oder Strukturen der erkannten Gebilde ermittelt. Bei einer gefundenen maximalen Übereinstimmung werden die Tiefeninformationen von den Gebilden, die in der betreffenden Abbildung aus dem Datenvorrat enthalten sind, auf die in der Abbildung A2D enthaltenen Gebilde übertragen, indem beispielsweise der Abbildung A2D eine sogenannte Tiefenkarte, zum Beispiel in Form einer Vektorgrafik oder eines Grauwertbildes, zugeordnet wird.The match of an image of a scene Sk found in the image stock with the scene S1 shown in FIG. 2D is thereby determined on the basis of comparable outlines, colors or gray levels and / or structures of the recognized entities. With a maximum match found, the depth information from the entities contained in the relevant map from the data set is transferred to the entities contained in the map A 2D by, for example, mapping A 2D a so-called depth map, for example in the form of a vector graphic or a gray value image.

Damit werden einem in der Szene S1 enthaltenen Gebilde die Tiefeninformationen zugeordnet, die einem vergleichbaren Gebilde aus den Abbildungen von Szenen Si (i = 2...n) zugeordnet sind.In order to For example, the depth information is given to a structure contained in the scene S1 assigned to a comparable entity from the illustrations of scenes Si (i = 2 ... n) are assigned.

Hat z. B. ein Datensatz aus einer Abbildung und einer zugeordneten Tiefenkarte in Form einer Vektorgrafik 2 MB Speicherbedarf, so würde für die Speicherung eines Datenvorrates von 10.000 Abbildungen einschließlich der jeweils zugeordneten Tiefenkarte eine Speicherkapazität von 20 GB ausreichen.Has z. B. a record from a map and an associated depth map in the form of a vector graphic 2 MB of memory space, so would for storing a data stock of 10,000 pictures including the respectively associated depth map one Storage capacity of 20 GB is sufficient.

Aus dem Datensatz der dreidimensionalen Abbildung A3D der Szene S1, der im Wesentlichen aus dem Datensatz aus der Abbildung A2D und einer dieser Abbildung zugeordneten Tiefenkarte besteht, werden nun mittels bekannter Verfahren mehrere Perspektivansichten generiert. Hierzu wird beispielsweise die Lehre der WO 97/23097 ”PARALLACTIC DEPHT-DEPENDENT PIXEL SHIFTS” angewendet, bei welcher Pixeltiefen in Pixelverschiebungen gewandelt und aus diesen Verschiebungen Perspektivansichten generiert werden, die beispielsweise Objekte in Bildebenen verschiedener Tiefen beinhalten. Die Anwendung anderer einschlägiger Verfahren ist selbstverständlich möglich und liegt im Rahmen der hier vorliegenden Erfindung.From the data set of the three-dimensional image A 3D of the scene S1, which consists essentially of the data set from the image A 2D and a depth map assigned to this image, several perspective views are now generated by means of known methods. For this example, the doctrine of WO 97/23097 "PARALLACTIC DEPHT-DEPENDENT PIXEL SHIFTS", where pixel depths are converted into pixel shifts and perspective shifts are generated from these shifts, including, for example, objects in image planes of different depths. The use of other relevant methods is of course possible and is within the scope of the present invention.

Es liegt im Rahmen der Erfindung, wenn in den Datensätzen der dreidimensionalen Abbildung A3D der Szene S1 beziehungsweise der Szenen Si zusätzlich auch Hinterschneidungsinformationen, Transparenzinformationen oder sonstige zusätzliche Bild- oder Szeneninformationen ein-, zwei- oder dreidimensionaler Natur gespeichert werden, die für eine weitere Bearbeitung der dreidimensionalen Abbildung A3D von Vorteil sein können.It is within the scope of the invention if in the data sets of the three-dimensional image A 3D of the scene S1 or scenes Si also undercutting information, transparency information or other additional image or scene information one-, two- or three-dimensional nature are stored, for another Processing the three-dimensional image A 3D can be beneficial.

Der Datensatz der dreidimensionalen Abbildung A3D der Szene S1 beziehungsweise der Szenen Si können anhand von herkömmlichen Tiefen-Schätzungsverfahren im Sinne einer Präzisierung der Tiefeninformationen noch verfeinert werden. Zur Anwendung kommen hierzu beispielsweise die Auswertung von Schattenwurf, Perspektive, Verdeckung, shape from motion oder auch shape from shadow.The data set of the three-dimensional image A 3D of the scene S1 or of the scenes Si can be further refined by means of conventional depth estimation methods in the sense of a specification of the depth information. For example, the evaluation of shadows, perspective, occlusion, shape from motion or shape from shadow are used.

Das erfindungsgemäße Verfahren ist vorteilhaft zur räumlich wahrnehmbaren Darstellung bewegter oder unbewegter Gebilde innerhalb einer Szene anwendbar. Auch die Anwendung zur räumlich wahrnehmbaren Darstellung von Geländeabschnitten, die sich relativ zu einem Betrachter verändern und die eines oder mehrere Gebilde in unterschiedlichen Abständen vom Betrachter enthalten, liegt im Rahmen der Erfindung.The inventive method is advantageous to spatially perceivable representation moving or stationary Forms within a scene applicable. Also the application to spatially perceivable representation of terrain sections, that change relative to a viewer and the one or more structures at different distances Included by the viewer is within the scope of the invention.

Die Erfindung soll nachfolgend anhand eines Ausführungsbeispieles näher erläutert werden.The Invention will be described below with reference to an embodiment be explained in more detail.

Erfindungsgemäß wird in einem ersten Verfahrensschritt, der in mehreren Teilschritten ablaufen kann, eine Vielzahl von Abbildungen von Szenen Si (i = 2...n) in einem bevorzugt elektronischen Speicher abgelegt. Gespeichert werden Abbildungen von Szenen Si jeglicher Art, die Gebilde, wie Körper, Figuren, Zeichen, Gegenstände oder Dinge darstellen, die naturgemäß vorkommen oder künstlich geschaffen sind. Da die Zahl naturgemäß vorkommender oder künstlich geschaffener Gebilde prinzipiell endlich ist, kommen sie in der Vielzahl von gespeicherten Abbildungen mit hoher Wahrscheinlichkeit auch wiederholt vor.According to the invention in a first process step, in several substeps can run a variety of pictures of scenes Si (i = 2 ... n) stored in a preferred electronic memory. saved become images of scenes Si of any kind, the entities, such as Body, figures, characters, objects or things represent that occur naturally or artificially are created. Since the number naturally occurring or artificially created structures in principle finally They are in the variety of stored pictures high probability also repeatedly.

In der Regel enthält eine Abbildung einer Szene Si Gebilde unterschiedlicher Art, die innerhalb der Szene Si auch unterschiedliche Abstände von der Position im Raum haben, aus welcher die Szene Si aufgenommen oder – im Falle von 3D-Computergrafiken – scheinbar (virtuell) aufgenommen worden ist.In The rule contains an image of a scene Si entities different kind, the scene within the Si also different Have distances from the position in the room from which the Scene Si recorded or - in the case of 3D computer graphics - seemingly (virtual) has been recorded.

Die zu speichernden Szenen Si werden beispielsweise mit einer Kamera oder mehreren Kameras aus mindestens zwei Blickwinkeln aufgenommen, oder sie werden als 3D-Computergraphiken mit einem kommerziell erhältlichen Softwareprogramm zur Erzeugung von dreidimensionalen Ansichten generiert, wobei sich eine scheinbare (virtuelle) Aufnahmeposition im Raum ergibt.The For example, scenes Si to be stored are with a camera or multiple cameras from at least two angles, or they are called 3D computer graphics with a commercially available Software program generates three-dimensional views, where there is an apparent (virtual) recording position in space results.

In jeder dieser Abbildungen lassen sich – bezogen auf die dargestellten Gebilde – Tiefeninformationen bestimmen. Eine Tiefeninformation im Sinne der vorliegenden Erfindung ist bevorzugt ein Äquivalent für eine Entfernungsangabe zwischen der Aufnahmeposition und dem betreffenden Gebilde. Daneben kommen jedoch auch Tiefeninformationen in Betracht, die einer Entfernungsangabe zwischen einem wählbaren Fixpunkt und dem betreffenden Gebilde entsprechen. Unter Gebilde im Sinne dieser Erfindung sind auch Ausbildungen zu verstehen, die Bestandteile von Körpern, Figuren, Zeichen, Gegenständen oder Dingen sind, wie beispielsweise ein Vordach an einem Gebäude, ein Ast an einem Baum, ein Griff an einer Tür, und die als Einzelheiten von Gebilden zur Szene gehören.In each of these illustrations can be based on the Represented entities - determine depth information. Depth information in the sense of the present invention is preferred an equivalent for a distance indication between the shooting position and the structure concerned. Come next but also depth information into consideration, that of a distance indication between a selectable fixed point and the relevant one Correspond to entities. Under structures in the sense of this invention are to understand also training, the components of bodies, Figures, characters, objects or things are, such as a canopy on a building, a branch on a tree, a Handle on a door, and as details of formations belong to the scene.

Die Bestimmung der Tiefeninformationen aus den aus mehreren Blickwinkeln aufgenommenen Abbildungen oder den 3D-Computergrafiken erfolgt mit aus dem Stand der Technik bekannten Mitteln zur Bildauswertung, z. B. der Photogrammetrie oder unter Anwendung von üblichen Stereo-Matching-Algorithmen oder Tiefenerkennungsverfahren. Die so gewonnenen Tiefeninformationen werden als Codierung den entsprechenden, in der Abbildung der betreffenden Szene Si dargestellten Gebilden bzw. Bestandteilen von Gebilden zugeordnet gespeichert. Die Co dierung kann beispielsweise in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen vorgenommen werden. Die Gesamtheit der Tiefeninformationen, die den in einer Abbildung dargestellten Gebilden zugeordnet sind, wird beispielsweise als Tiefenkarte in Form einer Vektorgraphik dieser Abbildung zugeordnet.The Determination of depth information from several angles taken pictures or 3D computer graphics with known from the prior art means for image analysis, z. As the photogrammetry or using conventional Stereo matching algorithms or depth detection methods. The thus obtained depth information is encoded as the corresponding, in the image of the scene Si in question or components of structures assigned stored. The coding can be used, for example, in the form of shades of gray, brightness or color values, patterns, hatchings or similar characterizations be made. The set of depth information that are assigned to the structures shown in a figure, is for example as a depth map in the form of a vector graphic of this Map assigned.

Sobald ein solcher nach dem ersten Verfahrensschritt angelegter Vorrat von gespeicherten Abbildungen vorhanden ist, können die nächsten Verfahrensschritte ausgeführt werden. Dabei gehört es zum Erfindungsgedanken, daß dieser Vorrat an gespeicherten Abbildungen stets erweitert bzw. ergänzt wird, was vorteilhaft zur Folge hat, daß die nachfolgenden Verfahrensschritte mit fortschreitender Ergänzung des Vorrates immer präziser ausgeführt werden können.As soon as such a supply of stored images, which has been applied after the first method step, is present, the next method steps can be carried out. It belongs to the idea of the invention that this supply of stored images is always extended or supplemented, which has the advantageous consequence that the subsequent process steps with progressive supplementation of the stock can be performed more and more precise.

Im nächsten Verfahrensschritt wird die zweidimensionale Abbildung A2D einer Szene S1, die ebenfalls elektronisch gespeichert vorliegt, mit jeder einzelnen der gespeicherten Abbildungen von Szenen Si verglichen, und zwar im Hinblick auf das Vorhandensein von Gebilden mit gleichen oder ähnlichen Merkmalen. Beispielsweise sind die Merkmale der Gebilde sowohl bei den gespeicherten Abbildungen als auch bei der zweidimensionalen Abbildung A2D durch deren Umrisse, Größe, Farbe bzw. Grauwerte und/oder Strukturen charakterisiert. Zur Ausführung des Vergleichs kann beispielhaft das bereits erwähnte „Scene Completion”-Verfahren genutzt werden. Enthält die zweidimensionale Abbildung A2D beispielsweise die Darstellung eines oder mehrerer Gebäude und einer oder mehrerer Personen, so werden mit Hilfe dieses Verfahrens die elektronisch gespeicherten Bildinhalte miteinander verglichen und in dem als Vorrat gespeicherten Abbildungen nach gleichen oder ähnlichen Darstellungen gesucht. Auch können dem Vergleich jeweils nur Bildausschnitte zugrunde gelegt werden. Der Vergleich läuft automatisch unter Nutzung einer entsprechenden Software und/oder Hardware ab.In the next method step, the two-dimensional image A 2D of a scene S1, which is also electronically stored, is compared with each one of the stored images of scenes Si, in view of the presence of entities having the same or similar features. For example, the features of the structures both in the stored images and in the two-dimensional image A 2D are characterized by their outlines, size, color or gray values and / or structures. To execute the comparison, the aforementioned "scene completion" method can be used by way of example. If the two-dimensional image A 2D contains, for example, the representation of one or more buildings and one or more persons, the electronically stored image contents are compared with one another using this method and the same or similar representations are searched for in the image stored as a reserve. Also, the comparison can only be based on image sections. The comparison runs automatically using appropriate software and / or hardware.

Im Ergebnis des Vergleichs werden im Idealfall Übereinstimmungen hinsichtlich der Umrisse, der Größe, der Farbe bzw. Grauwerte und/oder der Struktur der in der zweidimensionalen Abbildung A2D dargestellten Gebilde mit Gebilden in einer oder auch in mehreren der Abbildungen von Szenen Si innerhalb des Speichervorrates gefunden. Dann werden in der Folge die Tiefeninformationen aus dem Speichervorrat entnommen und den Gebilden in der zweidimensionalen Abbildung A2D zugeordnet. Lassen sich übereinstimmende Merkmale für alle in der zweidimensionalen Abbildung A2D dargestellten Gebilde mit Gebilden innerhalb einer einzigen der gespeicherten Abbildungen finden, so entspricht dies wiederum einem – durchaus möglichen – Idealfall.As a result of the comparison, in the ideal case, matches in terms of the contours, the size, the color or gray values and / or the structure of the structures shown in the two-dimensional image A 2D with structures in one or more of the images of scenes Si within the memory found. Then, the depth information is taken from the storage and subsequently assigned to the formations in the two-dimensional image A 2D . If matching features can be found for all structures shown in the two-dimensional image A 2D with structures within a single one of the stored images, this in turn corresponds to a - perfectly possible - ideal case.

In der Regel jedoch, und insbesondere dann, wenn vorerst eine verhältnismäßig geringe Anzahl von Abbildungen innerhalb des Speichervorrates vorhanden ist, werden sich Gebilde mit lediglich ähnlichen Merkmalen und nur in mehreren verschiedenen der gespeicherten Abbildungen finden lassen. In diesen Fällen werden aus dem Speichervorraten die Tiefeninformationen entnommen und auf die Gebilde in der zweidimensionalen Abbildung A2D übertragen, die den dort dargestellten Gebilden hinsichtlich der Umrisse, der Größe, der Farbe bzw. Graustufen und/oder der Struktur am ähnlichsten sind.In general, however, and in particular when there is a relatively small number of images within the memory for the time being, entities with only similar features and only in several different ones of the stored images will be found. In these cases, the depth information is taken from the storage space and transferred to the structures in the two-dimensional image A 2D , which are the most similar to the structures shown there in terms of outlines, size, color or gray scale and / or structure.

Die Gesamtheit der auf die Gebilde innerhalb der zweidimensionalen Abbildung A2D übertragenen Tiefeninformationen wird beispielsweise wiederum in Form einer Vektorgraphik dieser Abbildung zugeordnet. Dabei werden, soweit erforderlich, Anpassungen der Tiefeninformationen an die Größe der jeweiligen Gebilde vorgenommen.The totality of the depth information transmitted to the structures within the two-dimensional image A 2D is, for example, again assigned in the form of a vector graphic to this image. As necessary, adjustments of the depth information are made to the size of the respective structure.

In einem nächsten Verfahrensschritt wird aus der Verknüpfung der Bildinhalte innerhalb der zweidimensionalen Abbildung A2D mit den zugeordneten Tiefeninformationen nach herkömmlichen Verfahren der Datensatz einer dreidimensionalen Abbildung A3D der Szene S1 generiert. Dieser Datensatz liegt nun ebenfalls in elektronisch gespeicherter Form vor und kann über drahtgebundene oder drahtlose Datennetze an Einrichtungen übermittelt werden, mit denen eine für einen Betrachter dreidimensionale wahrnehmbare Darstellung der Szene S1 angezeigt werden kann.In a next method step, the data set of a three-dimensional image A 3D of the scene S1 is generated from the combination of the image contents within the two-dimensional image A 2D with the associated depth information according to conventional methods. This data set is now also stored in electronically stored form and can be transmitted via wired or wireless data networks to facilities with which a three-dimensional perceptible representation of the scene S1 for a viewer can be displayed.

Der Datensatz einer dreidimensionalen Abbildung A3D der Szene S1 kann zwecks der für einen Betrachter dreidimensional wahrnehmbaren Darstellung beispielsweise nach dem bereits genannten Verfahren nach WO 97/23097 in mehrere Ansichten umgewandelt werden.The record of a three-dimensional image A 3D of the scene S1 can, for example, according to the three-dimensional perceptible representation for a viewer, for example, according to the aforementioned method according to WO 97/23097 be converted into multiple views.

Bestandteil einer für die Darstellung geeigneten Anzeigeeinrichtung kann beispielsweise ein LC-Display sein, das mit einem Parallaxen-Barriere-Schirm oder einem Lentikularschirm ausgestattet ist, so daß das von dem LC-Display ausgehende Licht gesondert teilweise zu dem einen und dem anderen Auge des Betrachters gerichtet wird, wodurch wiederum jedes Betrachterauge unterschiedliche Ansichten wahrnimmt.component a display device suitable for the display For example, it can be an LC display with a parallax barrier screen or a lenticular screen, so that the separately from the LC display light partially to the one and the other eye of the observer is directed, which in turn every viewer's eye perceives different views.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - WO 98/10584 A2 [0005] WO 98/10584 A2 [0005]
  • - WO 97/23097 [0021, 0037] WO 97/23097 [0021, 0037]

Claims (10)

Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D der Szene S1, wobei die Szene S1 Gebilde in unterschiedlichen Abständen von der Position enthält, aus der die Abbildung A2D aufgenommen worden ist, gekennzeichnet durch folgende Verfahrensschritte: a) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), die Gebilde mit unterschiedlichen Abständen von der Aufnahmeposition enthalten und bei denen jedem Gebilde eine Tiefeninformation als Maß für dessen Abstand von der Aufnahmeposition zugeordnet ist, b) Vergleichen der Abbildung A2D der Szene S1 mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich des Vorhandenseins von Gebilden mit gleichen oder ähnlichen Merkmalen, c) Auswahl von mindestens einer Szene Sk (2 ≤ k ≤ n), in der Gebilde vorkommen, welche die gleichen oder ähnliche Merkmale der Gebilde haben, die auch in der Abbildung A2D der Szene S1 enthalten sind, d) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit gleichen oder ähnlichen Merkmalen in der Abbildung A2D der Szene S1, e) Generieren einer dreidimensionalen Abbildung A3D der Szene S1 durch Verknüpfung der darin enthaltenen Bildinhalte mit den übertragenen Tiefeninformationen, bevorzugt in Form eines Datensatzes.Method for generating a three-dimensional image A 3D of a scene S1 from a two-dimensional image A 2D of the scene S1, wherein the scene S1 contains entities at different distances from the position from which the image A 2D was taken, characterized by the following method steps: a ) Creating or using a set of images of scenes Si (i = 2 ... n) containing entities at different distances from the capture position and where each entity is assigned depth information as a measure of its distance from the capture position; b) Comparing the image A 2D of the scene S1 with the images of the scenes Si (i = 2... N) with regard to the presence of entities having the same or similar features, c) selecting at least one scene Sk (2≤k≤n), occur in the formations which have the same or similar features of the formations which are also contained in the Figure A 2D of the scene S1, d) Ov the depth information of the respective structures contained in the scene Sk on the structures with the same or similar features in the Figure A 2D scene S1, e) generating a three-dimensional image A 3D of the scene S1 by linking the image contents contained therein with the transmitted depth information , preferably in the form of a data record. Verfahren nach Anspruch 1, bei dem der Vorrat an Abbildungen von Szenen Si (i = 2...n) einschließlich der Tiefeninformationen aus dreidimensionalen Abbildungen dieser Szenen gewonnen wird.The method of claim 1, wherein the supply of Pictures of scenes Si (i = 2 ... n) including the Depth information from three-dimensional images of these scenes is won. Verfahren nach Anspruch 1 oder 2, bei dem – der Vorrat an Abbildungen und die Abbildung A2D in Form von elektronischen Bilddaten gespeichert werden, und – der Vergleich der Abbildung A2D mit den einzelnen Abbildungen des Vorrates automatisch anhand der elektronischen Bilddaten vorgenommen wird.Method according to claim 1 or 2, in which - the stock of images and the image A 2D are stored in the form of electronic image data, and - the comparison of the image A 2D with the individual images of the stock is made automatically on the basis of the electronic image data. Verfahren nach einem der vorgenannten Ansprüche, bei dem die Gleichheit oder Ähnlichkeit der Merkmale von Gebilden durch Vergleich ihrer Umrisse, Größe, Farbe bzw. Grauwerten und/oder Struktur ermittelt wird.Method according to one of the preceding claims, in which the equality or similarity of the characteristics of Forms by comparing their outlines, size, Color or gray scale and / or structure is determined. Verfahren nach Anspruch 1 oder 2, bei dem die Tiefeninformation innerhalb des Vorrates von Abbildungen von Szenen Si (i = 2...n) als Codierungen, bevorzugt in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen, in den Datensätzen gespeichert sind.Method according to Claim 1 or 2, in which the depth information within the stock of pictures of scenes Si (i = 2 ... n) as codings, preferably in the form of shades of gray, brightness or color values, patterns, hatchings or similar characterizations, stored in the records. Verfahren nach Anspruch 5, bei dem den in der Szene S1 enthaltenen Gebilden die Tiefeninformation zugeordnet werden, indem die Codierung, die einem Gebilde aus den Abbildungen von Szenen Si (i = 2...n) zugeordnet ist, einem Gebilde mit gleichen oder ähnlichen Merkmalen in der Szene S1 zugeordnet wird.The method of claim 5, wherein the in the scene S1 containing entities are assigned the depth information, by coding a picture from the pictures of scenes Si (i = 2 ... n), a structure with the same or similar Characteristics in the scene S1 is assigned. Verfahren nach einem der vorgenannten Ansprüche, bei dem die Szene S1 – auf einem elektronisch ansteuerbaren Flach-Display, – mittels eines Projektors auf einem als reflektierende Bildwand unter Zuhilfenahme von 3D-Brillen für den Betrachter, oder – auf einem holographischen Bildschirm räumlich wahrnehmbar dargestellt wird.Method according to one of the preceding claims, where the scene S1 - on an electronically controllable Flat display, - by means of a projector on one as a reflective screen with the help of 3D glasses for the viewer, or - on a holographic screen is spatially perceptible. Verfahren nach Anspruch 7, bei dem das LC-Display mit einem Parallaxen-Barriere-Schirm ausgestattet ist, so daß das vom LC-Display ausgehende Licht getrennt zu den beiden Augen der Betrachter gerichtet wird.Method according to Claim 7, in which the LC display equipped with a parallax barrier screen, so that the from the LC display outgoing light separated to the two eyes of the Viewer is directed. Anwendung des Verfahrens nach den Ansprüchen 1 bis 8 zur räumlich wahrnehmbaren Darstellung bewegter oder unbewegter Gebilde innerhalb einer Szene.Application of the method according to the claims 1 to 8 for the spatially perceptible representation of moving or immobile objects within a scene. Anwendung des Verfahrens nach den Ansprüchen 1 bis 8 zur räumlich wahrnehmbaren Darstellung von Geländeabschnitten, die sich relativ zu einem Betrachter verändern und die ein oder mehrere Gebilde in unterschiedlichen Abständen vom Betrachter enthalten.Application of the method according to the claims 1 to 8 for spatially perceptible representation of terrain sections, that change relative to a viewer and the one or more structures at different distances included by the viewer.
DE102008016553A 2008-03-27 2008-03-27 A method for generating a 3D image of a scene from a 2D image of the scene Withdrawn DE102008016553A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008016553A DE102008016553A1 (en) 2008-03-27 2008-03-27 A method for generating a 3D image of a scene from a 2D image of the scene
PCT/EP2009/002156 WO2009118156A2 (en) 2008-03-27 2009-03-25 M,method for generating a 3d-image of a scene from a 2d-image of the scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008016553A DE102008016553A1 (en) 2008-03-27 2008-03-27 A method for generating a 3D image of a scene from a 2D image of the scene

Publications (1)

Publication Number Publication Date
DE102008016553A1 true DE102008016553A1 (en) 2009-11-12

Family

ID=41114372

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008016553A Withdrawn DE102008016553A1 (en) 2008-03-27 2008-03-27 A method for generating a 3D image of a scene from a 2D image of the scene

Country Status (2)

Country Link
DE (1) DE102008016553A1 (en)
WO (1) WO2009118156A2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067441A1 (en) 2011-11-02 2013-05-10 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9769460B1 (en) 2012-02-10 2017-09-19 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2969791B1 (en) 2010-12-23 2012-12-28 Thales Sa METHOD FOR CORRECTING HYPERSTEREOSCOPY AND ASSOCIATED HELMET VISUALIZATION SYSTEM
CN109584154A (en) * 2018-12-20 2019-04-05 广东精鹰传媒股份有限公司 A method of three-dimensional scenic is made using two-dimension picture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
WO1998010584A2 (en) 1996-08-16 1998-03-12 Tullo, Louis Display system
US20050129305A1 (en) * 1999-08-25 2005-06-16 Eastman Kodak Company Method for forming a depth image
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
WO1998010584A2 (en) 1996-08-16 1998-03-12 Tullo, Louis Display system
US20050129305A1 (en) * 1999-08-25 2005-06-16 Eastman Kodak Company Method for forming a depth image
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067441A1 (en) 2011-11-02 2013-05-10 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
EP2774124A1 (en) * 2011-11-02 2014-09-10 Google, Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
EP2774124A4 (en) * 2011-11-02 2015-10-21 Google Inc Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US10194137B1 (en) 2011-11-02 2019-01-29 Google Llc Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9769460B1 (en) 2012-02-10 2017-09-19 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D

Also Published As

Publication number Publication date
WO2009118156A2 (en) 2009-10-01
WO2009118156A3 (en) 2011-10-13

Similar Documents

Publication Publication Date Title
DE102015210453B3 (en) METHOD AND APPARATUS FOR GENERATING DATA FOR A TWO OR THREE-DIMENSIONAL PRESENTATION OF AT LEAST ONE PART OF AN OBJECT AND FOR PRODUCING THE TWO OR THREE-DIMENSIONAL PRESENTATION AT LEAST THE PART OF THE OBJECT
WO2005029871A2 (en) Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master
EP3539086A1 (en) Method and apparatus for superimposing virtual image and audio data on a portrayal of real scenery, and a mobile device
DE102016002398A1 (en) Optical 3D sensor for fast and dense shape detection
EP3347876B1 (en) Device and method for generating a model of an object using superimposed image data in a virtual environment
DE102015213832A1 (en) Method and device for generating an artificial image
EP2676449B1 (en) Method and device for stereo base extension of stereoscopic images and image sequences
DE602004012341T2 (en) Method and system for providing a volume rendering of a three-dimensional object
WO2018162509A2 (en) Device and method for the representation of a spatial image of an object in a virtual environment
DE102008016553A1 (en) A method for generating a 3D image of a scene from a 2D image of the scene
DE102007021518B4 (en) Method of processing a video data set
DE102007057208A1 (en) Method for displaying image objects in a virtual three-dimensional image space
DE112015004871T5 (en) Method for automated real-time conversion of 2D RGB images and video into stereoscopic red-cyan 3D anaglyphs
EP1628262A2 (en) Method and Apparatus for rendering a threedimensional topography
DE102009036029A1 (en) Presentation of complex and / or deformable objects as well as virtual fitting of attractable objects
DE10056978B4 (en) Method for generating a stereographic image
DE102014208048A1 (en) System and method for personalizing an exhibition space
EP2478705A1 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
DE102015112411A1 (en) System for the stereoscopic display of images of an endoscope
DE19853608C2 (en) Method for displaying an autostereoscopic image
WO2007085482A1 (en) Method for producing and displaying images which can be perceived in three dimensions
DE102015017128A1 (en) Method and device for generating data for a two- or three-dimensional representation of at least a part of an object and for generating the two- or three-dimensional representation of at least the part of the object
Kellnhofer et al. What makes 2D-to-3D stereo conversion perceptually plausible?
DE112008002083T5 (en) Method and software for image transformation
DE10246122B4 (en) Method and device for displaying a computer-modeled article

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), 07745 JENA, DE

R081 Change of applicant/patentee

Owner name: 3D INTERNATIONAL EUROPE GMBH, DE

Free format text: FORMER OWNER: VISUMOTION GMBH, 07745 JENA, DE

Effective date: 20120222

R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Effective date: 20120222

Representative=s name: PATENTANWAELTE GEYER, FEHNERS & PARTNER MBB, DE

Effective date: 20120222

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001