DE102004006246A1 - Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained - Google Patents

Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained Download PDF

Info

Publication number
DE102004006246A1
DE102004006246A1 DE102004006246A DE102004006246A DE102004006246A1 DE 102004006246 A1 DE102004006246 A1 DE 102004006246A1 DE 102004006246 A DE102004006246 A DE 102004006246A DE 102004006246 A DE102004006246 A DE 102004006246A DE 102004006246 A1 DE102004006246 A1 DE 102004006246A1
Authority
DE
Germany
Prior art keywords
images
image
tuple
recorded
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004006246A
Other languages
German (de)
Inventor
Markus Dipl.-Phys. Klippstein
Thomas Dipl.-Phys. Brüggert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Newsight 07745 Jena De GmbH
Original Assignee
X3D Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X3D Technologies GmbH filed Critical X3D Technologies GmbH
Priority to DE102004006246A priority Critical patent/DE102004006246A1/en
Publication of DE102004006246A1 publication Critical patent/DE102004006246A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

The method involves simultaneously recording a set of images and making sharpness analysis of images to find which areas of the images are recorded sharply or not. A deep edge is created by allotting the sharp areas on the image to corresponding depth levels of an object and/or a camera. A two-dimensional (2D) image is created from respective sharp image areas of observed n-sequence, by which the 2D image and a depth chart are obtained. An independent claim is also included for an arrangement for recording areal scenes and objects.

Description

Die Erfindung bezieht sich auf Verfahren und Anordnungen zur Aufnahme von räumlichen Szenen bzw. Gegenständen, speziell auf solche Verfahren und Anordnungen, die Informationen über das räumliche Aussehen liefern.The The invention relates to methods and arrangements for receiving of spatial Scenes or objects, specifically on such procedures and orders containing information about the spatial Deliver appearance.

Der Stand der Technik kennt diesbezüglich unter anderem Verfahren, bei denen eine einzige Kamera in dynamischer Weise auf verschiedene Tiefenebenen der aufzuzeichnenden Szenerie scharf stellt und entsprechend der jeweils scharf abgebildeten Objektanteile eine Tiefe zuordnet. Nachteilig ist hier, daß die Szenerie nur unbewegte Objekte enthalten darf, da sonst unverwertbare Tiefeninformationen geliefert werden.Of the The prior art knows in this regard Another method in which a single camera in dynamic Way to different depth levels of the scene to be recorded sharp and according to the respectively sharply imaged object portions assigns a depth. The disadvantage here is that the scenery only unmoved Objects may contain, as otherwise unreadable depth information delivered become.

Demgegenüber ist es Aufgabe der Erfindung ein Verfahren zu schaffen, mittels welchem räumliche Szenen und Gegenstände in räumlicher Weise aufgenommen werden können, wobei die Szenerie sich zeitlich verändern darf, ohne die Aufnahmeergebnisse wesentlich (negativ) zu beeinflussen. Es ist gleichfalls eine das Verfahren umsetzende Anordnung anzugeben.In contrast, is It is an object of the invention to provide a method by means of which spatial scenes and objects in spatial Can be recorded the scenery may change with time, without the recording results to influence significantly (negatively). It's also like that Specify method implementing arrangement.

Diese Aufgabe wird erfindungsgemäß gelöst von einem Verfahren zur Aufnahme von räumlichen Szenen bzw. Gegenständen, umfassend die folgenden Verfahrensschritte:

  • a) gleichzeitige Aufnahme einer Anzahl von n Bildern mit n≥2 Objektiven bzw. Kameras, wobei die n≥2 Objektive bzw. Kameras im wesentlichen aus der gleichen Position auf die Szene bzw. den Gegenstand gerichtet sind, jedoch auf paarweise unterschiedliche Tiefenebenen in der Szene bzw. innerhalb des Gegenstandes scharfgestellt sind, wodurch ein n-Tupel von Bildern aufgezeichnet wird,
  • b) gleichzeitig mit der Ausführung des Schrittes a) oder zeitlich nach der Ausführung des Schrittes a) folgende Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern zur Festlegung, welche Bildbereiche der einzelnen Bilder des betrachteten n-Tupels von Bildern scharf und welche unscharf aufgenommen wurden,
  • c) Erstellen einer Tiefenkarte zu dem betrachteten n-Tupel von Bildern durch Zuordnung der jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche zu der entsprechenden Tiefenebene desjenigen Objektives bzw. derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde,
  • d) Erstellen eines 2D-Bildes aus den jeweils scharf aufgenommenen Bildbereichen des betrachteten n-Tupels ODER gleichzeitig mit der Ausführung des Schrittes a) durchgeführte Aufnahme eines gewöhnlichen 2D-Bildes mit einem (n+1). Objektiv bzw. mit einer (n+1). Kamera mit möglichst großer Tiefenschärfe,
wodurch im Ergebnis ein 2D-Bild der aufgenommenen räumlichen Szene bzw. des aufgenommenen räumlichen Gegenstandes sowie eine zugehörige Tiefenkarte entsteht.This object is achieved according to the invention by a method for recording spatial scenes or objects, comprising the following method steps:
  • a) simultaneous recording of a number of n images with n≥2 lenses or cameras, wherein the n≥2 lenses or cameras are directed substantially from the same position on the scene or the object, but on pairs of different depths levels in the Are focused within the object, whereby an n-tuple of images is recorded,
  • b) simultaneously with the execution of step a) or temporally after the execution of step a) following sharpness analysis of the individual images of the recorded n-tuple of images to determine which image areas of the individual images of the considered n-tuple of images sharp and which blurred were recorded
  • c) creation of a depth map to the considered n-tuple of images by assigning the respective image areas sharply recorded in one image of the n-tuple to the corresponding depth plane of the lens or camera by virtue of which the image area in question has been recorded,
  • d) taking a 2D image from the respectively sharply recorded image areas of the considered n-tuple OR simultaneously with the execution of step a) taking a usual 2D image with one (n + 1). Lens or one (n + 1). Camera with the greatest possible depth of field,
resulting in a 2D image of the recorded spatial scene or the recorded spatial object and an associated depth map as a result.

Bei Schritt c) kann ggf. der mögliche Versatz der Bilder des betrachteten n-Tupels untereinander berücksichtigt werden, welcher wegen des Nebeneinanderstellens der Objektive/Kameras entsteht. Gleichsam ist es beim in Schritt d) genannten Erstellen eines 2D-Bildes aus den jeweils scharf aufgenommenen Bildbereichen des betrachteten n-Tupels vorteilhaft, den möglichen Versatz der Bilder des n-Tupels untereinander zu berücksichtigen, welcher ebenfalls wegen des Nebeneinanderstellens der Objektive/Kameras hervorgerufen wird.at Step c) may possibly be the possible Offset of the images of the observed n-tuple considered among each other which is because of juxtaposing the lenses / cameras arises. Likewise, it is at the creation mentioned in step d) a 2D image from the sharply captured image areas of the considered n-tuple advantageous, the possible offset of the images to consider the n-tuple among each other, which also because of the juxtaposition of the lenses / cameras caused becomes.

Vorteilhaft wird in Schritt a) die gleichzeitige Aufnahme von n Bildern vermöge von n≥2 Objektiven bzw. Kameras durchgeführt, welche jeweils derartige Schärfentiefen aufweisen, daß keine oder nahezu keine Tiefenebene von gleichzeitig zwei verschiedenen Objektiven bzw. verschiedenen Kameras scharf abgebildet wird. Damit wird die Tiefenzuordnung zu den jeweils scharf abgebildeten Objekten eindeutig gehalten.Advantageous in step a), the simultaneous recording of n images by means of n≥2 lenses or Cameras performed, which each such depths of field show that no or almost no depth plane of at the same time two different ones Lenses or different cameras is sharply mapped. In order to the depth assignment becomes the respectively sharply imaged objects clearly held.

Die in Schritt b) durchgeführte Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern wird bevorzugt vermöge einer oder mehrerer Aktionen aus der Gruppe bestehend aus Kantenerkennung, Hochpaßfilterung, Tiefpaßfilterung, Bandpaßfilterung oder Fourier-Transformation ausgeführt.The performed in step b) focus analysis of the individual images of the recorded n-tuple of images preferred assets one or more actions from the group consisting of edge detection, high-pass filtering, low-pass filtering, bandpass filtering or Fourier transform.

Das erfindungsgemäße Verfahren kann auch noch um einen Verfahrensschritt e) erweitert werden, der folgendes beinhaltet:The inventive method can also be extended by a process step e), the includes:

  • – Nachbearbeitung mindestens einer erstellte Tiefenkarte und/oder eines erstellten 2D-Bildes, bevorzugt in einer elektronischen Recheneinrichtung, durch Ausführung mindestens einer der folgenden Aktionen:- Post processing at least one created depth map and / or one created 2D image, preferably in an electronic computing device, by execution at least one of the following actions:
  • – Kantenglättung,- antialiasing,
  • – Weichzeichnung,- soft focus,
  • – Einbinden von Farb- oder Graustufenverläufen, und/oder- integrate of color or grayscale gradients, and / or
  • – Füllen von Informationslöchern im 2D-Bild bzw. in der Tiefenkarte mit Mittelwerten umliegender Bild- bzw. Tiefeninformationen.- filling of information holes in the 2D image or in the depth map with mean values of surrounding image or depth information.

Weiterhin können die Tiefenebenen, auf die die Objekte/Kameras in Schritt a) jeweils scharf stellen, vor der jeweiligen Durchführung des Schrittes a) an die Szene bzw. an den Gegenstand angepaßt werden, indem durch eine schnelle Durchfokussierung und nachfolgender Schärfeanalyse der aufzuzeichnenden Szene bzw. des aufzuzeichnenden Gegenstandes das vorderste und hinterste Teilobjekt in der Szene bzw. im Gegenstand ermittelt werden und besagte Tiefenebenen innerhalb der sich so ergebenden maximalen Tiefendifferenz zwischen vorderstem und hinterstem Objekt aufgeteilt werden. Somit ist das erfindungsgemäße Verfahren auch an sich in ihrer Tiefenausdehnung wesentlich veränderbaren Szenerien adaptierbar. Dabei kann die Aufteilung der Tiefenebenen, auf welche die n≥2 Objekte bzw. Kameras fokussieren, innerhalb besagter maximaler Tiefendifferenz linear, potentiell oder exponentiell beabstandet erfolgen.Furthermore, the depth planes to which the objects / cameras in step a) each sharp len, before the respective implementation of step a) are adapted to the scene or to the object by determined by a fast focussing and subsequent sharpening analysis of the scene to be recorded or the object to be recorded, the foremost and backmost sub-object in the scene or object be divided and said depth levels within the resulting maximum depth difference between foremost and backward object. Thus, the method according to the invention can also be adapted to sceneries which are substantially changeable in their depth extent. In this case, the division of the depth planes, on which the n≥2 objects or cameras focus, can take place linearly, potentially or exponentially spaced within said maximum depth difference.

Zur Aufnahme von bewegten Bildern wird das erfindungsgemäße Verfahren mehrfach wiederholt, so daß in schneller Folge nacheinander eine Vielzahl solcher n-Tupel von Bildern aufgenommen und eine entsprechende Anzahl von Tiefenkarten erstellt wird, wodurch eine räumliche Bewegtbildsequenz erzeugt wird.to Recording of moving images becomes the method according to the invention repeated several times, so that in fast succession, a plurality of such n-tuples of images recorded and created a corresponding number of depth maps becomes, whereby a spatial Moving picture sequence is generated.

Ein besondere Ausgestaltung sieht vor, daß in Schritt a) alle Bilder des n-Tupels durch eine Hauptblende hindurch aufgenommen werden, welcher einer oder mehrere halbdurchlässige Spiegel nachfolgen, die das Licht auf die n≥2 Objektive bzw. Kameras lenken, so daß alle n Bilder des n-Tupels aus im wesentlichen der gleichen Aufnahmeposition aufgenommen werden, wodurch die Verschiebung der Bildinformation zwischen verschiedenen Bildern eines n-Tupels, welche aus dem Nebeneinanderstellen der n≥2 Objektive bzw. Kameras herrührt, im wesentlichen umgangen wird.One special embodiment provides that in step a) all images of the n-tuple are taken through a main aperture, which follow one or more semipermeable mirrors which the light on the n≥2 Directing lenses or cameras, so that all n images of the n-tuple from essentially recorded in the same recording position, whereby the displacement of the Image information between different images of an n-tuple, which from the juxtaposition of n≥2 Lenses or cameras, is essentially bypassed.

Weiterhin kann das erfindungsgemäße Verfahren noch erweitert werden um einen nach Schritt d) bzw. Schritt e) folgenden Schritt f), der folgendes beinhaltet:

  • – Abspeicherung des oder der Paares) bestehend aus 2D-Bild der aufgenommenen Szenerie bzw. des aufgenommenen Gegenstandes sowie jeweils zugehöriger Tiefenkarte auf bzw. in einem Speichermedium, oder
  • – Übertragung des oder der Paares) bestehend aus 2D-Bild der aufgenommenen Szenerie bzw. des aufgenommenen Gegenstandes sowie jeweils zugehöriger Tiefenkarte in einem Übertragungskanal.
Furthermore, the method according to the invention can be extended by a step f) following step d) or step e), which includes the following:
  • - Storage of the or the pair) consisting of 2D image of the recorded scene or the recorded object and each associated depth map on or in a storage medium, or
  • - Transmission of the or the pair) consisting of 2D image of the recorded scene or the recorded object and each associated depth map in a transmission channel.

Die Erfindung bezieht sich auch auf das erfindungsgemäße Verfahren umsetzende Anordnungen. Eine solche erfindungsgemäße Anordnung umfaßt mindestens:

  • – eine Anzahl n≥2 Kameras, welche gleichzeitig ausgelöst werden können, um gleichzeitig ein n-Tupel von Bildern aufzunehmen, wobei die n≥2 Kameras im wesentlichen aus der gleichen Position auf die Szene bzw. den Gegenstand gerichtet sind, jedoch auf paarweise unterschiedliche Tiefenebenen in der Szene bzw. innerhalb des Gegenstandes scharfgestellt sind,
  • – Mittel zum Auslesen des n-Tupels von Bildern aus den n Kameras sowie Mittel zur Speicherung des n-Tupels von Bildern,
  • – Mittel zur Ausführung einer Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern zur Festlegung, welche Bildbereiche der einzelnen Bilder des betrachteten n-Tupels von Bildern scharf und welche unscharf aufgenommen wurden,
  • – Mittel zum Erstellen einer Tiefenkarte zu dem betrachteten n-Tupel von Bildern durch Zuordnung der jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche zu der entsprechenden Tiefenebene desjenigen Objektives bzw. derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde,
  • – Mittel zum Erstellen eines 2D-Bildes aus den jeweils scharf aufgenommenen Bildbereichen des betrachteten n-Tupels ODER eine weitere (n+1). Kamera zur Aufnahme eines gewöhnlichen 2D-Bildes.
The invention also relates to the method according to the invention implementing arrangements. Such an arrangement according to the invention comprises at least:
  • A number of n≥2 cameras, which can be triggered simultaneously to simultaneously capture an n-tuple of images, with the n≥2 cameras being directed from the same position to the scene or object, but in pairs Depth planes in the scene or within the subject are in focus,
  • Means for reading out the n-tuple of images from the n cameras, and means for storing the n-tuple of images,
  • Means for performing a sharpness analysis of the individual images of the recorded n-tuple of images to determine which image areas of the individual images of the considered n-tuple of images were sharply and which were taken blurred,
  • - Means for creating a depth map to the considered n-tuple of images by assigning each sharply recorded in an image of the n-tuple image areas to the corresponding depth plane of the lens or the camera, by virtue of or by virtue of which or the relevant image area was recorded .
  • Means for producing a 2D image from the respective sharply recorded image areas of the considered n-tuple OR another (n + 1). Camera for taking a usual 2D image.

Die besagten Mittel zum Auslesen des n-Tupels, die Mittel zur Ausführung einer Schärfeanalyse, die Mittel zum Erstellen einer Tiefenkarte sowie ggf. die Mittel zum Erstellen eines 2D-Bildes können besonders vorteilhaft durch einen mit Software gesteuerten PC gebildet werden.The said means for reading the n-tuple, means for executing a Sharpness analysis, the Means for creating a depth map and possibly the means for Can create a 2D image particularly advantageously formed by a software controlled PC become.

Auch die erfindungsgemäße Anordnung kann um eine Hauptblende erweitert werden, die der Szene oder dem Gegenstand zugewandt ist. Die Erweiterung umfaßt außerdem vorteilhaft einen oder mehrere halbdurchlässige Spiegel, welche der Hauptblende nachfolgen und die das Licht auf die n≥2 Objektive bzw. Kameras lenken, so daß alle Bilder des n-Tupels durch ein- und dieselbe Hauptblende hindurch und somit im wesentlichen aus der gleichen Aufnahmeposition aufgenommen werden.Also the inventive arrangement can be extended by a main screen, the scene or the object is facing. The extension also advantageously includes one or more semipermeable Mirrors which follow the main panel and which light up the n≥2 lenses or direct cameras, so that all Images of the n-tuple through one and the same main aperture and thus essentially taken from the same receiving position become.

Die Erfindung wird nachfolgend an Hand von Zeichnungen näher erläutert.The Invention will be explained in more detail with reference to drawings.

Es zeigtIt shows

18 das Ergebnis der Schärfeanalyse für ein n-Tupel aufgenommener Bilder bei n=8, sowie 1 - 8th the result of the sharpness analysis for an n-tuple of recorded images at n = 8, as well

9 schemenhaft die daraus gewonnene Tiefenzuordnung. 9 blurred the resulting depth allocation.

Als Testszene für die Zeichnungen dient eine Schachbrettszenerie, die mit 3D-Studio Max simuliert ist. Bei dem für die Zeichnungen beispielhaft ausgestalteten Verfahren zur Aufnahme von räumlichen Szenen bzw. Gegenständen wurden die folgenden Verfahrensschritte ausgeführt:

  • a) gleichzeitige Aufnahme einer Anzahl von n Bildern mit n=8 Kameras, wobei die n=8 Kameras im wesentlichen aus der gleichen Position auf die Szene bzw. den Gegenstand gerichtet sind, jedoch auf paarweise unterschiedliche Tiefenebenen in der Szene bzw. innerhalb des Gegenstandes scharfgestellt sind, wodurch ein n-Tupel von Bildern aufgezeichnet wird,
  • b) zeitlich nach der Ausführung des Schrittes a) folgende Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern zur Festlegung, welche Bildbereiche der einzelnen Bilder des betrachteten n-Tupels von Bildern scharf und welche unscharf aufgenommen wurden,
  • c) Erstellen einer Tiefenkarte zu dem betrachteten n-Tupel von Bildern durch Zuordnung der jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche zu der entsprechenden Tiefenebene derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde,
  • d) gleichzeitig mit der Ausführung des Schrittes a) durchgeführte Aufnahme eines gewöhnlichen 2D-Bildes mit einer 9. Kamera mit großer Tiefenschärfe,
wodurch im Ergebnis ein 2D-Bild der aufgenommenen räumlichen Szene bzw. des aufgenommenen räumlichen Gegenstandes sowie eine zugehörige Tiefenkarte entsteht.The test scene for the drawings is a chessboard scene simulated with 3D-Studio Max. In the exemplary embodiment of the drawings for recording spatial scenes or objects, the following method steps were carried out:
  • a) simultaneous recording of a number of n images with n = 8 cameras, wherein the n = 8 cameras are directed essentially from the same position on the scene or the object, but on pairs of different depth levels in the scene or within the object are focused, whereby an n-tuple of images is recorded,
  • b) temporally after the execution of step a) the following sharpness analysis of the individual images of the recorded n-tuple of images to determine which image areas of the individual images of the considered n-tuple of images were sharply and which were taken blurred,
  • c) creating a depth map to the considered n-tuple of images by assigning each of the image areas sharply recorded in one image of the n-tuple to the corresponding depth plane of the camera by virtue of which or the image area in question has been recorded,
  • d) taking a common 2D image simultaneously with the execution of step a) with a 9th camera with a large depth of field,
resulting in a 2D image of the recorded spatial scene or the recorded spatial object and an associated depth map as a result.

Da die acht zweidimensionalen Bilder des n-Tupels sowie das (9.) 2D-Bild sind aus Gründen der Redundanz nicht dargestellt, d.h. die Ergebnisse aus den Schritten a) und d) sind in den Zeichnungen nicht wiedergegeben.There the eight two-dimensional images of the n-tuple and the (9th) 2D image are for reasons the redundancy not shown, i. the results from the steps a) and d) are not shown in the drawings.

Es geben also die 18 das Ergebnis des Schrittes b), d.h. der Schärfeanalyse für das n-Tupel aufgenommener Bilder bei n=8 wieder. Die Bildschärfeanalyse ist hier beispielhaft mit einem Hochpaßfilter durchgeführt worden. Da jeweils scharf gezeichneten Kanten entsprechen im n-Tupel scharf dargestellten Bildabschnitten, während die unscharf gezeichneten Kanten unscharfen Bildbereichen im jeweiligen Bild des n-Tupels entsprechen.So there are the 1 - 8th the result of step b), ie the sharpness analysis for the n-tuple of recorded images at n = 8 again. The image sharpness analysis has been carried out here by way of example with a high-pass filter. In each case, sharply drawn edges correspond to sharply displayed image sections in the n-tuple, while the blurred edges correspond to blurred image areas in the respective image of the n-tuple.

Die 9 zeigt schemenhaft die aus den Daten der Schärfenanalyse gewonnene Tiefenzuordnung gemäß Schritt c). Die Tiefenkarte wurde erstellt, indem die jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche (welche über die Schärfeanalyse in Schritt b) bestimmt wurden) zu der entsprechenden Tiefenebene derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde, zugeordnet wurden. Es sind also bei n=8 Kameras genau 8 verschiedene Tiefenstufen zuordenbar, was in 9 durch 8 verschiedene Graustufen symbolisiert wurde.The 9 shows schematically the depth assignment obtained from the data of the sharpness analysis according to step c). The depth map was created by assigning each of the image areas sharply recorded in one image of the n-tuple (which were determined by the sharpness analysis in step b) to the corresponding depth plane of the camera by virtue of which the image area in question was recorded were. Thus, with n = 8 cameras exactly 8 different depth steps can be assigned, which is in 9 symbolized by 8 different shades of gray.

Aus dem 2D-Bild (hier von der 9. Kamera aufgenommen; nicht in den Zeichnungen dargestellt) und der Tiefenkarte kann beispielsweise die aufgenommene 3D-Szene in verschiedenen Ansichten rekonstruiert und auf einem 3D-Bildschirm, beispielsweise vom Typ „X3D-19 Display" wiedergegeben werden. Somit sind das erhaltene 2D-Bild mit der zugeordneten Tiefenkarte ein hinreichend räumliches Abbild der aufgenommenen Szene bzw. des Gegenstandes.Out the 2D image (taken here by the ninth camera, not in the drawings shown) and the depth map, for example, the recorded 3D scene reconstructed in different views and on one 3D screen, for example of the type "X3D-19 Display". Thus, the obtained 2D image with the associated depth map a sufficiently spatial image the recorded scene or the object.

Die Vorteile der Erfindung sind vielseitig. Insbesondere ist es möglich, auch von zeitlich veränderlichen und zeitlich in der Tiefe variierenden Szenen bzw. Gegenständen eine räumliche Aufnahme anzufertigen. Zur Umsetzung werden keine hochkomplexen Optiken benötigt.The Advantages of the invention are versatile. In particular, it is possible, too from time-varying and temporally in depth varying scenes or objects one spatial To make a recording. The implementation will not be highly complex Optics needed.

Claims (12)

Verfahren zur Aufnahme von räumlichen Szenen bzw. Gegenständen, umfassend die folgenden Verfahrensschritte: a) gleichzeitige Aufnahme einer Anzahl von n Bildern mit n≥2 Objektiven bzw. Kameras, wobei die n≥2 Objektive bzw. Kameras im wesentlichen aus der gleichen Position auf die Szene bzw. den Gegenstand gerichtet sind, jedoch auf paarweise unterschiedliche Tiefenebenen in der Szene bzw. innerhalb des Gegenstandes scharfgestellt sind, wodurch ein n-Tupel von Bildern aufgezeichnet wird, b) gleichzeitig mit der Ausführung des Schrittes a) oder zeitlich nach der Ausführung des Schrittes a) folgende Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern zur Festlegung, welche Bildbereiche der einzelnen Bilder des betrachteten n-Tupels von Bildern scharf und welche unscharf aufgenommen wurden, c) Erstellen einer Tiefenkarte zu dem betrachteten n-Tupel von Bildern durch Zuordnung der jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche zu der entsprechenden Tiefenebene desjenigen Objektives bzw. derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde, d) Erstellen eines 2D-Bildes aus den jeweils scharf aufgenommenen Bildbereichen des betrachteten n-Tupels ODER gleichzeitig mit der Ausführung des Schrittes a) durchgeführte Aufnahme eines gewöhnlichen 2D-Bildes mit einem (n+1). Objektiv bzw. mit einer (n+1). Kamera mit möglichst großer Tiefenschärfe, wodurch im Ergebnis ein 2D-Bild der aufgenommenen räumlichen Szene bzw. des aufgenommenen räumlichen Gegenstandes sowie eine zugehörige Tiefenkarte entsteht.A method for recording spatial scenes or objects, comprising the following method steps: a) simultaneous recording of a number of n images with n≥2 lenses or cameras, wherein the n≥2 lenses or cameras essentially from the same position on the Are focused on pairwise different depth planes in the scene or within the object, whereby an n-tuple of images is recorded, b) simultaneously with the execution of step a) or after the execution of the Step a) following sharpening analysis of the individual images of the recorded n-tuple of images to determine which image areas of the individual images of the considered n-tuple of images were sharp and which were blurred, c) creating a depth map to the considered n-tuple of images by assigning each sharply recorded in an image of the n-tuple image areas to the corresponding depth plane of that lens or that camera, by virtue of whose or by means of which the relevant image area has been recorded, d) creating a 2D image from the respectively sharply recorded image areas of the considered n-tuple OR simultaneously with the execution of step a) performed recording an ordinary 2D image with one (n + 1). Lens or one (n + 1). Camera with the greatest possible depth of field, resulting in a 2D image of the recorded spatial scene or the recorded spatial object and an associated depth map is created. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß in Schritt a) die gleichzeitige Aufnahme von n Bildern vermöge von n≥2 Objektiven bzw. Kameras durchgeführt wird, welche jeweils derartige Schärfentiefen aufweisen, daß keine oder nahezu keine Tiefenebene von gleichzeitig zwei verschiedenen Objektiven bzw. verschiedenen Kameras scharf abgebildet wird.Method according to claim 1, characterized in that that in Step a) the simultaneous recording of n images by n≥2 lenses or cameras performed is, which each have such depths of focus that no or almost no depth plane of at the same time two different ones Lenses or different cameras is sharply mapped. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß die in Schritt b) durchgeführte Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern vermöge einer oder mehrerer Aktionen aus der Gruppe bestehend aus Kantenerkennung, Hochpaßfilterung, Tiefpaßfilterung, Bandpaßfilterung oder Fourier-Transformation ausgeführt wird.Method according to one of the preceding claims, characterized characterized in that performed in step b) focus analysis of the individual images of the recorded n-tuple of images by virtue of a or multiple actions from the group consisting of edge detection, High-pass filtering, low-pass filtering, bandpass filtering or Fourier transform is executed. Verfahren nach einem der vorgenannten Ansprüche, erweitert um einen Verfahrensschritt e), der folgendes beinhaltet: Nachbearbeitung mindestens einer erstellten Tiefenkarte und/oder eines erstellten 2D-Bildes, bevorzugt in einer elektronischen Recheneinrichtung, durch Ausführung mindestens einer der folgenden Aktionen: – Kantenglättung, – Weichzeichnung, – Einbinden von Farb- oder Graustufenverläufen, und/oder – Füllen von Informationslöchern im 2D-Bild bzw. in der Tiefenkarte mit Mittelwerten umliegender Bild- bzw. Tiefeninformationen.Method according to one of the preceding claims, extended a process step e), which includes: post processing at least one created depth map and / or one created 2D image, preferably in an electronic computing device, by execution at least one of the following actions: - antialiasing, - soft focus, - integrate of color or grayscale gradients, and / or - filling of information holes in the 2D image or in the depth map with mean values around Image or depth information. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß die Tiefenebenen, auf die die Objekte/Kameras in Schritt a) jeweils scharf stellen, vor der jeweiligen Durchführung des Schrittes a) an die Szene bzw. an den Gegenstand angepaßt werden, indem durch eine schnelle Durchfokussierung und nachfolgender Schärfeanalyse der aufzuzeichnenden Szene bzw. des aufzuzeichnenden Gegenstandes das vorderste und hinterste Teilobjekt in der Szene bzw. im Gegenstand ermittelt werden und besagte Tiefenebenen innerhalb der sich so ergebenden maximalen Tiefendifferenz zwischen vorderstem und hinterstem Objekt aufgeteilt werden.Method according to one of the preceding claims, characterized characterized in that Depth planes pointed to by the objects / cameras in step a) respectively focus, before the respective implementation of step a) to the Scene or adapted to the object by a fast focussing and subsequent sharpness analysis of the recorded Scene or the object to be recorded, the foremost and rearmost Part object can be determined in the scene or in the object and said depth levels within the resulting maximum Depth difference between foremost and rearmost object divided become. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Aufteilung der Tiefenebenen, auf welche die n≥2 Objekte bzw. Kameras fokussieren, innerhalb besagter maximaler Tiefendifferenz linear, potentiell oder exponentiell beabstandet erfolgt.Method according to claim 5, characterized in that that the Division of the depth levels to which the n≥2 objects or cameras focus within said maximum depth difference linear, potential or exponential spaced apart. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß das Verfahren mehrfach wiederholt wird, so daß in schneller Folge nacheinander eine Vielzahl solcher n-Tupel von Bildern aufgenommen und eine entsprechende Anzahl von Tiefenkarten erstellt wird, wodurch eine räumliche Bewegtbildsequenz erzeugt wird.Method according to one of the preceding claims, characterized characterized in that Procedure is repeated several times, so that in rapid succession a variety of such n-tuples of images taken and a corresponding one Number of depth maps is created, creating a spatial Moving picture sequence is generated. Verfahren nach einem der vorgenannten Ansprüche, dadurch gekennzeichnet, daß in Schritt a) alle Bilder des n-Tupels durch eine Hauptblende hindurch aufgenommen werden, welcher einer oder mehrere halbdurchlässige Spiegel nachfolgen, die das Licht auf die n≥2 Objektive bzw. Kameras lenken, so daß alle n Bilder des n-Tupels aus im wesentlichen der gleichen Aufnahmeposition aufgenommen werden, wodurch die Verschiebung der Bildinformation zwischen verschiedenen Bildern eines n-Tupels, welche aus dem Nebeneinanderstellen der n≥2 Objektive bzw. Kameras herrührt, im wesentlichen umgangen wird.Method according to one of the preceding claims, characterized characterized in that Step a) pass all images of the n-tuple through a main aperture be included, which one or more semi-transparent mirror follow that direct the light to the n≥2 lenses or cameras, so that all n images of the n-tuple from essentially the same pickup position be absorbed, thereby reducing the image information between different images of an n-tuple, which from the juxtaposition the n≥2 lenses or cameras, is essentially bypassed. Verfahren nach einem der vorgenannten Ansprüche, erweitert um einen nach Schritt d) bzw. Schritt e) folgenden Schritt f), der folgendes beinhaltet: – Abspeicherung des oder der Paares) bestehend aus 2D-Bild der aufgenommenen Szenerie bzw. des aufgenommenen Gegenstandes sowie jeweils zugehöriger Tiefenkarte auf bzw. in einem Speichermedium, oder – Übertragung des oder der Paare(s) bestehend aus 2D-Bild der aufgenommenen Szenerie bzw. des aufgenommenen Gegenstandes sowie jeweils zugehöriger Tiefenkarte in einem Übertragungskanal.Method according to one of the preceding claims, extended by a step f) following step d) or step e), includes: - storage of the couple) consisting of a 2D image of the recorded scene or of the recorded object and respectively associated depth map on or in a storage medium, or - Transfer of the couple (s) consisting of a 2D image of the recorded scene or the recorded scene Object and each associated Depth card in a transmission channel. Anordnung zur Aufnahme von räumlichen Szenen bzw. Gegenständen zur Durchführung des Verfahrens nach einem der Ansprüche 1–7, mindestens umfassend: – n≥2 Kameras, welche gleichzeitig ausgelöst werden können, um gleichzeitig ein n-Tupel von Bildern aufzunehmen, wobei die n≥2 Kameras im wesentlichen aus der gleichen Position auf die Szene bzw. den Gegenstand gerichtet sind, jedoch auf paarweise unterschiedliche Tiefenebenen in der Szene bzw. innerhalb des Gegenstandes scharfgestellt sind, – Mittel zum Auslesen des n-Tupels von Bildern aus den n Kameras sowie Mittel zur Speicherung des n-Tupels von Bildern, – Mittel zur Ausführung einer Schärfeanalyse der einzelnen Bilder des aufgezeichneten n-Tupels von Bildern zur Festlegung, welche Bildbereiche der einzelnen Bilder des betrachteten n-Tupels von Bildern scharf und welche unscharf aufgenommen wurden, – Mittel zum Erstellen einer Tiefenkarte zu dem betrachteten n-Tupel von Bildern durch Zuordnung der jeweils in einem Bild des n-Tupels scharf aufgezeichneten Bildbereiche zu der entsprechenden Tiefenebene desjenigen Objektives bzw. derjenigen Kamera, vermöge dessen bzw. vermöge derer der betreffende Bildbereich aufgezeichnet wurde, – Mittel zum Erstellen eines 2D-Bildes aus den jeweils scharf aufgenommenen Bildbereichen des betrachteten n-Tupels ODER eine weitere (n+1). Kamera zur Aufnahme eines gewöhnlichen 2D-Bildes.Arrangement for recording spatial scenes for carrying out the method according to any one of claims 1-7, comprising at least: - n≥2 cameras which can be triggered simultaneously to simultaneously record an n-tuple of images, wherein the n≥ 2 cameras are directed substantially from the same position on the scene or the object, but are focused on pairwise different depth levels in the scene or within the object, - means for reading the n-tuple of images from the n cameras and means for storing the n-tuple of images, means for performing a sharpness analysis of the individual images of the recorded n-tuple of images to determine which image areas of the individual images of the n-tuple of images were sharp and which were blurred, means for Creating a depth map to the considered n-tuple of images by assigning each in one Image of the n-tuple sharply recorded image areas to the corresponding depth plane of the lens or camera by virtue of which or by virtue of which the relevant image area has been recorded, Means for producing a 2D image from the respective sharply recorded image areas of the considered n-tuple OR another (n + 1). Camera for taking a usual 2D image. Anordnung nach Anspruch 10, dadurch gekennzeichnet, daß die Mittel zum Auslesen des n-Tupels, die Mittel zur Ausführung einer Schärfeanalyse, die Mittel zum Erstellen einer Tiefenkarte sowie ggf. die Mittel zum Erstellen eines 2D-Bildes durch einen mit Software gesteuerten PC gebildet werden.Arrangement according to claim 10, characterized that the Means for reading the n-tuple, the means of execution a sharpness analysis, the Means for creating a depth map and possibly the means for Creating a 2D image through a software controlled PC be formed. Anordnung nach einem der Ansprüche 10 oder 11, erweitert um eine Hauptblende, die der Szene oder dem Gegenstand zugewandt ist, außerdem erweitert um einen oder mehrere halbdurchlässige Spiegel, welche der Hauptblende nachfolgen und die das Licht auf die n≥2 Objektive bzw. Kameras lenken, so daß alle Bilder des n-Tupels durch ein- und dieselbe Hauptblende hindurch und somit im wesentlichen aus der gleichen Aufnahmeposition aufgenommen werden.Arrangement according to one of claims 10 or 11, extended by a main panel facing the scene or object also expanded around one or more semitransparent mirrors, which follow the main panel and the light on the n≥2 lenses or direct cameras, so that all Images of the n-tuple through one and the same main aperture and thus be taken up substantially from the same recording position.
DE102004006246A 2004-02-05 2004-02-05 Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained Withdrawn DE102004006246A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004006246A DE102004006246A1 (en) 2004-02-05 2004-02-05 Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004006246A DE102004006246A1 (en) 2004-02-05 2004-02-05 Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained

Publications (1)

Publication Number Publication Date
DE102004006246A1 true DE102004006246A1 (en) 2005-10-13

Family

ID=34982692

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004006246A Withdrawn DE102004006246A1 (en) 2004-02-05 2004-02-05 Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained

Country Status (1)

Country Link
DE (1) DE102004006246A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010017239A1 (en) * 2008-08-05 2010-02-11 Qualcomm Incorporated System and method to generate depth data using edge detection
GB2535726A (en) * 2015-02-25 2016-08-31 Bae Systems Plc An image processing method and apparatus for determining depth within an image
US9990738B2 (en) 2015-02-25 2018-06-05 Bae Systems Plc Image processing method and apparatus for determining depth within an image
WO2022074171A1 (en) 2020-10-07 2022-04-14 Ash Technologies Ltd., System and method for digital image processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3604141A1 (en) * 1986-02-10 1987-08-13 Stemme Otto Autofocus arrangement
WO1993008448A1 (en) * 1991-10-15 1993-04-29 Electro-Optical Information Systems High-speed 3-d surface measurement surface inspection and reverse-cad system
DE4420422C2 (en) * 1994-06-10 1997-09-18 Dickmanns Ernst Dieter Prof Dr Technical complex eye for dynamic machine vision
US5745126A (en) * 1995-03-31 1998-04-28 The Regents Of The University Of California Machine synthesis of a virtual video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US6262743B1 (en) * 1995-06-22 2001-07-17 Pierre Allio Autostereoscopic image acquisition method and system
EP1012790B1 (en) * 1997-09-11 2002-10-30 Markus R. Müller Method for receiving and storing optically detectable data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3604141A1 (en) * 1986-02-10 1987-08-13 Stemme Otto Autofocus arrangement
WO1993008448A1 (en) * 1991-10-15 1993-04-29 Electro-Optical Information Systems High-speed 3-d surface measurement surface inspection and reverse-cad system
DE4420422C2 (en) * 1994-06-10 1997-09-18 Dickmanns Ernst Dieter Prof Dr Technical complex eye for dynamic machine vision
US5745126A (en) * 1995-03-31 1998-04-28 The Regents Of The University Of California Machine synthesis of a virtual video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US6262743B1 (en) * 1995-06-22 2001-07-17 Pierre Allio Autostereoscopic image acquisition method and system
EP1012790B1 (en) * 1997-09-11 2002-10-30 Markus R. Müller Method for receiving and storing optically detectable data

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010017239A1 (en) * 2008-08-05 2010-02-11 Qualcomm Incorporated System and method to generate depth data using edge detection
CN102113017A (en) * 2008-08-05 2011-06-29 高通股份有限公司 System and method to generate depth data using edge detection
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US8477232B2 (en) 2008-08-05 2013-07-02 Qualcomm Incorporated System and method to capture depth data of an image
GB2535726A (en) * 2015-02-25 2016-08-31 Bae Systems Plc An image processing method and apparatus for determining depth within an image
US9990738B2 (en) 2015-02-25 2018-06-05 Bae Systems Plc Image processing method and apparatus for determining depth within an image
GB2535726B (en) * 2015-02-25 2020-12-30 Bae Systems Plc An image processing method and apparatus for determining depth within an image
WO2022074171A1 (en) 2020-10-07 2022-04-14 Ash Technologies Ltd., System and method for digital image processing

Similar Documents

Publication Publication Date Title
DE69107267T2 (en) METHOD AND DEVICE FOR MODIFYING A ZONE SUCCESSIVE IMAGES.
DE102005034597A1 (en) Method and device for generating a depth map
EP1438697A2 (en) Method and device for producing light-microscopy, three-dimensional images
DE102012016160A1 (en) Image capture for later refocusing or focus manipulation
DE102014223387A1 (en) An image inspection system and method for obtaining an image with extended depth of field
DE102013021542A1 (en) Microscope and method for SPIM microscopy
EP3123228B1 (en) Confocal microscope with aperture correlation
DE19861203B4 (en) Process and device for extensive vibration analysis
DE4226523B4 (en) Method and device for automatic focusing on objects
DE102004006246A1 (en) Areal scenes and objects recording method, involves creating two-dimensional image from sharp image areas of observed n-sequence, by which two-dimensional image and depth chart are obtained
DE2515975A1 (en) DEVICE FOR SCANNING AND EVALUATING SINGLE PHOTOGRAPHIC IMAGES
DE102017208994A1 (en) Method for determining result image data
DE102005041279A1 (en) Processing of optical data
DE102008026657A1 (en) Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point
LU102084B1 (en) Imaging system, in particular for a camera
DE202014009216U1 (en) Mobile device for scanning and saving objects
DE19753246C2 (en) Device for determining three-dimensional data from objects
DE102020212081A1 (en) Device and method for creating training data for two-dimensional scans of a ground radar system
DE102015011674A1 (en) Method for depth filtering of depth images
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102011082021A1 (en) Method and device for the three-dimensional visual inspection of a component
DE102017218370A1 (en) Systems, methods and apparatus for optimizing a viewing area
EP1012790B1 (en) Method for receiving and storing optically detectable data
DE10237470A1 (en) Method and device for generating light microscopic, three-dimensional images
DE102004049163B3 (en) Method for determining a complete depth information of a camera image

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8181 Inventor (new situation)

Inventor name: BRUEGGERT, THOMAS, DIPL.-PHYS., 07745 JENA, DE

Inventor name: KLIPPSTEIN, MARKUS, DIPL.-PHYS., 07751 JENA, DE

8127 New person/name/address of the applicant

Owner name: NEWSIGHT GMBH, 07745 JENA, DE

8110 Request for examination paragraph 44
R012 Request for examination validly filed

Effective date: 20110204

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120901