DE102020101706A1 - Method for generating depth image pairs for a database - Google Patents

Method for generating depth image pairs for a database Download PDF

Info

Publication number
DE102020101706A1
DE102020101706A1 DE102020101706.5A DE102020101706A DE102020101706A1 DE 102020101706 A1 DE102020101706 A1 DE 102020101706A1 DE 102020101706 A DE102020101706 A DE 102020101706A DE 102020101706 A1 DE102020101706 A1 DE 102020101706A1
Authority
DE
Germany
Prior art keywords
time
flight camera
tof
database
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020101706.5A
Other languages
German (de)
Inventor
Christopher Dietz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IFM Electronic GmbH
PMDtechnologies AG
Original Assignee
IFM Electronic GmbH
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH, PMDtechnologies AG filed Critical IFM Electronic GmbH
Priority to DE102020101706.5A priority Critical patent/DE102020101706A1/en
Publication of DE102020101706A1 publication Critical patent/DE102020101706A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zur Generierung valider Entfernungsgrunddaten für eine Lichtlaufzeitkamera,bei dem in einem Erfassungsschritt,mit wenigstens einer Lichtlaufzeitkamera und einem Laserscanner zumindest stückweise Entfernungswerte einer Szenerie erfasst werden,wobei in einem ersten Bearbeitungsschritt,die Entfernungswerte der Lichtlaufzeitkamera mit den Entfernungswerten des Laserscanners einem wahrscheinlisten Raumpunkt der Szenerie zugeordnet werden,und in einem zweiten Bearbeitungsschritt die Daten mittels einer Bildverarbeitung optimiert und zu Trainings-Entfernungsdatenpaare zusammengefasst und in einer Datenbank abgelegt werden.Method for generating valid basic distance data for a time-of-flight camera, in which in a detection step, at least one time-of-flight camera and a laser scanner, at least piecewise distance values of a scene are recorded, wherein in a first processing step, the distance values of the time-of-flight camera with the distance values of the laser scanner is a probable point in space of the scenery are assigned, and in a second processing step the data are optimized by means of image processing and combined into training distance data pairs and stored in a database.

Description

Die Erfindung betrifft ein Verfahren zur Generierung von Tiefenbildpaaren für eine Datenbank für die Verwendung in einer Lichtlaufzeitkamera nach Gattung des unabhängigen Anspruchs.The invention relates to a method for generating depth image pairs for a database for use in a time-of-flight camera according to the preamble of the independent claim.

Derartige Lichtlaufzeitkameras bzw. Lichtlaufzeitkamerasysteme betreffen insbesondere alle Lichtlaufzeit bzw. TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der DE 197 04 496 C2 beschrieben sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.Such time-of-flight cameras or time-of-flight camera systems of this type relate in particular to all time-of-flight or TOF camera systems that obtain transit time information from the phase shift of an emitted and received radiation. PMD cameras with photonic mixer detectors (PMD) are particularly suitable as time of flight or TOF cameras, as they are, for example, in FIG DE 197 04 496 C2 are described. The PMD camera allows in particular a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.

Aufgabe der Erfindung ist es, die Genauigkeit einer Lichtlaufzeitkamera zu verbessern.The object of the invention is to improve the accuracy of a time-of-flight camera.

Die Aufgabe wird durch das erfindungsgemäße Verfahren gelöst.The object is achieved by the method according to the invention.

Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention is explained in more detail below on the basis of exemplary embodiments with reference to the drawings.

Es zeigen schematisch:

  • 1 einen Aufbau zur Erfassung und Einlernen valider Entfernungsdaten,
  • 2 eine erfindungsgemäße Datenerfassung und -aufbereitung.
They show schematically:
  • 1 a structure for recording and teaching in valid distance data,
  • 2 a data acquisition and processing according to the invention.

1 zeigt schematisch einen erfindungsgemäßen Aufbau mit einem 3D-Laserscanner auf einem Stativ und mit mindestens einer auf dem Scanner montierten TOF-Kamera. Wie in 2 gezeigt, werden der Scan und das ToF-Bild registriert und mit Bildverarbeitungsalgorithmen verarbeitet, um eine Datenbank mit genauen Trainingsdatenpaaren zu erstellen. Fehlerfreie Tiefenwerte und ggf. optional verarbeitete ToF-Bilder werden dann zum Training eines maschinellen Lernmodells verwendet. Das Modell erhält ToF-Bilder als Eingabe und gibt genaue Tiefenkarten für beliebige ToF-Kameras aus. 1 schematically shows a structure according to the invention with a 3D laser scanner on a tripod and with at least one TOF camera mounted on the scanner. As in 2 As shown, the scan and ToF image are registered and processed with image processing algorithms to create a database of accurate training data pairs. Error-free depth values and optionally processed ToF images are then used to train a machine learning model. The model receives ToF images as input and outputs exact depth maps for any ToF cameras.

Die verwendete Lichtlaufzeitkamera misst phasenverschobene periodische Funktionen, wobei die Phase proportional zur Tiefe d ist. Es ist üblich, diese Messungen als Real- (Re) und Imaginärteil (Im) eines komplexen Sinussignals (oft als Rohbild bezeichnet) zu gestalten. Die Phase wird definiert als: ϕ = atan 2 ( Re , Im )

Figure DE102020101706A1_0001
The time-of-flight camera used measures phase-shifted periodic functions, the phase being proportional to the depth d. It is common practice to design these measurements as real (Re) and imaginary (Im) parts of a complex sinusoidal signal (often referred to as a raw image). The phase is defined as: ϕ = atan 2 ( - re , in the )
Figure DE102020101706A1_0001

Die Tiefe wird dann berechnet als: d = ur/ 2 πϕ

Figure DE102020101706A1_0002
The depth is then calculated as: d = ur / 2 πϕ
Figure DE102020101706A1_0002

Der eindeutige Bereich (ur) einer ToF-Kamera ist durch die Verwendung ihrer Modulationsfrequenz (f) begrenzt. ur = c/ 2 f

Figure DE102020101706A1_0003
The unique range (ur) of a ToF camera is limited by the use of its modulation frequency (f). ur = c / 2 f
Figure DE102020101706A1_0003

Mit c = Lichtgeschwindigkeit.With c = speed of light.

Die Tiefenmessung leidet unter mehreren Fehlern. Insbesondere Rauschen, Mehrweginterferenzen und so genannte „phase unwrapping‟ (Phasenzuordnungs) - Fehler müssen berücksichtigt werden.

  1. a) Das Rauschen wird in der Regel mit räumlichen, kernelbasierten (adaptiven-) Filterverfahren reduziert. Auch eine zeitliche Filterung wird verwendet.
  2. b) Mehrwege-Interferenz entsteht durch Mehrfachreflexionen in der Szene, bevor das Licht zur Kamera zurückkehrt. Dies führt zu überbestimmten Tiefenwerten und ist stark szenenabhängig. Derzeit ist kein klassischer Algorithmus in der Lage, diesen Fehler in Echtzeit zu korrigieren.
  3. c) Die Fehler durch die Phasenzuordnung (phase unwrapping) werden typischerweise mit dem chinesischen Restwert Theorem und mehreren Frequenzen gelöst. Fehler in der Zuordnung zu einem der möglichen Eindeutigkeitsbereichen können insbesondere durch Rauschen entstehen. Der maximale Bereich der Messung ist zudem noch durch das kleinste gemeinsame Vielfache der eindeutigen Bereiche der verwendeten Modulationsfrequenzen begrenzt.
The depth measurement suffers from several errors. In particular, noise, multipath interference and so-called "phase unwrapping" (phase assignment) errors must be taken into account.
  1. a) The noise is usually reduced with spatial, kernel-based (adaptive) filter methods. Temporal filtering is also used.
  2. b) Multipath interference is caused by multiple reflections in the scene before the light returns to the camera. This leads to overdetermined depth values and is heavily dependent on the scene. No conventional algorithm is currently able to correct this error in real time.
  3. c) The errors due to the phase assignment (phase unwrapping) are typically solved with the Chinese residual value theorem and several frequencies. Errors in the assignment to one of the possible uniqueness areas can arise in particular due to noise. The maximum range of the measurement is also limited by the smallest common multiple of the unique ranges of the modulation frequencies used.

Modelle des maschinellen Lernens sind in der Lage, mit diesen Problemen umzugehen, benötigen jedoch große Mengen an Trainingsdaten mit bekannten fehlerfreien Tiefendaten. Gegenwärtig werden Ray-Tracing-Methoden verwendet, um signifikante Mengen synthetischer Trainingsdaten mit entsprechender fehlerfreier Tiefe zu erzeugen. Leider haben synthetische Daten aufgrund verschiedener Vereinfachungen und Unzulänglichkeiten, die im Raytracer vorgenommen werden, erhebliche Nachteile.Machine learning models are able to deal with these problems, but require large amounts of training data with known error-free depth data. Ray tracing methods are currently used to generate significant amounts of synthetic training data with appropriate error-free depth. Unfortunately, synthetic data has significant disadvantages due to various simplifications and inadequacies made in the ray tracer.

Wie eingangs beschrieben und in 1 gezeigt, besteht die Datenerfassung aus einem Laserscanner, der beispielsweise auf einem motorisierten Stativ angeordnet ist. Zusätzlich ist mindestens eine Lichtlaufzeitkamera auf dem Scanner montiert, (optional mit rotierendem Schrittmotor). Die Daten können beispielsweise über einen Computer, der beispielsweise über Wifi mit dem Laserscanner und USB mit der/den Lichtlaufzeitkameras und ggf. Schrittmotoren verbunden ist. Der PC dient vorzugsweise zur Koordination des automatischen Laserscannens und der ToF-Bilderfassung.As described at the beginning and in 1 shown, the data acquisition consists of a laser scanner, which is arranged, for example, on a motorized tripod. In addition, at least one time-of-flight camera is mounted on the scanner (optionally with rotating stepper motor). The data can, for example, via a computer, which is connected to the laser scanner and USB, for example via Wifi is connected to the time-of-flight camera (s) and possibly stepper motors. The PC is primarily used to coordinate automatic laser scanning and ToF image acquisition.

2 zeigt ein mögliches erfindungsgemäßes Vorgehen zur Generierung valider Entfernungsdaten für ein neuronales Netz. Grundgedanke ist, dem System eine möglichst große Anzahl unterschiedlicher Szenerien mit unterschiedlichen Problemstellung in der Entfernungsmessung anzubieten. So können einige Szenarien beispielsweise Ecken und Kanten aufweisen, die eine Mehrwegausbreitung begünstigen. 2 shows a possible procedure according to the invention for generating valid distance data for a neural network. The basic idea is to offer the system as large a number of different scenarios as possible with different problems in the distance measurement. For example, some scenarios can have corners and edges that favor multipath propagation.

Als Referenzmesssystem kann beispielsweise ein 3D-Laserscanner verwendet werden, wobei aus der Scan-Punktewolke Entfernungsreferenzen bzw. ein Referenztiefenbild gewonnen werden kann. Aufgrund der punktförmigen Abtastung des Scanners, ist dieses Messverfahren typischerweise nicht von Mehrwegausbreitungen betroffen und liefert somit ein im Wesentlichen fehlerfreies Tiefenbild. Die Tof-Kamera hingegen ist aufgrund der flächigen Beleuchtung der Szene anfällig für Mehrwegausbreitungen. Ziel des erfindungsgemäßen Vorgehens ist es unter anderem, solche Effekte zu trainieren und die gelernten Daten in einem neuronalen Netz zur Verfügung zu stellen.A 3D laser scanner, for example, can be used as the reference measuring system, distance references or a reference depth image can be obtained from the scan point cloud. Due to the point-like scanning of the scanner, this measuring method is typically not affected by multipath propagation and thus provides an essentially error-free depth image. The Tof camera, on the other hand, is susceptible to multi-path propagation due to the flat lighting of the scene. The aim of the procedure according to the invention is, among other things, to train such effects and to make the learned data available in a neural network.

Nach der Grunddatenerfassung werden die Rohdaten so verarbeitet, dass die Tiefenbilder der Lichtlaufzeitkamera mit der Punktwolke des Laserscanners gemeinsam registriert werden können. Hierbei kann insbesondere auch eine extrinsische Kalibrierung vorteilhaft sein, um beispielsweise unerwünschte stereoskopische Effekte zu korrigieren. Diese Effekte treten aufgrund des endlichen Abstands zwischen Scanner und ToF-Sensor auf.After the basic data has been recorded, the raw data is processed in such a way that the depth images from the time-of-flight camera can be registered together with the point cloud from the laser scanner. In particular, an extrinsic calibration can also be advantageous here in order to correct undesired stereoscopic effects, for example. These effects occur due to the finite distance between the scanner and the ToF sensor.

Nach der Rohdatenpaarung kann eine Bildverarbeitung vorgesehen sein, die beispielsweise aus der Scan-Punktewolke bzw. Scan-Rohdaten ein Tiefenbild erzeugt. Das Scan-Tiefenbild kann hiernach beispielsweise mit den Roh-ToF-Bilder gepaart werden oder die Roh-ToF-Bilder werden in eine andere Repräsentation, wie beispielsweise einem Phasen- oder Entfernungsbild umgerechnet. Grundsätzlich lässt sich aus den Roh-ToF-Bildern auch zu einem späteren Zeitpunkt eine jeweils gewünschte Repräsentation berechnen.After the raw data pairing, image processing can be provided which, for example, generates a depth image from the scan point cloud or scan raw data. The scan depth image can then be paired with the raw ToF images, for example, or the raw ToF images are converted into another representation, such as a phase or distance image. In principle, the desired representation can also be calculated from the raw ToF images at a later point in time.

Schließlich gibt die Bildverarbeitung fehlerfreie Tiefenbilder mit zugeordneten ToF-Bildern aus. Eine zusätzliche Verarbeitung der ToF-Bilder ist wie oben beschrieben optional (Phase, Tiefe, Rauschfilter, Kalibrierung...).Finally, the image processing outputs error-free depth images with associated ToF images. Additional processing of the ToF images is optional as described above (phase, depth, noise filter, calibration ...).

Die anhand von vorzugsweise einigen Tausend erfassten unterschiedlichen Szenarien gewonnenen Trainingsdatenpaare werden in einer Datenbank bzw. einem neuronalen Netz abgelegt. Diese Datenbank ist für den jeweiligen ToF-Kameratyp universell und kann zur Verbesserung der Entfernungsmessungen herangezogen werdenThe training data pairs obtained on the basis of preferably several thousand recorded different scenarios are stored in a database or a neural network. This database is universal for the respective ToF camera type and can be used to improve the distance measurements

Ein wesentlicher Aspekt der Erfindung ist die Datenvermehrung. Dies bedeutet, dass die Menge der Trainingsdatenpaare pro Scan viel größer als 1 sein sollte. Bevorzugt sollten mehre Zehntausend Datenpaare erstellt werden. Vorzugsweise sollte jeder Scan >=10 Datenpaare liefern, um eine umfangreiche Datenbank für das Training aufzubauen. Mehrere Methoden sind geeignet, um dies zu erreichen:

  1. a) Montage der Lichtlaufzeitkamera auf einem Motor pro Rotationsachse. Eine Software ändert dann automatisch die Blickwinkel der Kamera durch Drehen der Motoren und nimmt so mehrere einzigartige Bilder pro Scan auf.
  2. b) Verwendung von mehreren Lichtlaufzeitkameras in verschiedenen Positionen und Winkeln, die auf dem Laserscanner montiert sind. Dies hat den zusätzlichen Vorteil, dass verschiedene Kameras mit unterschiedlichen Kalibrierfehlern verwendet werden können. Dadurch wird die statistische Wirksamkeit der Informationserweiterung (augmentation) erhöht.
  3. c) Aufnahme der ToF-Bilder bei verschiedenen Belichtungszeiten, um verschiedene Signal-Rausch-Verhältnisse darzustellen (z.B. 5 verschiedene Stufen).
An essential aspect of the invention is data replication. This means that the amount of training data pairs per scan should be much larger than 1. Preferably tens of thousands of data pairs should be created. Each scan should preferably provide> = 10 data pairs in order to build up a comprehensive database for training. Several methods are suitable to achieve this:
  1. a) Installation of the time-of-flight camera on one motor per axis of rotation. Software then automatically changes the camera's angle of view by rotating the motors and thus takes several unique images per scan.
  2. b) Use of several time-of-flight cameras in different positions and angles, which are mounted on the laser scanner. This has the additional advantage that different cameras with different calibration errors can be used. This increases the statistical effectiveness of information augmentation.
  3. c) Recording the ToF images at different exposure times in order to show different signal-to-noise ratios (eg 5 different levels).

Alle Methoden können kombiniert werden, um die bestmögliche Datenverstärkung zu erreichen. Für einen Laserscanner mit einem Sichtfeld (fov) von 300°×360° und eine ToF-Kamera mit 45°x60° fov können wir ~36 eindeutige Blickpunkte abrufen. Bei 5 Belichtungszeiten erhalten wir 5x36=180 Trainingsmuster pro Scan, so dass eine Datenbank von 100x180 = 18k Trainingspaaren entsteht.All methods can be combined to achieve the best possible data amplification. For a laser scanner with a field of view (fov) of 300 ° × 360 ° and a ToF camera with 45 ° x60 ° fov, we can call up ~ 36 unique points of view. With 5 exposure times we get 5x36 = 180 training samples per scan, so that a database of 100x180 = 18k training pairs is created.

Wie in 1 gezeigt, erhält das Modell des maschinellen Lernens Trainingspaare aus der Datenbank. Die Eingabe des Modells erfolgt entweder in Form von rohen ToF-Bildern oder ggf. weiterbearbeiteten Bildern (Phase, Tiefe, ...). Das Modell gibt Tiefenbilder (oder Bilder auf niedrigerer Ebene, wie Phase, Rohdaten, ...) aus. Das Training an experimentellen Daten ist ein weiterer entscheidender Teil der Erfindung. Diese Methode führt zu einer besseren Verallgemeinerung des maschinellen Lernmodells, da keine Annäherungen oder Annahmen (z.B. nur Lambertsche Streuung, reines Gaußsches Rauschen) gemacht werden müssen, um synthetische ToF-Bilder zu berechnen. Daher ist das Training an experimentellen Daten effizienter und führt zu besser trainierten Modellen (unabhängig von der konkreten Modellarchitektur).As in 1 As shown, the machine learning model receives training pairs from the database. The model is entered either in the form of raw ToF images or, if necessary, further processed images (phase, depth, ...). The model outputs depth images (or images on a lower level, such as phase, raw data, ...). Training on experimental data is another crucial part of the invention. This method leads to a better generalization of the machine learning model, since no approximations or assumptions (e.g. only Lambertian scattering, pure Gaussian noise) have to be made in order to calculate synthetic ToF images. Therefore, training on experimental data is more efficient and leads to better trained models (regardless of the specific model architecture).

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 19704496 C2 [0002]DE 19704496 C2 [0002]

Claims (2)

Verfahren zur Generierung von Tiefenbildpaaren für eine Datenbank in Gestalt eines neuronalen Netzes für eine Lichtlaufzeitkamera, die nach dem Phasenmessprinzip arbeitet, mit einem Referenzentfernungsmesssystem zur Erfassung von Referenztiefenbildern und mit wenigstens einer Lichtlaufzeitkamera, wobei das Referenzentfernungsmesssystem einen größeren Erfassungsbereich und eine höhere räumliche Auflösung aufweist als die wenigstens eine Lichtlaufzeitkamera (ToF-Kamera), wobei der Erfassungsbereich der wenigstens einen Lichtlaufzeitkamera innerhalb des Erfassungsbereich des Referenzentfernungsmesssystems liegt, - wobei in einem Erfassungsschritt die Lichtlaufzeitkamera und das Referenzentfernungsmesssystem eine dreidimensionale Szene erfassen, und ein Roh-ToF-Bild der Lichtlaufzeitkamera zusammen mit den Rohdaten des Referenzmesssystem registriert werden,. wobei ausgehend von den Rohdaten des Referenzmesssystems ein Referenztiefenbild mit einem Roh-ToF-Bild oder einem verarbeiteten ToF-Tiefenbild zu einem Trainingsdatenpaar zusammengefasst wird, wobei die Trainingsdatenpaare in einer Datenbank in Form eines neuronalen Netzes abgelegt werden.Method for generating depth image pairs for a database in the form of a neural network for a time-of-flight camera that works according to the phase measurement principle, with a reference distance measuring system for the acquisition of reference depth images and with at least one time-of-flight camera, wherein the reference distance measuring system has a larger detection area and a higher spatial resolution than the at least one time-of-flight camera (ToF camera), wherein the detection area of the at least one time of flight camera lies within the detection area of the reference distance measuring system, - wherein in one detection step the time of flight camera and the reference distance measuring system detect a three-dimensional scene, and a raw ToF image from the time-of-flight camera is recorded together with the raw data from the reference measurement system. where, based on the raw data of the reference measurement system, a reference depth image is combined with a raw ToF image or a processed ToF depth image to form a training data pair, the training data pairs being stored in a database in the form of a neural network. Lichtlaufzeitkamera, die zur Bestimmung von Entfernungswerten auf die Datenbank mit dem nach dem vorgenannten Verfahren gewonnen Trainings-Entfernungsdaten zurückgreift.Time-of-flight camera that accesses the database with the training distance data obtained according to the aforementioned method to determine distance values.
DE102020101706.5A 2020-01-24 2020-01-24 Method for generating depth image pairs for a database Withdrawn DE102020101706A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020101706.5A DE102020101706A1 (en) 2020-01-24 2020-01-24 Method for generating depth image pairs for a database

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020101706.5A DE102020101706A1 (en) 2020-01-24 2020-01-24 Method for generating depth image pairs for a database

Publications (1)

Publication Number Publication Date
DE102020101706A1 true DE102020101706A1 (en) 2021-07-29

Family

ID=76753314

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020101706.5A Withdrawn DE102020101706A1 (en) 2020-01-24 2020-01-24 Method for generating depth image pairs for a database

Country Status (1)

Country Link
DE (1) DE102020101706A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (en) 1996-09-05 2001-02-15 Rudolf Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
US20160239725A1 (en) 2015-02-12 2016-08-18 Mitsubishi Electric Research Laboratories, Inc. Method for Denoising Time-of-Flight Range Images
US20170262768A1 (en) 2016-03-13 2017-09-14 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning
EP3291172A1 (en) 2016-09-06 2018-03-07 Audi Ag Method for calculating final image data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (en) 1996-09-05 2001-02-15 Rudolf Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
US20160239725A1 (en) 2015-02-12 2016-08-18 Mitsubishi Electric Research Laboratories, Inc. Method for Denoising Time-of-Flight Range Images
US20170262768A1 (en) 2016-03-13 2017-09-14 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning
EP3291172A1 (en) 2016-09-06 2018-03-07 Audi Ag Method for calculating final image data

Similar Documents

Publication Publication Date Title
DE102018108027B4 (en) Object detection device
DE112016001560T5 (en) Method and system for real-time motion artifact handling and noise removal for runtime sensor images
DE102015108825B4 (en) TOF camera with location sensor system
DE112010000019T5 (en) Method for optically scanning and measuring an environment
DE102014104712A1 (en) Registration of a clustered scene with visualized clusters
DE102021112880A1 (en) POSITIONING METHOD AND SYSTEM THAT COMBINES MARKER POINT POSITIONING AND INTELLIGENT BACKWARD POSITIONING
DE202017104518U1 (en) Testing 3D Imaging Systems
DE102017102227A1 (en) Method and device for automatic identification of a point of interest in a depth measurement on a viewed object
WO2014139504A1 (en) Apparatus for volumetrically measuring an object in the body of an animal for slaughter
DE102018108936A1 (en) Form measuring system and shape measuring method
DE3102880C2 (en) Method and device for calibrating scanners
DE102015102928A1 (en) System and method for selecting a two-dimensional region of interest using a distance sensor.
DE102016002186A1 (en) Method and image processing device for determining a geometric measured variable of an object
DE112017003426T5 (en) Method and system for reconstructing a three-dimensional representation
DE102020101706A1 (en) Method for generating depth image pairs for a database
DE102011056948A1 (en) Method for calibrating a camera to a position sensor
DE102021128537A1 (en) Time-of-flight camera and method for operating one
DE102014104713A1 (en) Register a clustered scene with pairs of scans
DE102019220616B4 (en) PROCEDURE FOR SIMULTANEOUS LOCATION AND IMAGE
DE102020204761A1 (en) EVALUATION OF THE MODULATION TRANSFER FUNCTION FOR RED / CLEAR FILTERED OPTICAL DEVICES
DE102021109386B4 (en) Method for correcting depth images of a time-of-flight camera
DE102015102128A1 (en) Laser scanner and method for measuring an object
DE3127146A1 (en) Method for correcting image errors (aberrations) caused by echo-time effects in the ultrasonic scanning of objects, in particular in ultrasonic reflection computer tomography and in the compound-B scanning method
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device
DE112022001051T5 (en) Grayscale image generating device, grayscale image correction method and grayscale image correction program

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee