DE102021128537A1 - Time-of-flight camera and method for operating one - Google Patents
Time-of-flight camera and method for operating one Download PDFInfo
- Publication number
- DE102021128537A1 DE102021128537A1 DE102021128537.2A DE102021128537A DE102021128537A1 DE 102021128537 A1 DE102021128537 A1 DE 102021128537A1 DE 102021128537 A DE102021128537 A DE 102021128537A DE 102021128537 A1 DE102021128537 A1 DE 102021128537A1
- Authority
- DE
- Germany
- Prior art keywords
- time
- machine learning
- raw data
- flight
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
- G01S7/4876—Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zum Betreiben einer Lichtlaufzeitkamera, die einen Lichtlaufzeitsensor mit Lichtlaufzeitpixel umfasst, mit den Schritten:- Erfassung von Rohdaten mit Hilfe des Lichtlaufzeitsensors,- Korrektur der Rohdaten,indem die Rohdaten des Lichtlaufzeitsensors einem hinsichtlich Mehrwegausbreitung trainierten Modell maschinellen Lernens zugeführt werden und eine Inferenz des Modells maschinellen Lernens zur Korrektur der Rohdaten verwendet wird,wobei das Modell maschinellen Lernens mit experimentellen mehrwegfehlerbehafteten Trainingsdatenpaare trainiert wurde,- Bereitstellung der korrigierten Rohdaten für eine nachfolgende Ermittlung von Entfernungswerten.Method for operating a time-of-flight camera that includes a time-of-flight sensor with time-of-flight pixels, with the steps: - Acquisition of raw data using the time-of-flight sensor, - Correction of the raw data by the raw data of the time-of-flight sensor being fed to a machine learning model trained with regard to multipath propagation and an inference of the model machine learning is used to correct the raw data, the machine learning model having been trained with experimental multipath error-prone training data pairs,- providing the corrected raw data for a subsequent determination of distance values.
Description
Die Erfindung betrifft eine Lichtlaufzeitkamera und ein Verfahren zum Betreiben einer solchen, eine Verwendung und einen Messaufbau gemäß Gattung der unabhängigen Ansprüche.The invention relates to a time-of-flight camera and a method for operating such a camera, a use and a measurement setup according to the species of the independent claims.
Lichtlaufzeitkameras bzw. Lichtlaufzeitkamerasysteme betreffen insbesondere alle Lichtlaufzeit bzw. TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der
Aus der US 2017 / 0 262 768 A1 ist eine Vorrichtung zur Entfernungsbestimmung bekannt, bei der Entfernungen mithilfe eines Modells maschinellen Lernens ermittelt werden. Dieses Modell wurde mit wenigstens einem simulierten Rohdatenpaar trainiert. Das Modell ist so trainiert, dass es in einem einzigen Schritt ausgehend von den gespeicherten Rohdaten des Lichtlaufzeitsensor Entfernungswerte bestimmt, wobei das Modell maschinellen Lernens mithilfe simulierter Rohdaten, die simulierte Mehrwegausbreitungen beinhalten, trainiert wurde.A device for determining distances is known from US 2017/0 262 768 A1, in which distances are determined using a machine learning model. This model was trained with at least one pair of simulated raw data. The model is trained to determine distance values in a single step from the stored raw time-of-flight sensor data, with the machine learning model being trained using simulated raw data containing simulated multipath propagations.
Die
Aufgabe der Erfindung ist es, die Genauigkeit einer Lichtlaufzeitkamera zu verbessern.The object of the invention is to improve the accuracy of a time-of-flight camera.
Die Aufgabe wird durch das erfindungsgemäße Verfahren gelöst.The object is achieved by the method according to the invention.
Vorteilhaft ist ein Verfahren zum Betreiben einer Lichtlaufzeitkamera, die einen Lichtlaufzeitsensor mit Lichtlaufzeitpixel umfasst, vorgesehen, mit den Schritten:
- - Erfassung von Rohdaten mit Hilfe des Lichtlaufzeitsensors,
- - Korrektur der Rohdaten,
indem die Rohdaten des Lichtlaufzeitsensors einem hinsichtlich Mehrwegausbreitung trainierten Modell maschinellen Lernens zugeführt werden und eine Inferenz des Modells maschinellen Lernens zur Korrektur der Rohdaten verwendet wird,
wobei das Modell maschinellen Lernens mit experimentellen
mehrwegfehlerbehafteten Trainingsdatenpaare trainiert wurde,
- - Bereitstellung der korrigierten Rohdaten für eine nachfolgende Ermittlung von Entfernungswerten.
- - Acquisition of raw data using the time-of-flight sensor,
- - correction of the raw data,
by feeding the raw data of the time-of-flight sensor to a machine learning model trained with regard to multipath propagation and using an inference of the machine learning model to correct the raw data,
where the machine learning model with experimental
was trained with multipath error-prone training data pairs,
- - Provision of the corrected raw data for a subsequent determination of distance values.
Dieses Vorgehen hat den Vorteil, dass vor einer Weiterleitung der Rohdaten die Rohdaten im Hinblick auf Artefakte, die durch eine Mehrwegausbreitung auftreten, verbessert werden können. Den nachfolgenden Prozessschritten stehen dann korrigierte Rohdaten zur Verfügung, ohne dass die nachfolgenden Prozessschritte zusätzlich angepasst werden müssen.This procedure has the advantage that, before the raw data is forwarded, the raw data can be improved with regard to artefacts that occur as a result of multipath propagation. Corrected raw data is then available for the subsequent process steps without the subsequent process steps having to be additionally adjusted.
Bevorzugt erfolgt eine nachfolgende Ermittlung von Entfernungswerten ohne Verwendung eines Modells maschinellen Lernens ausgehend von den korrigierten Rohdaten erfolgt.A subsequent determination of distance values preferably takes place without using a machine learning model, starting from the corrected raw data.
Dieses Vorgehen hat den Vorteil, dass das Modell maschinellen Lernens nur für die Ermittlung und Kompensation von Mehrwegsausbreitungen herangezogen wird, während die Berechnung der Entfernung beispielsweise nach typischen und bekannten Algorithmen erfolgt.This procedure has the advantage that the machine learning model is only used to determine and compensate for multipath propagations, while the distance is calculated, for example, using typical and known algorithms.
Ferner ist es nützlich das Modell maschinellen Lernens als neuronales Faltungsnetz ausgebildet.Furthermore, the machine learning model designed as a convolutional neural network is useful.
Weiterhin ist es von Vorteil, eine Lichtlaufzeitkamera zur Durchführung eines der vorgenannten Verfahren auszubilden.Furthermore, it is advantageous to construct a time-of-flight camera for carrying out one of the aforementioned methods.
Besonders nützlich ist es, das Modell maschinellen Lernens, das nach einem der der vorgenannten Verfahren trainiert wurde, als Kostenfunktion für das Training weiterer Modelle maschinellen Lernens heranzuziehen.It is particularly useful to use the machine learning model that was trained using any of the above methods as a cost function for training other machine learning models.
Hilfreich ist zudem ein Messaufbau, mit dem Trainingsdaten für die Verwendung in der Lichtlaufzeitkamera experimentell ermittelt werden.A measurement setup with which training data for use in the time-of-flight camera can be experimentally determined is also helpful.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention is explained in more detail below using exemplary embodiments with reference to the drawings.
Es zeigen schematisch:
-
1 einen Aufbau zur Erfassung und Einlernen valider Rohdaten, -
2 eine erfindungsgemäße Datenerfassung und -aufbereitung -
3 ein Training eines Modells maschinellen Lernens, -
4 eine Verwendung des Modells maschinellen Lernens bei der Mehrwegfehlerabschätzung.
-
1 a structure for recording and teaching valid raw data, -
2 an inventive data acquisition and processing -
3 a training of a machine learning model, -
4 a use of the machine learning model in multipath error estimation.
Die verwendete Lichtlaufzeitkamera misst phasenverschobene periodische Funktionen, wobei die Phase proportional zur Tiefe d ist. Es ist üblich, diese Messungen als Real- (Re) und Imaginärteil (Im) eines komplexen Sinussignals (hier als Rohdaten bezeichnet) zu gestalten. Die Phase wird definiert als:
Die Tiefe wird dann berechnet als:
Der eindeutige Bereich (ur) einer ToF-Kamera ist durch die Verwendung ihrer Modulationsfrequenz (f) begrenzt.
Mit c = Lichtgeschwindigkeit.The unique range (ur) of a ToF camera is limited by the use of its modulation frequency (f).
With c = speed of light.
Die Tiefenmessung leidet unter mehreren Fehlern. Insbesondere Rauschen, Mehrweginterferenzen und so genannte, phase unwrapping'' (Phasenzuordnungs) - Fehler müssen berücksichtigt werden.
- a) Das Rauschen wird in der Regel mit räumlichen, kernelbasierten (adaptiven-) Filterverfahren reduziert. Auch eine zeitliche Filterung wird verwendet.
- b) Mehrwege-Interferenz entsteht durch Mehrfachreflexionen in der Szene, bevor das Licht zur Kamera zurückkehrt. Dies führt zu überbestimmten Tiefenwerten und ist stark szenenabhängig. Derzeit ist kein klassischer Algorithmus in der Lage, diesen Fehler in Echtzeit zu korrigieren.
- c) Die Fehler durch die Phasenzuordnung (phase unwrapping) werden typischerweise mit dem chinesischen Restwert Theorem und mehreren Frequenzen gelöst. Fehler in der Zuordnung zu einem der möglichen Eindeutigkeitsbereichen können insbesondere durch Rauschen entstehen. Der maximale Bereich der Messung ist zudem noch durch das kleinste gemeinsame Vielfache der eindeutigen Bereiche der verwendeten Modulationsfrequenzen begrenzt.
- a) The noise is usually reduced with spatial, kernel-based (adaptive) filtering methods. Temporal filtering is also used.
- b) Multipath interference is caused by multiple reflections in the scene before the light returns to the camera. This leads to overdetermined depth values and is highly scene-dependent. No classic algorithm is currently able to correct this error in real time.
- c) The phase unwrapping errors are typically solved using the Chinese remainder theorem and multiple frequencies. Errors in the assignment to one of the possible unambiguous areas can arise in particular from noise. The maximum range of the measurement is also limited by the smallest common multiple of the unambiguous ranges of the modulation frequencies used.
Modelle des maschinellen Lernens sind in der Lage, mit diesen Problemen umzugehen, benötigen jedoch große Mengen an Trainingsdaten mit bekannten fehlerfreien Tiefendaten. Im Gegensatz zu oft verwendeten synthetischen Trainingsdaten haben experimentelle Trainingsdaten keine sogenannte Domänenlücke zwischen den Daten die ein Modell maschinellen Lernens im Training sieht und den Daten die eine echte Lichtlaufzeitkamera zur Inferenz misst. Daher ist die Genauigkeit des Modells maschinellen Lernens beim Training mit experimentellen Daten erheblich höher als bei der Verwendung synthetischer Daten.Machine learning models are able to deal with these problems but require large amounts of training data with known sound depth data. In contrast to synthetic training data that is often used, experimental training data does not have a so-called domain gap between the data that a machine learning model sees in training and the data that a real time-of-flight camera measures for inference. Therefore, the accuracy of the machine learning model when trained on experimental data is significantly higher than when using synthetic data.
Wie eingangs beschrieben und in
Dieser Laserscanner ist hier ein Referenzmesssystem und wird verwendet, um aus der Scan-Punktewolke ein Referenzrohdatum zu gewinnen. Aufgrund der punktförmigen Abtastung des Scanners ist dieses Messverfahren typischerweise nicht von Mehrwegausbreitungen betroffen und liefert somit ein im Wesentlichen fehlerfreies Tiefenbild. Ebenso existieren keine Phasenzuordnungsfehler und das Rauschen ist sehr gering. Die Lichtlaufzeitkamera hingegen ist (neben anderen Messfehlern) aufgrund der flächigen Beleuchtung der Szene insbesondere anfällig für Mehrwegausbreitungen. Ziel des Vorgehens ist es unter anderem, solche Effekte zu trainieren und die gelernten Daten in einem neuronalen Netz bzw. Modell maschinellen Lernens (machine learning model) zur Verfügung zu stellen.This laser scanner is a reference measurement system here and is used to obtain a raw reference data item from the scan point cloud. Due to the punctiform sampling of the scanner, this measurement method is typically not affected by multipath propagations and thus provides an essentially error-free depth image. Likewise, there are no phase assignment errors and the noise is very low. The time-of-flight camera, on the other hand, is particularly susceptible to multipath propagation (besides other measurement errors) due to the planar illumination of the scene. The aim of the procedure is, among other things, to train such effects and to make the learned data available in a neural network or machine learning model.
Wie in
- 1. Eine extrinsische Kalibration der Lichtlaufzeitkamera mit dem Laserscanner liefert eine fehlerfreie Punktewolke aus der Perspektive der Lichtlaufzeitkamera (gemessen vom Laserscanner) und ein Rohdatum aus der Messung der Lichtlaufzeitkamera.
- 2. Die resultierende fehlerfreie Punktwolke wird durch Rasterung in ein Tiefenbild gewandelt und mit folgender Formel in Lichtlaufzeitrohdaten berechnet:
- 1. An extrinsic calibration of the time-of-flight camera with the laser scanner provides an error-free point cloud from the perspective of the time-of-flight camera (measured by the laser scan ner) and a raw data from the measurement of the time-of-flight camera.
- 2. The resulting error-free point cloud is converted into a depth image by rasterization and calculated in raw light time data with the following formula:
Die fehlerfreien Rohdaten werden hier als Real- und Imaginärteil (red und imd) definiert. Die dazu passenden (fehlerbehafteten) Rohdaten der Lichtlaufzeitkamera werden als re und im bezeichnet und bilden somit das Trainingsdatenpaar.The error-free raw data is defined here as a real and imaginary part (red and imd). The matching (erroneous) raw data from the time-of-flight camera are referred to as re and im and thus form the training data pair.
Die Trainingsdatenpaare werden dann zum Training eines maschinellen Lernmodells verwendet. Dieses Modell erhält Rohdaten als Eingabe und gibt korrigierte Rohdaten aus.The training data pairs are then used to train a machine learning model. This model takes raw data as input and outputs corrected raw data.
Grundgedanke der Datengenerierung ist, dem System eine möglichst große Anzahl unterschiedlicher Szenerien mit unterschiedlichen Problemstellungen in der Szenenvermessung anzubieten. So können einige Szenarien beispielsweise Ecken und Kanten aufweisen, die eine Mehrwegausbreitung begünstigen.The basic idea of the data generation is to offer the system the largest possible number of different scenarios with different problems in the scene measurement. For example, some scenarios may have corners and edges that favor multipath propagation.
Die anhand von vorzugsweise einigen Tausend erfassten unterschiedlichen Szenarien gewonnenen Trainingsdatenpaare werden in einer Datenbank abgelegt. The pairs of training data obtained from preferably a few thousand different scenarios are stored in a database.
Diese Datenbank ist für den jeweiligen Lichtlaufzeitkameratyp universell verwendbar und kann zum Training eines Modells masch. Lernens zur Rohdatenverbesserung herangezogen werden.This database can be used universally for the respective time-of-flight camera type and can be used to train a model. learning to improve raw data.
Ein wesentlicher Nachteil von experimentellen Trainingsdaten ist der hohe Zeitaufwand, um eine angemessene Menge an Trainingsdatenpaaren zu generieren. Unter diesem Aspekt ist die Datenvermehrung besonders wichtig: Dies bedeutet, dass die Menge der Trainingsdatenpaare pro Scan so groß wie möglich sein sollte. Bevorzugt sollten mehre Zehntausend Trainingsdatenpaare erstellt werden. Daher sollte jeder Scan >=10 Datenpaare liefern, um mit vertretbarem Zeitaufwand eine umfangreiche Datenbank für das Training aufzubauen. Mehrere Methoden sind geeignet, um dies zu erreichen:
- a) Montage der Lichtlaufzeitkamera auf einem Motor pro Rotationsachse. Eine Software ändert dann automatisch die Blickwinkel der Kamera durch Drehen der Motoren und nimmt so mehrere einzigartige Bilder pro Scan auf.
- b) Verwendung von mehreren Lichtlaufzeitkameras in verschiedenen Positionen und Winkeln, die auf dem Laserscanner montiert sind. Dies hat den zusätzlichen Vorteil, dass verschiedene Kameras mit unterschiedlichen Kalibrierfehlern verwendet werden können. Dadurch wird die statistische Wirksamkeit der Informationserweiterung (augmentation) erhöht.
- c) Aufnahme der Lichtlaufzeitbilder bei verschiedenen Belichtungszeiten, um verschiedene Signal-Rausch-Verhältnisse darzustellen (z.B. 5 verschiedene Stufen).
- a) Mounting the time-of-flight camera on one motor per axis of rotation. Software then automatically changes the camera's viewing angles by rotating the motors, capturing multiple unique images per scan.
- b) Use of multiple time-of-flight cameras in different positions and angles mounted on the laser scanner. This has the additional advantage that different cameras with different calibration errors can be used. This increases the statistical effectiveness of the information augmentation.
- c) Recording of the time-of-flight images at different exposure times to show different signal-to-noise ratios (eg 5 different levels).
Alle Methoden können kombiniert werden, um die bestmögliche Datenverstärkung zu erreichen. Für einen Laserscanner mit einem Sichtfeld (fov) von 300°x360° und eine Lichtlaufzeitkamera mit 45° x 60° fov können wir -36 eindeutige Blickpunkte abrufen. Bei 5 Belichtungszeiten erhalten wir 5x36=180 Trainingsmuster pro Scan, so dass bei 100 Messvorgängen eine Datenbank von 100x180 = 18k Trainingspaaren entsteht.All methods can be combined to achieve the best possible data amplification. For a laser scanner with a field of view (fov) of 300°x360° and a time-of-flight camera with a 45°x60° fov, we can get -36 unique viewpoints. With 5 exposure times we get 5x36=180 training patterns per scan, so that with 100 measurement processes a database of 100x180 = 18k training pairs is created.
Wie in
Eine Lichtlaufzeitkamera misst auf jedem Pixel die Entfernung von Kamera zum Objekt in einer Szene. Jedoch wird die Messung durch mehrere Reflektionen in der Szene verfälscht. Dieser Fehler heißt Mehrwegeinterferenzfehler (MPI-Fehler). Daher wird in der Erfindung ein Modell maschinellen Lernens trainiert, um den MPI-Fehler in der Messung der Lichtlaufzeitkamera abzuschätzen. Potenzielle Anwendungen sind: Ausblenden der fehlerbehafteten Pixel (Flagging), Korrektur der fehlerbehafteten Pixel oder Einsatz dieses Modells als Kostenfunktion in anderen Trainingsroutinen.A time-of-flight camera measures the distance from the camera to the object in a scene on each pixel. However, the measurement is falsified by several reflections in the scene. This error is called multipath interference error (MPI error). Therefore, in the invention, a machine learning model is trained to estimate the MPI error in the time-of-flight camera measurement. Potential applications are: flagging the defective pixels, correcting the defective pixels, or using this model as a cost function in other training routines.
Mehrwegeinterferenzfehler werden durch mehrfache Reflektionen in der Szene hervorgerufen. Dadurch ist der Lichtpfad länger als der direkte Weg und erhöht somit die Distanz auf dem Pixel. Weiterhin ist dieser Fehler in höchstem Maß szenenabhängig, da er von der Geometrie in der Szene abhängt. Die Anteile von konstruktiver und destruktiver Interferenz der indirekten Pfade hängen wesentlich von der Modulationsfrequenz ab, was zu einer starken Frequenzabhängigkeit dieses Fehlers führt.Multipath interference errors are caused by multiple reflections in the scene. As a result, the light path is longer than the direct path and thus increases the distance on the pixel. Furthermore, this error is highly scene dependent since it depends on the geometry in the scene. The proportions of constructive and destructive inter ference of the indirect paths depend essentially on the modulation frequency, which leads to a strong frequency dependence of this error.
Eine Lichtlaufzeitmessung M lässt sich in Teile aus direktem und indirektem Pfad trennen:
Der direkte Pfad Md bezeichnet die Messung ohne MPI-Fehler.The direct path M d denotes the measurement without MPI error.
Kennt man Md und M durch eine MPI-freie Messung so ergibt sich der Wahre MPI-Fehler zu
Es wird die Messung Md über ein Gerät ohne MPI-Fehler (Laserscanner) und M durch besonders rauscharme Messungen einer Lichtlaufzeitkamera bestimmt wird.The measurement M d is determined using a device without MPI errors (laser scanner) and M is determined using particularly low-noise measurements of a time-of-flight camera.
Wie in
Selbstverständlich können auch andere Kosten- oder Optimierungsfunktionen herangezogen werden.Of course, other cost or optimization functions can also be used.
Beim Modell maschinellen Lernens eignen sich besonders neuronale Faltungsnetze.Neural convolution networks are particularly suitable for the machine learning model.
Anhand der Kostenfunktion werden dann die Gewichte und Vorspannungen des Modells maschinellen Lernens mit einem geeigneten Optimierungsverfahren (z.B. Adam) im Fehlerrückführungsverfahren angepasst.Based on the cost function, the weights and biases of the machine learning model are then adjusted using a suitable optimization method (e.g. Adam) in the error feedback method.
Am Ende des Trainingsvorganges hat man ein trainiertes Modell, welches den MPI-Fehler in hoher Genauigkeit abschätzt.At the end of the training process, you have a trained model that estimates the MPI error with a high level of accuracy.
Wie in
Ferner kann das so trainierte Modell vorteilhaft wiederum als Kostenfunktion für das Training weiterer Modelle maschinellen Lernens herangezogen werden. Insbesondere kann es auch vorgesehen sein, Modelle mit unterschiedlichem Trainingsgraden für das Training weiterer Modelle heranzuziehen.Furthermore, the model trained in this way can advantageously in turn be used as a cost function for training further models of machine learning. In particular, it can also be provided that models with different degrees of training are used for the training of further models.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 19704496 C2 [0002]DE 19704496 C2 [0002]
- EP 3832351 A1 [0004]EP 3832351 A1 [0004]
Claims (7)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020129716 | 2020-11-11 | ||
DE102020129716.5 | 2020-11-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021128537A1 true DE102021128537A1 (en) | 2022-05-12 |
Family
ID=81256127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021128537.2A Pending DE102021128537A1 (en) | 2020-11-11 | 2021-11-03 | Time-of-flight camera and method for operating one |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021128537A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496C2 (en) | 1996-09-05 | 2001-02-15 | Rudolf Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
EP3832351A1 (en) | 2019-12-03 | 2021-06-09 | Sony Semiconductor Solutions Corporation | Apparatuses and methods for training a machine learning network for use with a time-of-flight camera |
-
2021
- 2021-11-03 DE DE102021128537.2A patent/DE102021128537A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496C2 (en) | 1996-09-05 | 2001-02-15 | Rudolf Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
EP3832351A1 (en) | 2019-12-03 | 2021-06-09 | Sony Semiconductor Solutions Corporation | Apparatuses and methods for training a machine learning network for use with a time-of-flight camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016107959B4 (en) | Structured light-based multipath erasure in ToF imaging | |
DE69726421T2 (en) | PROJECTOR WITH A CIRCUIT AND METHOD FOR AUTOMATICALLY ADJUSTING THE PROJECTOR | |
DE102017115028A1 (en) | Method, apparatus and apparatus for generating target recognition information | |
DE102015108825B4 (en) | TOF camera with location sensor system | |
DE102015000386A1 (en) | Apparatus and method for measuring a three-dimensional shape and non-transitory computer-readable storage medium | |
DE102021102233B4 (en) | Device and method for correspondence analysis in images | |
DE112010000019T5 (en) | Method for optically scanning and measuring an environment | |
DE102010000075A1 (en) | measuring device | |
DE102017102227A1 (en) | Method and device for automatic identification of a point of interest in a depth measurement on a viewed object | |
DE112008000723T5 (en) | Apparatus and method for testing the edge of a semiconductor wafer | |
DE202017104518U1 (en) | Testing 3D Imaging Systems | |
WO2002041128A2 (en) | Measuring method for determining the position of an object in front of a screen and a device for carrying out said method | |
DE102012023119A1 (en) | Distance measuring device and method | |
DE19732883A1 (en) | Distance measurement method for vehicle anti-collision system | |
DE102019003871A1 (en) | Distance measuring device with polarization filter | |
DE102021109386B4 (en) | Method for correcting depth images of a time-of-flight camera | |
DE102021128537A1 (en) | Time-of-flight camera and method for operating one | |
DE102011056948A1 (en) | Method for calibrating a camera to a position sensor | |
DE102021111602A1 (en) | Computer-implemented method for correcting artifacts in measurement data generated by a time-of-flight 3D sensor, a corresponding computer program, a corresponding computer-readable medium and a PMD detector | |
DE102020123671B4 (en) | Method and device for dynamic expansion of a time-of-flight camera system | |
DE112022001773T5 (en) | Systems and methods for determining an adaptive region of interest (ROI) for calculating image metrics | |
DE102020101706A1 (en) | Method for generating depth image pairs for a database | |
DE102020201379A1 (en) | CONTOUR RECOGNITION DEVICE, CONTOUR RECOGNITION SYSTEM AND CONTOUR RECOGNITION METHOD | |
DE102016220290A1 (en) | Method and apparatus for detecting a direct light reflection beam from an object to a light sensor | |
DE102020204761A1 (en) | EVALUATION OF THE MODULATION TRANSFER FUNCTION FOR RED / CLEAR FILTERED OPTICAL DEVICES |