DE102021109386A1 - Method for correcting depth images of a time-of-flight camera - Google Patents
Method for correcting depth images of a time-of-flight camera Download PDFInfo
- Publication number
- DE102021109386A1 DE102021109386A1 DE102021109386.4A DE102021109386A DE102021109386A1 DE 102021109386 A1 DE102021109386 A1 DE 102021109386A1 DE 102021109386 A DE102021109386 A DE 102021109386A DE 102021109386 A1 DE102021109386 A1 DE 102021109386A1
- Authority
- DE
- Germany
- Prior art keywords
- consistency
- unsupervised
- cost function
- mask
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 39
- 238000010801 machine learning Methods 0.000 claims abstract description 16
- 238000005259 measurement Methods 0.000 claims abstract description 7
- 230000010363 phase shift Effects 0.000 claims abstract description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000007792 addition Methods 0.000 description 4
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 210000002023 somite Anatomy 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
Abstract
1. Verfahren zur Korrektur von Tiefenbilder einer Lichtlaufzeitkamera, die eine Phasenverschiebung zwischen einem emittierten und empfangenen modulierten Lichts ermittelt,
wobei in wenigstens zwei Phasenmessungen das Licht mit unterschiedlichen Modulationsfrequenzen emittiert wird,
bei dem in einer unüberwachten Trainingsphase eines Modells maschinellen Lernens eine unüberwachte Gesamt-Konsistenz-Kostenfunktion optimiert wird. Wobei im Betrieb der Lichtlaufzeitkamera ein Tiefenbild anhand des trainierten Modells maschinellen Lernens ermittelt wird.
1. A method for correcting depth images of a time-of-flight camera that determines a phase shift between an emitted and received modulated light,
whereby the light is emitted with different modulation frequencies in at least two phase measurements,
in which an unsupervised overall consistency cost function is optimized in an unsupervised training phase of a machine learning model. Whereby, when the time-of-flight camera is in operation, a depth image is determined using the trained machine learning model.
Description
Mit Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasystem sollen hier insbesondere Systeme umfasst sein, die Entfernungen aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit- bzw. ToF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der
Aus der
Die
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.The object of the invention is to improve the distance measurement of a time-of-flight camera system.
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Verfahren zur Korrektur von Tiefenbildern einer Lichtlaufzeitkamera gelöst.The object is achieved in an advantageous manner by the method according to the invention for correcting depth images of a time-of-flight camera.
Erfindungsgemäß ist ein Verfahren vorgesehen, zur Korrektur von Tiefenbilder einer Lichtlaufzeitkamera, die eine Phasenverschiebung zwischen einem emittierten und empfangenen modulierten Lichts ermittelt,
wobei in wenigstens zwei Phasenmessungen das Licht mit unterschiedlichen Modulationsfrequenzen emittiert wird,
bei dem in einer unüberwachten Trainingsphase folgende Schritte durchgeführt werden:
- - Optimierung einer unüberwachten Gesamt-Konsistenz-Kostenfunktion durch,
- a) Ermittlung einer unüberwachten trigonometrischen Konsistenz-Kostenfunktion durch Herstellung einer Konsistenz der Rohdaten hinsichtlich trigonometrischen Eigenschaften (g1 Ktrig),
- b) Ermittlung einer unüberwachten Distanz-Konsistenz-Kostenfunktion durch Herstellung einer Konsistenz der Rohdaten hinsichtlich Distanzen (g2 Kd) zu wenigstens zwei unterschiedlichen Modulationsfrequenzen,
- c) Einmalige Bildung einer Maske ausgehend von den in Schritt a) und b) ermittelten unüberwachten trigonometrischen und Distanz-Konsistenz-Kostenfunktion, um bereits konsistente Bildbereiche zu identifizieren,
- d) Ermittlung einer unüberwachten Abweichungs-Konsistenz-Kostenfunktion (g3 Kabs) ausgehend von der Maske gemäß Schritt c)
- e) Optimierung von Gewichten und Vorspannungen eines Modells maschinellen Lernens anhand der aus den Schritten a) bis d) gebildeten unüberwachten Gesamt-Konsistenz-Kostenfunktionen,
whereby the light is emitted with different modulation frequencies in at least two phase measurements,
in which the following steps are carried out in an unsupervised training phase:
- - Optimization of an unsupervised overall consistency cost function through,
- a) Determination of an unsupervised trigonometric consistency-cost function by establishing a consistency of the raw data with regard to trigonometric properties (g 1 K trig ),
- b) Determination of an unsupervised distance-consistency-cost function by establishing a consistency of the raw data with regard to distances (g 2 K d ) for at least two different modulation frequencies,
- c) One-time creation of a mask based on the unsupervised trigonometric and distance-consistency-cost functions determined in steps a) and b) in order to identify already consistent image areas,
- d) Determination of an unsupervised deviation-consistency-cost function (g 3 K abs ) based on the mask according to step c)
- e) Optimization of weights and biases of a machine learning model on the basis of the unsupervised overall consistency cost functions formed from steps a) to d),
Die
Dieses enorme technische Problem wird durch die Erfindung umgangen in dem es nicht mehr nötig ist, wahre Tiefenkarten in ausreichender Menge zum Training von Modellen maschinellen Lernens zu erzeugen.This enormous technical problem is circumvented by the invention in that it is no longer necessary to generate true depth maps in sufficient quantities for training machine learning models.
Unüberwachtes maschinelles Lernen benötigt im Gegensatz zu überwachtem maschinellen Lernen keine wahren Annotationen (In diesem Fall: keine wahre Tiefenkarte). Daher ist die Datenakquise bedeutend vereinfacht.In contrast to monitored machine learning, unsupervised machine learning does not require any true annotations (in this case: no true depth map). Therefore, the data acquisition is significantly simplified.
Die Rohbilder einer ToF-Kamera sind Messungen phasenverschobener periodischer Funktionen. Die Phase ist proportional zur Tiefe d und kann für jeden Bildpunkt (Pixel) bestimmt werden. Üblicherweise sind die Rohdaten sinusförmige Signale, welche als Real- (Re) und Imaginärteil (Im) bezeichnet werden. Dadurch ergibt sich die Phase zu:
Die Tiefe ist somit:
Der Eindeutigkeitsbereich (ur) einer ToF-Kamera ist durch die Modulationsfrequenz (f) bestimmt.
Die Lichtgeschwindigkeit ist mit c bezeichnet.The speed of light is denoted by c.
Die Tiefendaten werden durch mehrere Messfehler verfälscht. Besonders hervorzuheben ist die Korrektur von Rauschfehlern, Mehrwegeinterferenzfehlern, Bewegungsartefakten und Phasenzuordnungsfehlern.
- a) Zur Rauschkorrektur werden häufig räumliche Filter (Bilateral, Anisotrope Diffusion, ...) und/oder zeitliche Filter (Kalman, ...) angewendet.
- b) Mehrwegeinterferenzfehler werden durch mehrfache Reflektionen in der Szene hervorgerufen. Dadurch ist der Lichtpfad länger als der direkte Weg und erhöht somit die Distanz auf dem Pixel. Weiterhin ist dieser Fehler in höchstem Maß szenenabhängig. Zum derzeitigen Stand ist kein klassischer Algorithmus bekannt welcher diesen Fehler in Echtzeit korrigiert.
- c) Bewegungsartefakte entstehen dadurch, dass Real- und Imaginärteil nacheinander aufgenommen werden und daher zeitversetzt zueinander sind. Bei schnellen Bewegungen von Objekten in der Szene oder der Kamera treten daher Distanzfehler auf.
- d) Phasenzuordnungsfehler treten bei der Zuordnung von Phasen mehrerer Frequenzen auf. Wird ein Pixel einer falschen Phase zugeordnet, so treten große Abweichungen in etwa von einem Eindeutigkeitsbereich ur auf. Üblicherweise werden Phasen mittels des chinesischen Restwerttheorems zugeordnet, bei hohem Rauschen gibt es allerdings zunehmend Zuordnungsfehler. Des Weiteren ist die maximale Reichweite der Kamera durch das kleinste gemeinsame Vielfache der Eindeutigkeitsbereiche der einzelnen Frequenzen begrenzt.
- a) Spatial filters (bilateral, anisotropic diffusion, ...) and / or temporal filters (Kalman, ...) are often used for noise correction.
- b) Multipath interference errors are caused by multiple reflections in the scene. As a result, the light path is longer than the direct path and thus increases the distance on the pixel. Furthermore, this error is highly dependent on the scene. At the present time, there is no known conventional algorithm that corrects this error in real time.
- c) Movement artifacts arise from the fact that the real and imaginary parts are recorded one after the other and are therefore time-shifted to one another. With fast movements of objects in the scene or the camera, distance errors therefore occur.
- d) Phase assignment errors occur when phases are assigned to several frequencies. If a pixel is assigned to an incorrect phase, large deviations occur approximately from a uniqueness range ur. Usually phases are assigned using the Chinese residual value theorem, but with high noise there are increasing assignment errors. Furthermore, the maximum range of the camera is limited by the smallest common multiple of the uniqueness ranges of the individual frequencies.
Modelle basierend auf maschinellem Lernen können die genannten Fehler in Echtzeit korrigieren. Die größte Herausforderung ist jedoch präzise Trainingsdaten für das Training der Modelle zu gewinnen. Dies wird durch das unüberwachte Lernen bedeutend vereinfacht.Models based on machine learning can correct these errors in real time. The greatest challenge, however, is to obtain precise training data for training the models. This is made much easier by unsupervised learning.
Bei der Erfindung handelt es sich um den unüberwachten Trainingsvorgang eines Modells maschinellen Lernens mit folgenden Eigenschaften:
- • Im Trainingsvorgang werden spezielle unüberwachte Kostenfunktionen optimiert, welche Konsistenzen in den Tiefendaten und Rohdaten sowie korrekte Tiefenwerte bei mindestens zwei Modulationsfrequenzen sicherstellen.
- • Eine Konsistenz ist die Erhaltung trigonometrischer Eigenschaften (Additionstheoreme) der Rohdaten.
- • Eine weitere Konsistenz besteht darin, dass Distanzen bei Verwendung unterschiedlicher Modulationsfrequenzen gleichbleiben müssen.
- • Tiefenwerte der klassischen Tiefenberechnung, welche bereits konsistent sind (Weil dort z.B. keine Artefakte auftreten) werden ebenfalls genutzt, um zu große Abweichungen des Modells von der gemessenen Tiefe zu verhindern. Dabei wird eine Maske von bereits konsistenten Pixeln anhand eines Schwellwertes der Konsistenz-Kostenfunktionen einmalig für jeden Datensatz bestimmt. Diese Maske beinhaltet also Bildpunkte, die ein gutes Signal zu Rausch Verhältnis haben und auch keine MPI Artefakte enthalten, da sonst die trigonometrische Konsistenz und die Distanz Konsistenz verletzt werden würden. Da allein die Konsistenzen noch nicht zu absolut korrekten Distanzwerten führen, werden im Training die absoluten Abweichungen der Distanzen auf den maskierten Bildpunkten minimiert.
- • Die Kombination aus allen drei unüberwacht definierten Kostenfunktionen wird Gesamt-Konsistenz-Kostenfunktion genannt.
- • In the training process, special unsupervised cost functions are optimized, which ensure consistencies in the depth data and raw data as well as correct depth values for at least two modulation frequencies.
- • Consistency is the preservation of trigonometric properties (addition theorems) of the raw data.
- • Another consistency is that distances must remain the same when using different modulation frequencies.
- • Depth values of the classic depth calculation, which are already consistent (because, for example, no artifacts occur there) are also used to prevent the model from deviating too much from the measured depth. In this case, a mask of already consistent pixels is determined once for each data record on the basis of a threshold value of the consistency cost functions. This mask therefore contains pixels that have a good signal-to-noise ratio and also do not contain any MPI artifacts, since otherwise the trigonometric consistency and the distance consistency would be violated. Since the consistencies alone do not lead to absolutely correct distance values, the absolute deviations of the distances on the masked image points are minimized during training.
- • The combination of all three unsupervised defined cost functions is called the overall consistency cost function.
Im Training wird die Güte der fehlerkorrigierten Tiefenkarte t durch die differenzierbare und unüberwachte Gesamt-Konsistenz-Kostenfunktionen berechnet und die Gewichte und Vorspannungen des Modells maschinellen Lernens im Fehlerrückführungsverfahren angepasst.During training, the quality of the error-corrected depth map t is calculated using the differentiable and unsupervised total consistency cost functions and the weights and biases of the machine learning model are adjusted in the error feedback process.
Hierbei wird eine unüberwachte Gesamt-Konsistenz-Kostenfunktion aus einer Zusammenfassung einer unüberwachten trigonometrischen, Tiefen- und Abweichungs-Kostenfunktion ermittelt.Here, an unsupervised overall consistency cost function is determined from a summary of an unsupervised trigonometric, depth and deviation cost function.
Die unüberwachte trigonometrische Konsistenz-Kostenfunktion gilt für mindestens ein Frequenzpaar f, f̃ und wird für alle Pixel j = 1, ..., N berechnet:
AddRe und Addlm bezeichnet die folgenden Additionstheoreme:
Die Additionen werden n mal (bzw. m mal) ausgeführt sodass folgender Zusammenhang für das Frequenzpaar f, f̃ gelten muss:
Die unüberwachte Tiefen-Konsistenz-Kostenfunktion für mindestens zwei Frequenzen lautet:
Ausgehend von der unüberwachten trigonometrischen und Tiefen -Konsistenz-Kostenfunktion kann eine Maske M und hiermit eine Abweichung-Konsistenz-Kostenfunktion bestimmt werden. Für jeden Pixel j wird daher einmalig für jede Messung der Lichtlaufzeitkamera die trigonometrische Konsistenz und die Tiefen-Konsistenz berechnet. Anhand eines Schwellwertes S lassen sich solche Pixel bestimmen, die im unverarbeiteten Bild bereits fehlerfrei sind.
Die Sammlung der fehlerfreien Pixel Mj bildet die konsistente Maske M.The collection of the error-free pixels M j forms the consistent mask M.
Die pixelweise absolute Abweichung auf einer konsistenten Maske M wird als Abweichungs-Kostenfunktion bezeichnet und sorgt für korrekte Tiefenwerte:
Dabei bezeichnet Ti die ursprünglichen (als fehlerfrei anzunehmenden) Tiefenwerte auf der Maske M für jeden maskierten Pixel i = 1, ..., Nm. Damit ist auch diese Kostenfunktion unüberwacht definiert.T i denotes the original depth values (which can be assumed to be error-free) on the mask M for each masked pixel i = 1,..., N m . This means that this cost function is also defined in an unsupervised manner.
Insgesamt wird eine unüberwachte Gesamt-Konsistenz-Kostenfunktion mit Gewichten g1 und g2 minimiert:
Somit ist die Trainingsroutine vollständig unüberwacht definiert: Für keine der Kostenfunktionen wird eine wahre Tiefenkarte benötigt.The training routine is thus completely unsupervised: a true depth map is not required for any of the cost functions.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 19704496 A1 [0001]DE 19704496 A1 [0001]
- US 2017/0262768 A1 [0002]US 2017/0262768 A1 [0002]
- DE 112011104644 T5 [0003]DE 112011104644 T5 [0003]
Claims (8)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020110986.5 | 2020-04-22 | ||
DE102020110986 | 2020-04-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021109386A1 true DE102021109386A1 (en) | 2021-10-28 |
Family
ID=78261003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021109386.4A Granted DE102021109386A1 (en) | 2020-04-22 | 2021-04-14 | Method for correcting depth images of a time-of-flight camera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021109386A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (en) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
DE112011104644T5 (en) | 2010-12-30 | 2013-10-10 | Irobot Corporation | Mobile robot system |
US20170262768A1 (en) | 2016-03-13 | 2017-09-14 | Microsoft Technology Licensing, Llc | Depth from time-of-flight using machine learning |
-
2021
- 2021-04-14 DE DE102021109386.4A patent/DE102021109386A1/en active Granted
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (en) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
DE112011104644T5 (en) | 2010-12-30 | 2013-10-10 | Irobot Corporation | Mobile robot system |
US20170262768A1 (en) | 2016-03-13 | 2017-09-14 | Microsoft Technology Licensing, Llc | Depth from time-of-flight using machine learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015000386B4 (en) | Apparatus and method for measuring a three-dimensional shape and non-transitory computer-readable storage medium | |
DE112016001560T5 (en) | Method and system for real-time motion artifact handling and noise removal for runtime sensor images | |
DE102016013274A1 (en) | IMAGE PROCESSING DEVICE AND METHOD FOR RECOGNIZING AN IMAGE OF AN OBJECT TO BE DETECTED FROM ENTRY DATA | |
DE102018124108A1 (en) | METHOD AND DEVICE FOR DETECTING ROAD LIMITATION | |
EP3186776B1 (en) | Image capturing device and method for image capturing | |
DE102009003110A1 (en) | Image processing method for determining depth information from at least two input images recorded by means of a stereo camera system | |
DE102013205762A1 (en) | An information processing apparatus that performs a three-dimensional shape measurement, information processing method and storage medium | |
DE102019205962A1 (en) | Method for generating digital image pairs as training data for neural networks | |
DE102015105161B4 (en) | An apparatus and method for detecting movement of an object in a target space | |
EP2736017A2 (en) | Method for determining the movement of a motor vehicle | |
DE112017003426T5 (en) | Method and system for reconstructing a three-dimensional representation | |
DE102020103575B4 (en) | Feature point detection device and method for detecting feature points in image data | |
DE102012211961A1 (en) | Method and apparatus for calculating a change in a magnification of an object | |
DE102018104913A1 (en) | Vibration monitoring of an object using a video camera | |
DE102014219423A1 (en) | Dynamic model for compensation of distortions of a windshield | |
DE102021109386A1 (en) | Method for correcting depth images of a time-of-flight camera | |
DE102013209295A1 (en) | Method for recording image data records by means of a magnetic resonance tomograph | |
DE102011056948A1 (en) | Method for calibrating a camera to a position sensor | |
EP3214602B1 (en) | Method for three-dimensional recording of objects | |
DE102021128537A1 (en) | Time-of-flight camera and method for operating one | |
DE102020201379A1 (en) | CONTOUR RECOGNITION DEVICE, CONTOUR RECOGNITION SYSTEM AND CONTOUR RECOGNITION METHOD | |
DE102019220616A1 (en) | METHOD OF SIMULTANEOUS LOCALIZATION AND IMAGING | |
DE10042387A1 (en) | Method for transforming 3-D object points to picture elements (pixels) for linear-fan beam sensor images, includes calculating difference between starting coordinates and preceding coordinates | |
DE102020101706A1 (en) | Method for generating depth image pairs for a database | |
DE102020008165B3 (en) | Feature point detection device and method for detecting feature points in image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |