DE102021124430B3 - Visualize lidar measurement data - Google Patents
Visualize lidar measurement data Download PDFInfo
- Publication number
- DE102021124430B3 DE102021124430B3 DE102021124430.7A DE102021124430A DE102021124430B3 DE 102021124430 B3 DE102021124430 B3 DE 102021124430B3 DE 102021124430 A DE102021124430 A DE 102021124430A DE 102021124430 B3 DE102021124430 B3 DE 102021124430B3
- Authority
- DE
- Germany
- Prior art keywords
- measurement data
- values
- machine learning
- remission
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Es wird ein Verfahren zum Visualisieren von Lidar-Messdaten angegeben, insbesondere Lidar-Messdaten eines Laserscanners, wobei mit den Lidar-Messdaten zugehörige Remissionswerte erfasst und aus den Remissionswerten mit einem Verfahren des maschinellen Lernens Farbwerte rekonstruiert werden.A method for visualizing lidar measurement data is specified, in particular lidar measurement data from a laser scanner, with remission values associated with the lidar measurement data being recorded and color values being reconstructed from the remission values using a machine learning method.
Description
Die Erfindung betrifft ein Verfahren zum Visualisieren von Lidar-Messdaten nach dem Oberbegriff von Anspruch 1 und ein System mit einem Lidar-Sensor und einer Steuer- und Auswertungseinheit zur Durchführung des Verfahrens nach Anspruch 11.The invention relates to a method for visualizing lidar measurement data according to the preamble of claim 1 and a system with a lidar sensor and a control and evaluation unit for carrying out the method according to claim 11.
Ein Lidar-Sensor (Light Detection and Ranging, in Analogie zu Radar) misst ortsaufgelöst Abstände zu angetasteten Objekten, so dass mit den Lidar-Messdaten eine dreidimensionale Erfassung und Vermessung einer Umgebung ermöglicht wird. Ein typischer und weit verbreiteter Lidar-Sensor ist ein Laserscanner. Daneben gibt es andere Lidar-Sensoren wie Lichtlaufzeitkameras und Solid-State-Scanner, die den makroskopischen Scanmechanismus des Laserscanners mit mikromechanischen Mitteln oder sogar rein elektronischen nachahmen.A lidar sensor (light detection and ranging, in analogy to radar) measures spatially resolved distances to objects touched, so that the lidar measurement data enables a three-dimensional detection and measurement of an environment. A typical and widely used lidar sensor is a laser scanner. There are also other lidar sensors such as time-of-flight cameras and solid-state scanners that mimic the macroscopic scanning mechanism of the laser scanner using micromechanical means or even purely electronic means.
In einem Laserscanner tastet ein Abtast- oder Scanstrahl einen Bereich ab und misst die Lichtlaufzeit des remittierten oder reflektierten Lichts, die anhand der Lichtgeschwindigkeit in einen Abstand umgerechnet werden kann. Zwei Arten des Lichtlaufzeitverfahrens sind weit verbreitet. Bei phasenbasierten Verfahren moduliert der Lichtsender den Scanstrahl, und es wird die Phase zwischen einer Referenz und dem empfangenen Scanstrahl ermittelt. Pulsbasierte Verfahren prägen dem Scanstrahl ein signifikantes Muster auf, beispielsweise einen schmalen Puls von nur wenigen Nanosekunden Dauer, und bestimmen den Empfangszeitpunkt dieses Musters. In einer als Pulsmittelungsverfahren bezeichneten Verallgemeinerung werden mehrere Pulse oder eine Pulsfolge ausgesandt und die empfangenen Pulse statistisch ausgewertet.In a laser scanner, a scanning beam scans an area and measures the light travel time of the remitted or reflected light, which can be converted into a distance using the speed of light. Two types of time-of-flight methods are widely used. With phase-based methods, the light transmitter modulates the scanning beam and the phase between a reference and the received scanning beam is determined. Pulse-based methods imprint a significant pattern on the scanning beam, for example a narrow pulse lasting only a few nanoseconds, and determine the time at which this pattern is received. In a generalization known as the pulse averaging method, a number of pulses or a pulse sequence are sent out and the received pulses are statistically evaluated.
Herkömmliche Laserscanner weisen einen Drehspiegel oder ein Polygonspiegelrad auf, um periodisch eine Überwachungsebene oder ein Segment einer Überwachungsebene abzutasten. Alternativ rotiert ein aktiver Messkopf mit Lichtsender und Lichtempfänger. 3D-Laserscanner erfassen einen dreidimensionalen Raumbereich und nicht lediglich eine Fläche. Das kann durch Bewegung um eine weitere Achse realisiert werden, sei es in einer Schwenk- oder einer vollständigen Drehbewegung. In der
Bekannt sind weiterhin Mehrlagen-Laserscanner, die mehrere in Elevation übereinander angeordnete Abtaststrahlen aufweisen. So ist aus
Laserscanner und etwas allgemeiner Lidar-Sensoren sind hervorragend dafür geeignet, Geometrien zu erfassen. In mobilen Anwendungen, etwa in Montage auf einem Fahrzeug, Roboter oder Handwagen, können konsistente und genaue metrische Karten der Umgebung aufgenommen werden. Dies kann dann beispielsweise einer Navigation zugrunde gelegt werden (insbesondere SLAM, Simultaneous Localization and Mapping), oder es werden geometrische Größen wie die Grundfläche einer Halle aus der Karte bestimmt.Laser scanners and, more generally, lidar sensors are excellent for capturing geometries. In mobile applications, such as mounted on a vehicle, robot or hand truck, consistent and accurate metric maps of the environment can be recorded. This can then be used as a basis for navigation, for example (in particular SLAM, Simultaneous Localization and Mapping), or geometric variables such as the floor area of a hall can be determined from the map.
Oft ist zudem gewünscht, nicht physisch anwesenden Personen anhand einer Karte einen visuellen Eindruck der Umgebung zu verschaffen, etwa zur Planung, Überwachung oder sonstigen auch räumlich beziehungsweise zeitlich versetzen Diagnose oder im Rahmen einer Virtual-Reality-Anwendung. Der Umgang mit der Lidar-Technologie und davon erzeugten Karten gehört typischerweise nicht zur Expertise der entsprechenden Fachleute. Darum ist eine natürliche Interpretierbarkeit mit einem niederschwelligen, intuitiven Zugang erwünscht, den weder eine Lidar-Punktwolke noch eine entsprechende Karte vermitteln kann.It is also often desirable to give people who are not physically present a visual impression of the environment using a map, for example for planning, monitoring or other diagnostics that are also spatially or temporally offset or as part of a virtual reality application. Dealing with lidar technology and the maps generated from it is typically not part of the expertise of the relevant specialists. Therefore, a natural interpretability with a low-threshold, intuitive access is desired, which neither a lidar point cloud nor a corresponding map can convey.
Ein herkömmlicher Lösungsansatz besteht darin, eine Farbkamera mit dem Lidar-Sensor zu kombinieren und deren Bilddaten mit den Lidar-Messdaten zu fusionieren. Das Ergebnis sind leichter erfassbare Visualisierungen in Form einer farbigen Punktwolke oder einer farbigen Oberflächenrekonstruktion (Meshes). Die zusätzliche Kamera samt geeignetem Objektiv sowie der Aufwand für die Kamerakalibrierung zu dem Lidar-Sensor als Voraussetzung der Datenfusion erhöhen jedoch den Preis des Gesamtaufbaus erheblich. Außerdem kann die zusätzliche Farberfassung die Messzyklen zum Teil erheblich verlängern. Somit wird die eigentlich durch eine abgesenkte Eintrittsschwelle erhöhte Akzeptanz der Technologie letztlich doch zu teuer erkauft.A conventional approach consists of combining a color camera with the lidar sensor and fusing its image data with the lidar measurement data. The result is easier to grasp visualizations in the form of a colored point cloud or a colored surface reconstruction (meshes). However, the additional camera including a suitable lens and the effort for the camera calibration for the lidar sensor as a prerequisite for data fusion increase the price of the overall structure considerably. In addition, the additional color detection can in some cases significantly lengthen the measurement cycles. Thus, the acceptance of the technology, which is actually increased by a lowered entry threshold, is ultimately bought too expensively.
Ein alternativer Ansatz, der ohne zusätzliche Farbkamera auskommt, bezieht die Remissionswerte (RSSI, Received Signal Strength Indicator) des Lidar-Sensors ein, die aus der rückgestreuten Empfangsenergie abgeleitet werden. Zum einen handelt es sich dabei jedoch um skalare Größen, die nur eine monochromatische Visualisierung ermöglichen. Mit den Farben fehlt eine psychologisch sehr wichtige Information, um sich intuitiv zurechtzufinden. Zum zweiten arbeitet ein Lidar-System in aller Regel nicht im sichtbaren Spektrum, sondern typischerweise im (Nah)-Infrarotbereich. Die Remissionswerte sind daher nicht direkt durch das menschliche Auge interpretierbar, sondern müssen in Falschfarben oder Helligkeiten übersetzt werden. Während Falschfarben sozusagen per definitionem unintuitiv sind und erneut Erfahrung des Betrachters voraussetzen, haben die aus dem Infraroten gewonnene Helligkeiten das Problem, dass sie sich teilweise sehr deutlich von den Erwartungen unterscheiden. So weisen Pflanzen wegen des Chlorophylls eine starke Reflektivität auf, und im sichtbaren Spektrum schwarze Autoreifen leuchten im Infraroten gleichsam auf.An alternative approach, which does not require an additional color camera, includes the remission values (RSSI, Received Signal Strength Indicator) of the lidar sensor, which are derived from the backscattered reception energy. On the one hand, however, these are scalar quantities, which only allow monochromatic visualization. With the colors, psychologically very important information is missing in order to find your way around intuitively. Secondly, a lidar system usually does not work in the visible spectrum, but typically in the (near) infrared range. The remission values can therefore not be interpreted directly by the human eye, but must be translated into false colors or brightness. While false colors are, so to speak, by definition unintuitive and once again require experience on the part of the viewer, the brightness obtained from the infrared has the problem that in some cases it differs significantly from what is expected. Plants are highly reflective because of their chlorophyll, and black car tires in the visible spectrum glow in the infrared, so to speak.
Die
In den letzten Jahren haben Verfahren des maschinellen Lernens und insbesondere tiefe neuronale Netze (Deep Learning) gerade in der Bildverarbeitung viele klassische Probleme etwa der Segmentierung, Objekterkennung, Superresolution oder Rauschunterdrückung in zuvor ungeahnter Leistungsfähigkeit gelöst. Dabei wurden auch Ansätze entwickelt, die Farbinformation aus monochromatischen Bildern zurückzugewinnen (Colorization, Kolorierung). In diesem Zusammenhang ist die Arbeit von Zhang, Richard, Phillip Isola, und Alexei A. Efros. „Colorful image colorization.“ European conference on computer vision, Springer, Cham, 2016 zu nennen. Unter dem Weblink https://deoldify.ai/ werden weitere Beispiele für das Einfärben gezeigt, die auch Videosequenzen einbeziehen.In recent years, methods of machine learning and in particular deep neural networks (deep learning) have solved many classic problems such as segmentation, object recognition, superresolution or noise reduction with previously unimagined efficiency, especially in image processing. Approaches were also developed to recover the color information from monochromatic images (colorization). Related is the work of Zhang, Richard, Phillip Isola, and Alexei A. Efros. "Colorful image colorization." European conference on computer vision, Springer, Cham, 2016. The web link https://deoldify.ai/ shows further examples for coloring, which also include video sequences.
Diese Verfahren des maschinellen Lernens können jedoch mit Lidar-Messdaten nicht umgehen. Das hat mit den sehr unterschiedlichen Eigenschaften in Bezug auf Sichtbereich, räumliche Anordnung der Messdaten, Zeitverhalten und den Spektralbereichen eines Lidar-Sensors und einer Kamera zu tun. Im oben diskutierten Stand der Technik wird nicht einmal diese Problematik erkannt, geschweige denn gelöst.However, these machine learning methods cannot handle lidar measurement data. This has to do with the very different properties in terms of the field of view, spatial arrangement of the measurement data, time behavior and the spectral ranges of a lidar sensor and a camera. In the prior art discussed above, not even this problem is recognized, let alone solved.
Die beiden Arbeiten Kim, Hyun-Koo, et al. „Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation“, Sensors 19.21 (2019): 4818 und Kim, Hyun-Koo, et al., „Color Image Generation from Range and Reflection Data of LiDAR“ Sensors 20.18 (2020): 5414 befassen sich jeweils mit dem Einfärben von LIDAR-Daten mittels eines neuronalen Netzes.The two papers Kim, Hyun-Koo, et al. "Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation", Sensors 19.21 (2019): 4818 and Kim, Hyun-Koo, et al., "Color Image Generation from Range and Reflection Data of LiDAR" Sensors 20.18 (2020) : 5414 each deal with the coloring of LIDAR data using a neural network.
Es ist daher Aufgabe der Erfindung, das Visualisieren von Lidar-Messdaten zu verbessern.It is therefore the object of the invention to improve the visualization of lidar measurement data.
Diese Aufgabe wird durch ein Verfahren zum Visualisieren von Lidar-Messdaten und ein System mit einem Lidar-Sensor und einer Steuer- und Auswertungseinheit zur Durchführung des Verfahrens nach Anspruch 1 beziehungsweise 11 gelöst. Lidar-Messdaten sind die von einem Lidar-Sensor erzeugten Messdaten, typischerweise in Form einer 3D-Punktewolke, wobei es aber auf die konkrete Repräsentation nicht ankommt. Dabei entsteht die laterale Ortsauflösung (x,y) vorzugsweise durch makroskopisch-mechanische Bewegung wie in einem Laserscanner mit Drehspiegel oder drehendem Messkopf, alternativ durch Mikrospiegel oder elektrische Ansteuerung eines Solid-State-Sensors. Die Entfernungsdimension Z wird durch das Lichtlaufzeitverfahren des Lidar-Prinzips erfasst, indem ein Lichtsignal ausgesandt, wieder empfangen und die Lichtlaufzeit gemessen wird.This object is achieved by a method for visualizing lidar measurement data and a system with a lidar sensor and a control and evaluation unit for carrying out the method according to claims 1 and 11, respectively. Lidar measurement data is the measurement data generated by a lidar sensor, typically in the form of a 3D point cloud, although the specific representation is irrelevant. The lateral spatial resolution (x,y) is preferably created by macroscopic-mechanical movement such as in a laser scanner with a rotating mirror or rotating measuring head, alternatively by micro-mirrors or electrical control of a solid-state sensor. The distance dimension Z is recorded using the time-of-flight method of the lidar principle, in which a light signal is sent out, received again and the time-of-flight is measured.
Zusätzlich wird die Energie des empfangenen Lichtsignals gemessen, um zu den jeweiligen Messpunkten der Lidar-Messdaten einen Remissionswert zu gewinnen. Dabei sind die verschiedenen physikalischen Begriffe für die Stärke des Empfangssignals, wie Intensität, Pegel, Energie oder weitere austauschbar, und im Folgenden wird meist der RSSI-Wert stellvertretend für den Remissionswert verwendet. Aus den jeweiligen Remissionswerten werden Farbwerte rekonstruiert. Wie einleitend erläutert, ist diese Rekonstruktion deutlich unterbestimmt und folglich hochgradig mehrdeutig, da der Farbraum drei Dimensionen beispielsweise in Form von Luminanz und a, b im CIE-Lab-Farbraum oder Rot, Grün und Blau bei RGB-Farbcodierung aufweist, während der Remissionswert lediglich ein Skalar ist.In addition, the energy of the received light signal is measured in order to obtain a remission value for the respective measurement points of the lidar measurement data. The various physical terms for the strength of the received signal, such as intensity, level, energy or others, are interchangeable, and in the following the RSSI value is usually used as a substitute for the remission value. Color values are reconstructed from the respective remission values. As explained in the introduction, this reconstruction is clearly underdetermined and therefore highly ambiguous, since the color space has three dimensions, for example in the form of luminance and a, b in the CIE Lab color space or red, green and blue in RGB color coding, while the remission value only is a scalar.
Die Erfindung geht von dem Grundgedanken aus, für die Rekonstruktion der Farbwerte aus den Remissionswerten ein Verfahren des maschinellen Lernens zu verwenden. Dieser Vorgang kann auch als Einfärben (Colorization, Kolorierung) von Lidar-Messdaten bezeichnet werden. Eingangsdaten für das Verfahren des maschinellen Lernens sind somit die Remissionswerte und mindestens implizit aufgrund von deren Anordnung die geometrischen Beziehungen der Messpunkte, und Ausgangsdaten sind plausible Farbwerte, die einem jeweiligen Messpunkt zugewiesen werden. Im Gegensatz zu dem herkömmlichen Ansatz wie in
Die Erfindung hat den Vorteil, dass eine zumindest plausible, wenn nicht wirklichkeitsnahe oder -getreue Farbwiedergabe ermöglicht wird. Das erhöht die Attraktivität und intuitive Zugänglichkeit von Lidar-Anwendungen deutlich, da die Lidar-Messdaten den gewohnten Filmaufnahmen oder Fotografien mindestens sehr viel ähnlicher werden. Dies gelingt, obwohl die Lidar-Messdaten lediglich Remissionsdaten mit allen ihren einleitend geschilderten Problemen bei der Farbzuweisung bereitstellen. Im Vergleich zum Einsatz einer zusätzlichen Farbkamera wird eine deutliche Kostenreduktion des Gesamtsystems erzielt, und dies in Bezug auf den Systemaufbau, die Installation und Verkabelung, die Software und die Aufzeichnung der Lidar-Messdaten. Insbesondere werden die Messzyklen nicht verlängert, was bei herkömmlichen hochauflösenden Laserscannern bei zusätzlicher Farbaufzeichnung durchaus sehr spürbar der Fall ist.The invention has the advantage that a color reproduction that is at least plausible, if not close to or true to reality, is made possible. This significantly increases the attractiveness and intuitive accessibility of lidar applications, since the lidar measurement data are at least much more similar to the usual film recordings or photographs. This succeeds, although the lidar measurement data only provide remission data with all the problems with color assignment described in the introduction. Compared to the use of an additional color camera, a significant cost reduction of the entire system is achieved, and this in relation to the system structure, installation and cabling, the software and the recording of the lidar measurement data. In particular, the measuring cycles are not lengthened, which is very noticeably the case with conventional high-resolution laser scanners with additional color recording.
Aus den Lidar-Messdaten und den zugehörigen Remissionswerten wird bevorzugt ein zweidimensionales Remissionsbild erzeugt. Im einfachsten Fall werden dazu einfach die gemessenen Abstände der Lidar-Messdaten weggelassen und die Remissionswerte den (x,y)-Werten zugeordnet, analog zu einer Fotografie. Ein komplexeres Rendering berücksichtigt die aus den LiDAR-Messdaten bekannten 3D-Beziehungen und die Perspektive des Remissionsbilds. Das Remissionsbild ist damit schon einmal in seinen Dimensionen an ein übliches Farbbild angeglichen und kann, nach dem Einfärben, direkt auf einer herkömmlichen Anzeige dargestellt werden.A two-dimensional remission image is preferably generated from the lidar measurement data and the associated remission values. In the simplest case, the measured distances of the lidar measurement data are simply left out and the remission values are assigned to the (x,y) values, analogous to a photograph. A more complex rendering takes into account the 3D relationships known from the LiDAR measurement data and the perspective of the remission image. The dimensions of the reflectance image are thus already adjusted to a conventional color image and, after coloring, can be displayed directly on a conventional display.
Vorzugsweise wird das Remissionsbild in ein Format transformiert, das dem Format von Farbbildern entspricht, die zum Training des Verfahrens des maschinellen Lernens verwendet werden. Das Remissionsbild wird mit anderen Worten geometrisch aufbereitet, um ein vergleichbares Format anzunehmen wie die Farbbilder, mit denen trainiert wurde und die letztlich auch zum Visualisieren erzeugt werden sollen. Die meisten Lidar-Sensoren haben einen ganz anderen Sichtbereich als eine Kamera, so etwa 360° lateral und 30° in Elevation eines mehrlagigen oder höhenverstellbaren Laserscanners gegenüber 70° in beiden Richtungen einer Kamera sowie unterschiedliche Optiken und Perspektiven. Der Aufbau des zur Aufzeichnung der Lidar-Messdaten verwendeten Lidar-Sensors ist aber bekannt, so dass sich dies rechnerisch transformieren lässt.Preferably, the remission image is transformed into a format that corresponds to the format of color images used to train the machine learning method. In other words, the remission image is processed geometrically in order to adopt a comparable format to the color images that were used for training and that are ultimately also intended to be generated for visualization. Most lidar sensors have a very different field of view than a camera, e.g. 360° lateral and 30° in elevation of a multi-layer or height-adjustable laser scanner versus 70° in both directions of a camera, as well as different optics and perspectives. However, the structure of the lidar sensor used to record the lidar measurement data is known, so that it can be transformed mathematically.
Das Remissionsbild wird bevorzugt mittels einer Projektion der Lidar-Messdaten in eine virtuelle Ebene erzeugt, insbesondere eine sphärische, zylindrische oder stereographische Projektion. Das ist ein Beispiel für eine bestimmte Repräsentation (Rendering) der Lidar-Messdaten. Die genannten speziellen Projektionen berücksichtigen das Aufnahmeprinzip des Lidar-Sensors und sind daher besonders geeignet, um Remissionsbilder zu erzeugen, mit denen das Verfahren des maschinellen Lernens umgehen kann, das letztlich, wenn auch auf komplexe Weise, mit gewöhnlichen Farbbildern vergleicht.The remission image is preferably generated by means of a projection of the lidar measurement data into a virtual plane, in particular a spherical, cylindrical or stereographic projection. This is an example of a specific representation (rendering) of the lidar measurement data. The special projections mentioned take into account the recording principle of the lidar sensor and are therefore particularly suitable for generating remission images that the machine learning process can deal with, which ultimately compares with ordinary color images, albeit in a complex manner.
Die Remissionswerte werden bevorzugt anhand eines Zusammenhangs von Abstand und Remissionsverlust korrigiert. Ein Lidar-Sensor und eine Kamera unterscheiden sich auch in diesem Punkt, insbesondere ist der Dynamikbereich bei einem Lidar-Sensor aus physikalischen Gründen viel höher. Der RSSI-Wert hängt damit nicht nur von dem Reflexionsvermögen des angetasteten Objekts, sondern auch von dessen Abstand ab. Das ist ein für die Helligkeit einer Kameraaufnahme in diesem Ausmaß und für Farbwahrnehmung oder -aufnahme gänzlich ungewohnter Effekt. Da ja der Abstand mittels Lichtlaufzeit gemessen wurde und somit bekannt ist, lässt sich diese Abstandsabhängigkeit aber herausrechnen. Dazu wird beispielsweise vorab eine Tabelle (LUT, Lookup-Table) mit RSSI-Werten von Zielen verschiedenen Remissionsvermögens in verschiedenen Abständen aufgenommen und damit oder mit einer entsprechenden Funktion oder Interpolation korrigiert.The reflectance values are preferably corrected using a relationship between distance and reflectance loss. A lidar sensor and a camera also differ in this point, in particular the dynamic range of a lidar sensor is much higher for physical reasons. The RSSI value thus depends not only on the reflectivity of the object being touched, but also on its distance. This is an entirely unfamiliar effect for the brightness of a camera recording of this magnitude and for color perception or recording. Since the distance was measured using the time of flight of light and is therefore known, this distance dependency can be calculated out. For this purpose, for example, a table (LUT, lookup table) with RSSI values of targets with different reflectivity is recorded at different distances and corrected with it or with a corresponding function or interpolation.
Die Lidar-Messdaten werden mit infrarotem Licht erfasst, wobei die Remissionswerte zunächst aus dem infraroten Spektrum ins sichtbare Spektrum transformiert werden. Die Verwendung von Infrarotlicht ist für Lichtlaufzeitverfahren üblich. Damit werden aber keine einem Schwarz-Weiß-Bild entsprechenden Helligkeiten erfasst, so dass bestehende Ansätze des maschinellen Lernens zum Einfärben nicht anwendbar sind. Daher ist eine vorbereitende Transformation ins sichtbare Spektrum sinnvoll. Diese Transformation kann einer festen Rechenvorschrift folgen. Alternativ wird auch hierfür ein Verfahren des maschinellen Lernens, insbesondere ein neuronales Netz eingesetzt. Dieses weitere Verfahren des maschinellen Lernens betrifft den Vorbereitungsschritt der Überführung ins sichtbare Spektrum und darf nicht mit demjenigen für das eigentliche Einfärben verwechselt werden. Allerdings ist alternativ vorstellbar, dass ein gemeinsames Verfahren des maschinellen Lernens beide Schritte durchführt. Dafür wäre dann aber zumindest ein anderes Training, wenn nicht gar eine andere Architektur erforderlich als für nur einen der beiden kombinierten Schritte allein.The lidar measurement data is recorded with infrared light, with the remission values being first transformed from the infrared spectrum into the visible spectrum. The use of infrared light is common for time-of-flight methods. However, no brightness levels corresponding to a black-and-white image are recorded with this, so that existing machine learning approaches for coloring cannot be used. Therefore, a preparatory transformation into the visible spectrum makes sense. This transformation can follow a fixed calculation rule. Alternatively, a machine learning method, in particular a neural network, is also used for this purpose. This further method of machine learning relates to the preparatory step of converting to the visible spectrum and must not be confused with that for the actual coloring. However, it is alternatively conceivable that a common machine learning process carries out both steps. However, this would at least require a different training, if not a different architecture than for just one of the two combined steps alone.
Die Remissionswerte werden zunächst in einen Rotwert transformiert. Wegen der spektralen Nähe zwischen Infrarot und Rot kann eine solche Transformation in einen Rotwert derjenigen in einen Grau- oder Helligkeitswert überlegen sein, sowohl im Hinblick auf Einfachheit der Transformation als auch das letztendliche Farbergebnis.The remission values are first transformed into a red value. Because of the spectral Proximity between infrared and red, such a transformation to a red value can be superior to that to a gray or lightness value, both in terms of ease of transformation and the ultimate color result.
Das Verfahren des maschinellen Lernens weist bevorzugt ein lineares Modell, einen Entscheidungsbaum, ein neuronales Netz oder eine Kombination mehrerer neuronaler Netze, eine Gaussprozess-Regression, ein k-nearest Neighbour-Verfahren oder eine support vector machine auf. Das passende Verfahren des maschinellen Lernens kann anhand der verfügbaren Auswertungsressourcen, Trainingsdaten und Erfordernisse der möglichen Anwendungen gewählt werden. Mit Verfahren des maschinellen Lernens ist hier zunächst dasjenige gemeint, mit dem Farbwerte aus Remissionswerten rekonstruiert werden. Gleichermaßen steht die Auswahl möglicher Verfahren des maschinellen Lernens für Vorbereitungsschritte wie die Transformation aus dem infraroten Spektrum in das sichtbare Spektrum zur Verfügung.The machine learning method preferably has a linear model, a decision tree, a neural network or a combination of several neural networks, a Gaussian process regression, a k-nearest neighbor method or a support vector machine. The appropriate machine learning method can be selected based on the available evaluation resources, training data and the requirements of the possible applications. The machine learning method here means that with which color values are reconstructed from remission values. Likewise, the selection of possible machine learning methods for preparatory steps such as the transformation from the infrared spectrum to the visible spectrum is available.
Das Verfahren des maschinellen Lernens weist bevorzugt ein tiefes neuronales Faltungsnetz auf. Obwohl es andere Möglichkeiten des maschinellen Lernens gibt, von denen im Vorabsatz einige genannt sind, haben gerade die tiefen neuronalen Faltungsnetze (Deep Convolutional Neural Network) in jüngerer Zeit ihre Überlegenheit gegenüber allen anderen herkömmlichen Verfahren und auch Verfahren des maschinellen Lernens gezeigt. Vorzugsweise nach einigen der diskutierten Vorbereitungsschritte insbesondere zur geometrischen Anpassung zwischen Lidar-Messdaten und einem Kamerabild sowie der Transformation aus dem infraroten Spektrum ins sichtbare Spektrum können Ansätze zum Einfärben von monochromen Kamerabildern angewandt werden. Ein somit auch Lidar-Messdaten zugänglich gemachtes Beispiel zur Umsetzung der Erfindung ist der Ansatz der einleitend genannten Arbeit von Zhang et al.The machine learning method preferably has a deep convolutional neural network. Although there are other possibilities of machine learning, some of which are mentioned in the previous paragraph, the deep convolutional neural networks have recently shown their superiority over all other conventional methods and also methods of machine learning. Approaches for coloring monochrome camera images can be applied preferably after some of the preparatory steps discussed, in particular for the geometric adjustment between lidar measurement data and a camera image as well as the transformation from the infrared spectrum to the visible spectrum. An example of the implementation of the invention that is also made accessible to lidar measurement data is the approach of the work by Zhang et al.
Die Remissionswerte werden zunächst in Rotwerte transformiert, und dann werden Grün- und Blauwerte mit dem Verfahren des maschinellen Lernens aus den Rotwerten rekonstruiert. Die Rotwerte lassen sich wegen der spektralen Nähe zum Infrarotbereich besonders gut aus den Remissionswerten transformieren. Die zusätzlichen Farbdimensionen, also Grünwerte und Blauwerte, werden dann mit dem Verfahren des maschinellen Lernens rekonstruiert. Das weicht gezielt von dem CIE-Lab-Farbraum aus Zhang et al. ab, um der Natur von Lidar-Messdaten besser gerecht zu werden. Alternativ ist aber auch denkbar, die Remissionswerte in Luminanzwerte zu transformieren und mit dem Verfahren des maschinellen Lernens die Farbwerte a, b des CIE-Lab-Farbraums zu rekonstruieren.The reflectance values are first transformed into red values, and then green and blue values are reconstructed from the red values using the machine learning method. The red values can be transformed particularly well from the remission values because of the spectral proximity to the infrared range. The additional color dimensions, i.e. green values and blue values, are then reconstructed using the machine learning method. This deliberately deviates from the CIE Lab color space from Zhang et al. to better reflect the nature of lidar measurement data. Alternatively, however, it is also conceivable to transform the remission values into luminance values and to reconstruct the color values a, b of the CIE Lab color space using the machine learning method.
Das Verfahren des maschinellen Lernens ist bevorzugt mit einer allgemeinen Bilddatenbank vortrainiert. Es gibt unzählige frei verfügbare Bilder etwa aus einer Bilddatenbank wie unter https://www.image-net.org/ oder den LOCO-Datensatz unter https://github.com/tum-fml/loco. So steht ein riesiger Schatz an Trainingsbildern zur Verfügung. Eine Besonderheit bei der Problemstellung Einfärben ist, dass die Transformation in Gegenrichtung Farbe nach Schwarz-Weiß - oder nach Rot - völlig trivial ist und damit der sonst mühselige Schritt des Annotierens oder Labelings sehr einfach automatisiert werden kann.The machine learning method is preferably pre-trained with a general image database. There are countless freely available images, for example from an image database such as https://www.image-net.org/ or the LOCO data set at https://github.com/tum-fml/loco. A huge treasure trove of training images is thus available. A special feature of the problem of coloring is that the transformation in the opposite direction from color to black and white - or to red - is completely trivial and the otherwise tedious step of annotating or labeling can be automated very easily.
Das Verfahren des maschinellen Lernens ist bevorzugt mit Daten einer Anwendungsumgebung trainiert, insbesondere einer industriellen Umgebung. Das ermöglicht ein spezifisches Training für Besonderheiten der tatsächlichen Anwendungssituation. Vorzugsweise setzt ein solches individuelles Training auf einem allgemeinen Training auf, so dass sehr viel weniger Trainingsbeispiele benötigt werden. Typische individuell zu trainierende Objekte in einer industriellen Umgebung sind Hallenwände und Hallenböden, Maschinen oder Indoor-Fahrzeuge.The machine learning method is preferably trained with data from an application environment, in particular an industrial environment. This enables specific training for special features of the actual application situation. Such individual training is preferably based on general training, so that far fewer training examples are required. Typical objects to be trained individually in an industrial environment are hall walls and floors, machines or indoor vehicles.
Trainingsdaten für das Verfahren des maschinellen Lernens werden bevorzugt durch gemeinsame Aufnahme von Lidar-Messdaten und Farbbildern erzeugt. Nur für das Training wird also doch auf eine Kombination eines Lidar-Sensors mit einer Farbkamera zurückgegriffen. Dabei spielen Kosten wie Aufnahmezeiten eine untergeordnete Rolle, da die Kombination nur vorübergehend benötigt wird. Das Training ist so deutlich spezifischer, da nun auch Lidar-Messdaten als die ursprünglichen Eingangsdaten zur Verfügung stehen.Training data for the machine learning method are preferably generated by jointly recording lidar measurement data and color images. A combination of a lidar sensor and a color camera is only used for training. Costs such as recording times play a subordinate role here, since the combination is only needed temporarily. The training is significantly more specific, since lidar measurement data is now also available as the original input data.
Das erfindungsgemäße System aus einem Lidar-Sensor zur Aufnahme von Lidar-Messdaten und einer Recheneinheit ist für ein Visualisieren beziehungsweise Einfärben der Lidar-Messdaten mit einem erfindungsgemäßen Verfahren ausgebildet. Vorzugsweise ist auch eine Anzeige vorgesehen, auf der das Ergebnis präsentiert werden kann, insbesondere in Form eines Farbbildes mit den rekonstruierten Farben. Bei der Recheneinheit kann es sich um eine praktisch beliebige Recheneinheit oder Mehrzahl von homogenen oder heterogenen Recheneinheiten handeln, etwa einen internen digitalen Baustein wie eine CPU, ein FPGA, eine GPU, eine NPU des Lidar-Sensors oder mehrere davon, oder beliebige Formen von Computern, die direkt oder über ein Netzwerk oder eine Cloud angeschlossen sind und ihrerseits eine beliebige Anzahl solcher digitaler Bausteine aufweisen. Der rechenintensivste Schritt, das Einfärben oder die Farbinferenz, muss in den meisten praktischen Anwendungsfällen weder vor Ort noch in Echtzeit erfolgen, so dass die Aufnahme der Lidar-Messdaten davon nicht beeinträchtigt ist.The system according to the invention, consisting of a lidar sensor for recording lidar measurement data and a computing unit, is designed for visualizing or coloring the lidar measurement data using a method according to the invention. A display is preferably also provided on which the result can be presented, in particular in the form of a color image with the reconstructed colors. The computing unit can be virtually any computing unit or plurality of homogeneous or heterogeneous computing units, such as an internal digital building block such as a CPU, an FPGA, a GPU, an NPU of the lidar sensor or several of them, or any form of computers , which are connected directly or via a network or a cloud and in turn have any number of such digital building blocks. The most computationally intensive step, coloring or color inference, does not need to be done on-site or in real-time for most practical use cases, so the on acquisition of the lidar measurement data is not affected.
Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.The method according to the invention can be developed in a similar way and shows similar advantages. Such advantageous features are described by way of example but not exhaustively in the dependent claims which follow the independent claims.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
-
1 eine schematische Schnittdarstellung eines mehrlagigen Laserscanners als Beispiel eines Lidar-Sensors; und -
2 ein beispielhaftes Ablaufdiagramm für das Einfärben von Lidar-Messdaten.
-
1 a schematic sectional view of a multilayer laser scanner as an example of a lidar sensor; and -
2 an example flowchart for coloring lidar measurement data.
In der Abtasteinheit 12 erzeugt ein Lichtsender 22 mit mehreren Lichtquellen 22a, beispielsweise LEDs oder Laser in Form von Kantenemittern oder VCSELs, mit Hilfe einer gemeinsamen Sendeoptik 24 mehrere Sendelichtstrahlen 26 mit gegenseitigem Winkelversatz, die in den Überwachungsbereich 20 ausgesandt werden. Die mehreren Sendelichtstrahlen 26 können alternativ über weniger oder nur eine Lichtquelle und mindestens ein Strahlteiler- oder Mustererzeugungselement entstehen. Die Anzahl von vier Sendelichtstrahlen 26 ist nur ein Beispiel, es können mehr oder weniger sein. Ein einziger Sendelichtstrahl ist denkbar, dann entsteht ein 2D-Laserscanner, der durch zusätzliche Bewegung in Elevation zu einem 3D-Laserscanner erweiterbar ist.
In the
Treffen die Sendelichtstrahlen 26 in dem Überwachungsbereich 20 auf ein Objekt, so kehren entsprechende remittierte Lichtstrahlen 28 zu dem Laserscanner 10 zurück. Die remittierten Lichtstrahlen 28 werden von einer Empfangsoptik 30 auf einen Lichtempfänger 32 mit mehreren Lichtempfangselementen 32a geführt, die jeweils ein elektrisches Empfangssignal erzeugen. Die Lichtempfangselemente 32a können separate Bauteile oder Pixel einer integrierten Matrixanordnung sein, beispielsweise Photodioden, APDs (Avalanche Diode) oder SPADs (Single-Photon Avalanche Diode).If the transmitted
Lichtsender 22 und Lichtempfänger 32 sind in der in
Eine berührungslose Versorgungs- und Datenschnittstelle 38 verbindet die bewegliche Abtasteinheit 12 mit der ruhenden Sockeleinheit 14. Dort befindet sich eine Steuer- und Auswertungseinheit 40, die zumindest teilweise auch auf der Leiterkarte 34 oder an anderem Ort in der Abtasteinheit 12 untergebracht sein kann. Die Steuer- und Auswertungseinheit 40 steuert den Lichtsender 22 und erhält die Empfangssignale des Lichtempfängers 32 zur weiteren Auswertung. Sie steuert außerdem den Antrieb 16 und erhält das Signal einer nicht gezeigten, von Laserscannern allgemein bekannten Winkelmesseinheit, welche die jeweilige Winkelstellung der Abtasteinheit 12 bestimmt.
Zur Auswertung wird vorzugsweise mit einem an sich bekannten Lichtlaufzeitverfahren die Distanz zu einem angetasteten Objekt gemessen. Zusammen mit der Information über die Winkelstellung von der Winkelmesseinheit stehen nach jeder Scanperiode mit Winkel und Entfernung zweidimensionale Polarkoordinaten aller Objektpunkte in einer Abtastebene zur Verfügung. Die jeweilige Abtastebene ist über die Identität des jeweiligen remittierten Lichtstrahls 28 und dessen Erfassung in einem der Lichtempfangselemente 32a ebenfalls bekannt, so dass insgesamt ein dreidimensionaler Raumbereich abgetastet wird. Damit sind die Objektpositionen beziehungsweise Objektkonturen bekannt und können über eine Sensorschnittstelle 42 ausgegeben werden, beispielsweise als 3D-Punktwolke. Die Sensorschnittstelle 42 oder ein weiterer, nicht gezeigter Anschluss dienen umgekehrt als Parametrierschnittstelle.A non-contact supply and
For the evaluation, the distance to a touched object is preferably measured using a known time-of-flight method. Together with the information about the angular position from the angle measuring unit, two-dimensional polar coordinates of all object points in a scanning plane are available after each scan period with angle and distance. The respective scanning plane is also known via the identity of the respective reflected
Zusätzlich zu der Distanzmessung ist die Steuer- und Auswertungseinheit 40 in der Lage, die Intensität der remittierten Sendelichtstrahlen 28 zu bestimmen. Damit steht zu den Messpunkten ein jeweiliger Remissionswert zur Verfügung, insbesondere ein RSSI (Received Signal Strength Value).In addition to the distance measurement, the control and
Der dargestellte Laserscanner 10 hat einen rotierenden Messkopf, nämlich die Abtasteinheit 12. Dabei kann nicht nur ein Sende-Empfangsmodul mitrotieren wie hier dargestellt, es sind weitere derartige Module mit Höhenversatz oder einem Winkelversatz bezüglich der Drehachse 18 vorstellbar. Alternativ ist auch eine periodische Ablenkung mittels Drehspiegel oder einem Facettenspiegelrad denkbar. Das erfordert zusätzliche Überlegungen, weil es von der jeweiligen Drehstellung abhängt, wie die mehreren Sendelichtstrahlen 26 in den Überwachungsbereich 20 fallen. Sie rotieren gleichsam mit der Bewegung des Drehspiegels umeinander, dies aber in einer vorhersagbaren und daher in den 3D-Messpunkten kompensierbaren Weise.The
Anstelle eines Laserscanners 10 kann für die Aufzeichnung von Lidar-Messdaten, also beispielsweise einer 3D-Punktewolke der Umgebung, samt zugehörigen Remissionswerten ein anderer Lidar-Sensor eingesetzt werden. Diese verwenden beispielsweise Matrixanordnungen von Einzellichtsendern und Einzellichtempfängern, eine Mikroaktorik zum Scannen, wie eine Piezo-Aktorik, einen MEMS-Spiegel oder eine adaptive Linse beziehungsweise Flüssiglinse, oder rein elektronische Scanverfahren wie mittels optischem Phased Array oder akusto-optischem Modulator.Instead of a
In einem Schritt S1 wird das Verfahren des maschinellen Lernens allgemein trainiert oder vortrainiert. Die Details des Trainings hängen von dem konkret eingesetzten Verfahren des maschinellen Lernens ab, das weiter unten zu Schritt S8 diskutiert wird. Bei einem überwachten Lernen eines Faltungsnetzes beispielsweise werden monochrome Trainingsbilder präsentiert, wobei das ursprüngliche Farbbild das gewünschte Ergebnis vorgibt. Dazu können öffentliche Datenbanken verwendet werden, wie sie beispielsweise unter https://www.image-net.org/ oder https://github.com/tum-fml/loco zugänglich sind. Paare von monochromen und farbigen Bildern lassen sich sehr einfach erzeugen, da die Farbreduktion im Gegensatz zum Einfärben sehr einfach möglich ist.In a step S1, the machine learning method is generally trained or pre-trained. The details of the training depend on the specific machine learning method used, which is discussed further below at step S8. For example, in supervised learning of a convolutional network, monochrome training images are presented, with the original color image dictating the desired outcome. Public databases can be used for this, such as those accessible at https://www.image-net.org/ or https://github.com/tum-fml/loco. Pairs of monochrome and color images can be created very easily, since color reduction is very easy to do, in contrast to coloring.
Stattdessen oder in optionaler Ergänzung erfolgt in einem Schritt S2 ein anwendungsspezifisches Training. Dabei wird nicht mit beliebigen Bildern trainiert, sondern mit solchen aus industriellen Umfeldern oder sogar dem konkreten Anwendungsumfeld. Weitergehend ist auch möglich, statt mit Bildern mit Lidar-Messdaten beziehungsweise Remissionswerten zu trainieren. Um zugehörige Farbbilder zu gewinnen, kann ein Lidar-Sensor mit einer Farbkamera verknüpft und kalibriert werden. So werden auch Validierungs- und Testdatensätze gewonnen, um optimale Netze zu finden oder experimentell verschiedene Netzarchitekturen zu untersuchen. Statt einer Kombination eines Lidar-Sensors mit einer Farbkamera ist die Verwendung einer Lichtlaufzeitkamera mit integrierter Farbkamera vorstellbar, wobei deren Charakteristika und damit Trainingsergebnisse nicht uneingeschränkt auf andere Lidar-Sensoren oder Laserscanner übertragbar sind.Instead or as an optional supplement, application-specific training takes place in a step S2. Training is not done with random images, but with those from industrial environments or even the specific application environment. It is also possible to train with lidar measurement data or remission values instead of images. In order to obtain associated color images, a lidar sensor can be linked to a color camera and calibrated. In this way, validation and test data sets are also obtained in order to find optimal networks or to investigate different network architectures experimentally. Instead of a combination of a lidar sensor and a color camera, the use of a time-of-flight camera with an integrated color camera is conceivable, with its characteristics and thus training results not being transferrable to other lidar sensors or laser scanners without restrictions.
In der Anwendungsphase werden in einem Schritt S3 jeweils Lidar-Messdaten und zugehörige Remissionswerte aufgenommen. Dazu wird beispielsweise der Laserscanner 10 gemäß
Die Lidar-Messdaten und Remissionswerte werden nun in Schritten S4 bis S7 aufbereitet. Dabei schaffen die Schritte S4 bis S6 eine Anpassung in Format und Geometrie, erzeugen insbesondere ein Remissionsbild R(x,y), das zu den im Training verwendeten Farbbildern I(x,y) kompatibel ist, d.h. vergleichbare geometrische Sichtbereiche abdeckt und damit dieselben Objekte abbildet. In Schritt S7 wird der Übergang aus dem typischen IR-Spektrum einer Lichtlaufzeitmessung in das sichtbare Spektrum vollzogen, wofür konkret das Remissionsbild R(x,y) auf ein geschätztes, monochromes Bild T(x,y) im sichtbaren Spektralbereich transformiert wird. Diese Schritte S4 bis S7 sind optional, im Prinzip können die Lidar-Messdaten und Remissionswerte als solche die Eingangsdaten für das Verfahren des maschinellen Lernens bilden. Allerdings werden mit einzelnen, mehreren oder allen diesen Schritten deutlich bessere Ergebnisse erreicht.The lidar measurement data and remission values are now processed in steps S4 to S7. Steps S4 to S6 create an adjustment in format and geometry, in particular generate a remission image R(x,y) that is compatible with the color images I(x,y) used in training, i.e. covers comparable geometric viewing areas and thus the same objects depicts. In step S7, the transition from the typical IR spectrum of a time-of-flight measurement to the visible spectrum is completed, for which purpose the remission image R(x,y) is transformed to an estimated, monochrome image T(x,y) in the visible spectral range. These steps S4 to S7 are optional; in principle, the lidar measurement data and remission values as such can form the input data for the machine learning method. However, significantly better results are achieved with individual, several or all of these steps.
In einem Schritt S4 wird ein Remissionsbild R(x,y) aus den Remissionswerten erzeugt. Die Lidar-Messdaten liegen typischerweise als 3D-Punktewolke vor und sind so nicht unmittelbar mit einem Farbbild zu vergleichen. Durch die Erzeugung des Remissionsbildes wird eine Formatangleichung geschaffen.In a step S4, a remission image R(x,y) is generated from the remission values. The lidar measurement data is typically available as a 3D point cloud and cannot be directly compared with a color image. A format adjustment is created by generating the remission image.
In einem Schritt S5 folgt eine geometrische Anpassung. Ein Lidar-Sensor, insbesondere Laserscanner, hat typischerweise einen sehr großen horizontalen Öffnungswinkel von bis 360° bei nur beschränkter vertikaler Ausdehnung, im Vergleich zu einem sich eher gleichmäßig in beiden Richtungen erstreckenden Öffnungswinkel von beispielsweise je 70° horizontal und vertikal einer Kamera. Ohne ausgleichende Maßnahmen würde nur ein sehr schmaler Überlappungsbereich resultieren.A geometric adjustment follows in a step S5. A lidar sensor, in particular a laser scanner, typically has a very large horizontal opening angle of up to 360° with only a limited vertical extent in comparison to an opening angle of, for example, 70° horizontally and vertically, which extends more evenly in both directions, of a camera. Without compensatory measures, only a very narrow overlapping area would result.
Bei einem 2D-Laserscanner zeigt sich dies am deutlichsten. Um überhaupt eine Höhenauflösung zu erhalten, wird die Scanebene durch einen zusätzlichen Aktuator variiert, und die jeweiligen Höhenlinien der aufeinanderfolgenden Scans werden zu einem Remissionsbild angeordnet. Bei einem Mehrlagenscanner wie demjenigen der
Es besteht die Möglichkeit der Reprojektion der Lidar-Messdaten beziehungsweise Remissionswerte in eine virtuelle Ebene, beispielsweise durch sphärische, zylindrische oder stereographische Projektion. Farbbilder für das Training können entsprechend projiziert werden. Die Projektionen haben ihre jeweiligen Vor- und Nachteile, und es hängt auch vom gewünschten Visualisierungsergebnis ab, welche Verzerrungen und Verzeichnungen vermieden werden sollen oder toleriert werden.
Sofern die Anforderungen durch Rasterkorrekturen oder geometrische Projektionen nicht zu erfüllen sind, können aufwändigere Techniken angewandt werden. Ein Beispiel hierfür ist der Aufbau eines 3D-Mapping Graphs, beispielsweise gemäß Grisetti, Giorgio, et al. „A tutorial on graph-based SLAM“, IEEE Intelligent Transportation Systems Magazine 2.4 (2010): 31-43 mit einer Reprojektion der resultierenden Punktwolke in jeweils synthetische Remissionsbilder in passender Perspektive und Ausrichtung. Ergänzend kann noch eine Oberflächenschätzung perTruncated Signed Distance Function auf dem 3D-Mapping Graph durchgeführt werden, siehe hierzu Klingensmith, Matthew, et al. „Chisel: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially Hashed Signed Distance Fields.“ Robotics: science and systems. Vol. 4. No. 1. 2015. Dadurch kann das Problem der unterschiedlichen Belichtung der Umgebung einer passiven Kamera und eines aktiven Lidar-Sensors abgemildert werden, etwa mittels zusätzlicher Schattierung (shader). Synthetische Lichtquellen, die in der Position den echten Lichteinfällen nachempfunden wurden, wie an Fenstern oder Oberlichtern, können dabei helfen, den Unterschied zwischen synthetischem Remissionsbild und einem Helligkeitsbild entsprechend einer Kamera weiter zu verringern.There is the possibility of reprojecting the lidar measurement data or remission values into a virtual plane, for example using spherical, cylindrical or stereographic projection. Color images for training can be projected accordingly. The projections have their respective advantages and disadvantages, and it also depends on the desired visualization result which distortions and distortions should be avoided or tolerated.
If the requirements cannot be met by grid corrections or geometric projections, more complex techniques can be used. An example of this is the structure of a 3D mapping graph, for example according to Grisetti, Giorgio, et al. "A tutorial on graph-based SLAM", IEEE Intelligent Transportation Systems Magazine 2.4 (2010): 31-43 with a reprojection of the resulting point cloud into synthetic remission images in the appropriate perspective and orientation. In addition, a surface estimation per truncated signed distance function can be performed on the 3D mapping graph, see Klingensmith, Matthew, et al. "Chisel: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially Hashed Signed Distance Fields." Robotics: science and systems. Vol. 4. No. 1. 2015. This can mitigate the problem of different exposure of the surroundings of a passive camera and an active lidar sensor, for example by means of additional shading (shader). Synthetic light sources that are positioned to mimic real light incidence, such as on windows or skylights, can help further reduce the difference between a synthetic remission image and a camera-like brightness image.
In einem Schritt S6 wird eine abstandsabhängige Korrektur der Remissionswerte vorgenommen. Für die Visualisierung beziehungsweise das Einfärben ist das Reflexionsvermögen der angetasteten Objektpunkt von Interesse, ohne einen abstandsbedingten Energieverlust. Da der jeweilige Abstand gemessen wird, bedarf es für eine Korrektur lediglich noch der Kenntnis des entsprechenden abstandsabhängigen Zusammenhangs zwischen gemessener Remission und Reflexionsvermögen. Dazu können vorab mit dem Lidar-Sensor Ziele definierten Reflexionsvermögens, etwa mit 2%, 10%, 50% und 100%, in verschiedenen Abständen angemessen werden. Es entsteht eine Nachschlagtabelle für die Korrektur, die bei Bedarf geeignet interpoliert oder in anderer Weise repräsentiert und genutzt werden kann.In a step S6, the remission values are corrected as a function of the distance. The reflectivity of the touched object point is of interest for the visualization or the coloring, without a distance-related energy loss. Since the respective distance is measured, a correction only requires knowledge of the corresponding distance-dependent relationship between measured remission and reflectivity. For this purpose, targets with a defined reflectivity, for example with 2%, 10%, 50% and 100%, can be measured in advance with the lidar sensor at different distances. A look-up table for the correction results, which can be appropriately interpolated or otherwise represented and used if required.
In einem Schritt S7 erfolgt ein Transfer von mit dem Lidar-Sensor im Infraroten aufgenommenen Remissionswerten in das sichtbare Spektrum. Etwas formaler ausgedrückt wird eine Funktion f angewandt, die Remissionswerte des Remissionsbildes R(x,y) in Werte eines einkanaligen Bildes im sichtbaren Spektrum T(x,y) überführt. Dabei entspricht T(x,y) vorzugsweise einem Farbkanal des späteren eingefärbten Bildes, enthält also beispielsweise Luminanzwerte für den CIE-Lab-Farbraum. Dabei ist zunächst die direkte Interpretation der im Infraroten gemessenen Remissionswerte als Helligkeiten im sichtbaren Spektrum möglich. Wegen der spektralen Nähe von Rot und Infrarot kann es günstiger sein, T(x,y) nicht mit Helligkeitswerten, sondern als den Rotkanal eines RGB-Bildes zu füllen.In a step S7, remission values recorded with the lidar sensor in the infrared are transferred to the visible spectrum. Expressed somewhat more formally, a function f is used, which converts reflectance values of the reflectance image R(x,y) into values of a single-channel image in the visible spectrum T(x,y). In this case, T(x,y) preferably corresponds to a color channel of the later colored image, ie it contains luminance values for the CIE Lab color space, for example. First of all, the direct interpretation of the remission values measured in the infrared as brightness in the visible spectrum is possible. Due to the spectral closeness of red and infrared, it can be better not to fill T(x,y) with brightness values, but rather as the red channel of an RGB image.
Nicht nur für das sogleich erläuterte eigentliche Einfärben im Schritt S8, sondern bereits für die Funktion f, die R(x,y) auf Î(x,y) abbildet, kann ein Verfahren des maschinellen Lernens eingesetzt werden, insbesondere ein neuronales Netz. Semantische Informationen, wie sie mit Verfahren des maschinellen Lernens quasi nebenbei identifiziert werden (siehe etwa Simonyan, Karen, and Andrew Zisserman. „Very deep convolutional networks for large-scale image recognition.“ arXiv preprint arXiv:1409.1556, 2014), können aber auch klassisch gewonnen werden, etwa durch Hough-Transformation, um gezielt runde Objekte im Bild zu detektieren. Es wird jeweils das im Infraroten erzeugte Remissionsbild R(x.y) in einen Feature-Vektor überführt, analog das zum Training beziehungsweise das zur Schätzung der Funktion f verwendete Farbbild I(x,y). Von dem Farbbild wird allerdings nur derjenige Kanal verwendet, in den f transformiert, also beispielsweise der Luminanzkanal nach dem CIE-Lab-Farbmodell oder der Rotkanal eines RGB-Bildes, der physikalisch näher am Infrarot-Spektrum liegt. Ein gängiges Vorgehen im Training von f oder des neuronalen Netzes zur Implementierung von f minimiert dann eine Loss-Funktion, also den Fehler zwischen der momentanen Prädiktion f(R(x,y)=Î(x,y) des neuronalen Netzes und dem tatsächlichen Farbkanal I(x,y). Für zugehörige Objektbereiche F(n) lässt sich das mit einer euklidischen Loss-Funktion als Minimierung von L = Σn ||Î(F(n)) -I(F(n)) ||2 formulieren.A method of machine learning, in particular a neural network, can be used not only for the actual coloring in step S8, which will be explained immediately, but also for the function f that maps R(x,y) to Î(x,y). However, semantic information, as identified almost incidentally with methods of machine learning (see, for example, Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556, 2014), can also can be obtained classically, for example by Hough transformation, in order to specifically detect round objects in the image. In each case, the reflectance image R(xy) generated in the infrared is converted into a feature vector, analogously to the color image I(x,y) used for training or for estimating the function f. Of the color image, however, only that channel is used into which f transforms, for example the luminance channel according to the CIE Lab color model or the red channel of an RGB image, which is physically closer to the infrared spectrum. A common procedure in training f or the neural network for implementing f then minimizes a loss function, i.e. the error between the current prediction f(R(x,y)=Î(x,y) of the neural network and the actual one Color channel I(x,y) For associated object areas F(n), this can be done with a Euclidean loss function as a minimization of L = Σn ||Î(F(n)) -I(F(n)) || 2 formulate.
In einem Schritt S8 erfolgt nach diesen Vorbereitungen, die wie erwähnt je nach Ausführungsform zumindest teilweise entfallen können, das eigentliche Einfärben oder die Farbinferenz mit dem in den Schritten S1 und S2 trainierten Verfahren des maschinellen Lernens. Dabei wird der aus den Remissionswerten transformierte Farbkanal vorgegeben, etwa der Luminanzkanal oder der Rotkanal, und die beiden anderen Farbkanäle a, b beziehungsweise Grün und Blau werden plausibel ergänzt. Dank der Vorbereitungen ist dafür ein an sich bekanntes Verfahren zum Kolorieren wie aus der einleitend genannten Arbeit von Zhang et al. anwendbar, worauf für weitere Details verwiesen wird. Wenn dafür anstelle des Luminanzkanals der Rotkanal den Ausgangspunkt bildet, sollten die perzeptiven Unterschiede richtig gewichtet und dazu die Loss-Funktion angepasst werden: aus dem direkten euklidischen Loss im CIE-Lab-Bereich wird eine Transformation der G, B Schätzungen zusammen mit dem in diesem Schritt gegebenen R-Kanal in den CIE-Lab-Raum vorgenommen, um den angepassten Loss zu berechnen.In a step S8, after these preparations, which, as mentioned, can at least partially be omitted depending on the embodiment, the actual coloring or color inference takes place using the machine learning method trained in steps S1 and S2. The color channel transformed from the remission values is specified, for example the luminance channel or the red channel, and the two other color channels a, b or green and blue are plausibly supplemented. Thanks to the preparations, a method for coloring that is known per se, as described in the work by Zhang et al. applicable, to which reference is made for further details. If the starting point for this is the red channel instead of the luminance channel, the perceptual differences should be properly weighted and the loss function adjusted for this: the direct Euclidean loss in the CIE Lab domain becomes a transformation of the G, B estimates together with that in this one Step given R-channel into the CIE lab space to calculate the adjusted loss.
Der Einsatz eines tiefen Faltungsnetzes wie bei Zhang et al. ist besonders vorteilhaft. Prinzipiell sind andere Verfahren des maschinellen Lernens denkbar, beispielsweise ein lineares Modell, ein Entscheidungsbaum, ein neuronales Netz, eine Gaussprozess-Regression, ein k-nearest Neighbour-Verfahren oder eine support vector machine. Alternativ kann eine Zuordnung von Farbinformation auch klassisch über Objektdetektoren insbesondere mittels Template Matching auf den aufbereiteten Remissionsbildern erfolgen. Erkannten Objekten wird dabei eine plausible Farbe zugewiesen, beispielsweise durch Zugriff auf eine zuvor erstellte Datenbank mit Objekten und zugehörigen Farben.Using a deep convolution mesh as in Zhang et al. is particularly beneficial. In principle, other methods of machine learning are conceivable, for example a linear model, a decision tree, a neural network, a Gaussian process regression, a k-nearest neighbor method or a support vector machine. Alternatively, color information can also be assigned in the classic way via object detectors, in particular by means of template matching on the processed remission images. Detected objects are assigned a plausible color, for example by accessing a previously created database with objects and associated colors.
Das Einfärben und die Farbinferenz kann auf Einzelmessungen oder Einzelscans basieren, oder es werden gerenderte Remissionsbilder von speziell gewählten Positionen in der Karte erzeugt, um dichte Bilder, fotoähnlichere Bilder zu erzeugen. Im Zusammenhang mit einer besser erfassbaren Darstellung sind auch Verfahren des Style Transfers denkbar, wobei hier abweichend vom Regelfall eines Style Transfers keine räumlichen Veränderungen im Bild vorgenommen werden. Bei Erfassung von Lidar-Messdaten mit mehreren Lidar-Sensoren ist ein gegenseitiger RSSI-Abgleich analog zu Schritt S6 von Vorteil.Coloring and color inference can be based on single measurements or single scans, or rendered remission images are generated from specifically chosen locations in the map to produce dense, more photo-like images. In connection with a better comprehensible representation, methods of style transfer are also conceivable, in which case, unlike the normal case of a style transfer, no spatial changes are made in the image. When capturing lidar measurement data with multiple lidar sensors, a mutual RSSI comparison analogous to step S6 is advantageous.
Die Farbinferenz kann in der Regel offline erfolgen, also nach der eigentlichen Aufnahme der Lidar-Messdaten, so dass im Sensorsystem selbst keine zusätzlichen Kosten und Rechenzeiten anfallen. Die Einfärbung kann sogar ein Nebenprodukt sein, beziehungsweise mit anderen Bildverarbeitungsschritten wie Objektdetektion oder Objektsegmentierung kombiniert werden. Mit einer solchen Kombination von Aufgaben befasst sich beispielsweise die Arbeit Dharmasiri, Thanuja, Andrew Spek, and Tom Drummond. „Joint prediction of depths, normals and surface curvature from rgb images using cnns.“ 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE, 2017, auf die ergänzend verwiesen wird.The color inference can usually be done offline, i.e. after the actual recording of the lidar measurement data, so that no additional costs and computing times are incurred in the sensor system itself. The coloring can even be a by-product or combined with other image processing steps such as object detection or object segmentation. For example, the work Dharmasiri, Thanuja, Andrew Spek, and Tom Drummond deals with such a combination of tasks. "Joint prediction of depths, normals and surface curvature from rgb images using cnns." 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE, 2017, to which additional reference is made.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021124430.7A DE102021124430B3 (en) | 2021-09-21 | 2021-09-21 | Visualize lidar measurement data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021124430.7A DE102021124430B3 (en) | 2021-09-21 | 2021-09-21 | Visualize lidar measurement data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021124430B3 true DE102021124430B3 (en) | 2022-11-03 |
Family
ID=83600637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021124430.7A Active DE102021124430B3 (en) | 2021-09-21 | 2021-09-21 | Visualize lidar measurement data |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021124430B3 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116418967A (en) * | 2023-04-13 | 2023-07-11 | 青岛图海纬度科技有限公司 | Color restoration method and device for laser scanning of underwater dynamic environment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1965225A2 (en) | 2007-02-28 | 2008-09-03 | Denso Wave Incorporated | Laser radar apparatus for three-dimensional detection of objects |
DE102008032216A1 (en) | 2008-07-09 | 2010-01-14 | Sick Ag | Device for detecting the presence of an object in space |
US8767190B2 (en) | 2006-07-13 | 2014-07-01 | Velodyne Acoustics, Inc. | High definition LiDAR system |
US20170289524A1 (en) | 2015-09-24 | 2017-10-05 | Ouster, Inc. | Optical System for Collecting Distance Information Within a Field |
US20200357190A1 (en) | 2019-05-06 | 2020-11-12 | Sap National Security Services, Inc. | System and method for enhancing a 3d rendering of a lidar point cloud |
-
2021
- 2021-09-21 DE DE102021124430.7A patent/DE102021124430B3/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8767190B2 (en) | 2006-07-13 | 2014-07-01 | Velodyne Acoustics, Inc. | High definition LiDAR system |
EP1965225A2 (en) | 2007-02-28 | 2008-09-03 | Denso Wave Incorporated | Laser radar apparatus for three-dimensional detection of objects |
DE102008032216A1 (en) | 2008-07-09 | 2010-01-14 | Sick Ag | Device for detecting the presence of an object in space |
US20170289524A1 (en) | 2015-09-24 | 2017-10-05 | Ouster, Inc. | Optical System for Collecting Distance Information Within a Field |
US20200357190A1 (en) | 2019-05-06 | 2020-11-12 | Sap National Security Services, Inc. | System and method for enhancing a 3d rendering of a lidar point cloud |
Non-Patent Citations (2)
Title |
---|
KIM, H.K. [et al.]: Color Image Generation from Range and Reflection Data of LiDAR. Sensors [online]. 21 September 2020. Vol. 20, no. 18, S. 5414. DOI 10.3390/s20185414. |
KIM, H.K. [et. al.]: Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation. Sensors [online]. 5 November 2019. Vol. 19, no. 21, S. 4818. DOI 10.3390/s19214818. |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116418967A (en) * | 2023-04-13 | 2023-07-11 | 青岛图海纬度科技有限公司 | Color restoration method and device for laser scanning of underwater dynamic environment |
CN116418967B (en) * | 2023-04-13 | 2023-10-13 | 青岛图海纬度科技有限公司 | Color restoration method and device for laser scanning of underwater dynamic environment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112020004813B4 (en) | System for expanding sensor systems and imaging systems with polarization | |
US11513212B2 (en) | Motor vehicle and method for a 360° detection of the motor vehicle surroundings | |
DE102020206759A1 (en) | Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera | |
CN107862293B (en) | Radar color semantic image generation system and method based on countermeasure generation network | |
EP3819671B1 (en) | Optoelectronic sensor and method for detecting objects | |
EP3396409B1 (en) | Method for calibrating a camera and a laser scanner | |
DE112015004396T5 (en) | AUGMENTED REALITY CAMERA FOR USE WITH 3D METROLOGY EQUIPMENT FOR PRODUCING 3D IMAGES FROM 2D CAMERA IMAGES | |
DE10058244C2 (en) | Measuring method for determining the position of an object in front of a screen and device for carrying out the method | |
DE102016107959A1 (en) | Structured light based multipath deletion with top imaging | |
US11887278B2 (en) | System and method for training a neural network to fill gaps between scan points in images and to de-noise point cloud images | |
US11620760B2 (en) | Ranging method based on laser-line scanning imaging | |
DE102009055626A1 (en) | Optical measuring device for optical measurement of maize plant, has evaluation device evaluating distance signal of camera pixels to determine three-dimensional enveloped surface of measuring object to be detected in measuring region | |
US11523029B2 (en) | Artificial intelligence scan colorization | |
DE102021124430B3 (en) | Visualize lidar measurement data | |
DE102020129096A1 (en) | GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM | |
DE102019134324A1 (en) | A method of measuring the topography of an environment | |
DE102014116904B4 (en) | Method for optically scanning and measuring a scene and automatically generating a video | |
Ehambram et al. | Stereo-visual-lidar sensor fusion using set-membership methods | |
EP3885787B1 (en) | Detection of distance measurement data | |
DE102015002283A1 (en) | Device and method for in particular three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement and object-dependent spatial resolution of several different individual scanners | |
DE102017117212A1 (en) | System and method for stereotriangulation | |
EP4224430A1 (en) | Scan color restoration | |
DE102022204515A1 (en) | Method for determining groups of points that are visible or not visible from a given viewpoint | |
DE102016119150A1 (en) | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scanned data from a 3D scanner | |
WO2022194939A1 (en) | Defect recognition in additive manufacture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |