DE102021124430B3 - Visualize lidar measurement data - Google Patents

Visualize lidar measurement data Download PDF

Info

Publication number
DE102021124430B3
DE102021124430B3 DE102021124430.7A DE102021124430A DE102021124430B3 DE 102021124430 B3 DE102021124430 B3 DE 102021124430B3 DE 102021124430 A DE102021124430 A DE 102021124430A DE 102021124430 B3 DE102021124430 B3 DE 102021124430B3
Authority
DE
Germany
Prior art keywords
measurement data
values
machine learning
remission
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021124430.7A
Other languages
German (de)
Inventor
Patric BEINSCHOB
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102021124430.7A priority Critical patent/DE102021124430B3/en
Application granted granted Critical
Publication of DE102021124430B3 publication Critical patent/DE102021124430B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es wird ein Verfahren zum Visualisieren von Lidar-Messdaten angegeben, insbesondere Lidar-Messdaten eines Laserscanners, wobei mit den Lidar-Messdaten zugehörige Remissionswerte erfasst und aus den Remissionswerten mit einem Verfahren des maschinellen Lernens Farbwerte rekonstruiert werden.A method for visualizing lidar measurement data is specified, in particular lidar measurement data from a laser scanner, with remission values associated with the lidar measurement data being recorded and color values being reconstructed from the remission values using a machine learning method.

Description

Die Erfindung betrifft ein Verfahren zum Visualisieren von Lidar-Messdaten nach dem Oberbegriff von Anspruch 1 und ein System mit einem Lidar-Sensor und einer Steuer- und Auswertungseinheit zur Durchführung des Verfahrens nach Anspruch 11.The invention relates to a method for visualizing lidar measurement data according to the preamble of claim 1 and a system with a lidar sensor and a control and evaluation unit for carrying out the method according to claim 11.

Ein Lidar-Sensor (Light Detection and Ranging, in Analogie zu Radar) misst ortsaufgelöst Abstände zu angetasteten Objekten, so dass mit den Lidar-Messdaten eine dreidimensionale Erfassung und Vermessung einer Umgebung ermöglicht wird. Ein typischer und weit verbreiteter Lidar-Sensor ist ein Laserscanner. Daneben gibt es andere Lidar-Sensoren wie Lichtlaufzeitkameras und Solid-State-Scanner, die den makroskopischen Scanmechanismus des Laserscanners mit mikromechanischen Mitteln oder sogar rein elektronischen nachahmen.A lidar sensor (light detection and ranging, in analogy to radar) measures spatially resolved distances to objects touched, so that the lidar measurement data enables a three-dimensional detection and measurement of an environment. A typical and widely used lidar sensor is a laser scanner. There are also other lidar sensors such as time-of-flight cameras and solid-state scanners that mimic the macroscopic scanning mechanism of the laser scanner using micromechanical means or even purely electronic means.

In einem Laserscanner tastet ein Abtast- oder Scanstrahl einen Bereich ab und misst die Lichtlaufzeit des remittierten oder reflektierten Lichts, die anhand der Lichtgeschwindigkeit in einen Abstand umgerechnet werden kann. Zwei Arten des Lichtlaufzeitverfahrens sind weit verbreitet. Bei phasenbasierten Verfahren moduliert der Lichtsender den Scanstrahl, und es wird die Phase zwischen einer Referenz und dem empfangenen Scanstrahl ermittelt. Pulsbasierte Verfahren prägen dem Scanstrahl ein signifikantes Muster auf, beispielsweise einen schmalen Puls von nur wenigen Nanosekunden Dauer, und bestimmen den Empfangszeitpunkt dieses Musters. In einer als Pulsmittelungsverfahren bezeichneten Verallgemeinerung werden mehrere Pulse oder eine Pulsfolge ausgesandt und die empfangenen Pulse statistisch ausgewertet.In a laser scanner, a scanning beam scans an area and measures the light travel time of the remitted or reflected light, which can be converted into a distance using the speed of light. Two types of time-of-flight methods are widely used. With phase-based methods, the light transmitter modulates the scanning beam and the phase between a reference and the received scanning beam is determined. Pulse-based methods imprint a significant pattern on the scanning beam, for example a narrow pulse lasting only a few nanoseconds, and determine the time at which this pattern is received. In a generalization known as the pulse averaging method, a number of pulses or a pulse sequence are sent out and the received pulses are statistically evaluated.

Herkömmliche Laserscanner weisen einen Drehspiegel oder ein Polygonspiegelrad auf, um periodisch eine Überwachungsebene oder ein Segment einer Überwachungsebene abzutasten. Alternativ rotiert ein aktiver Messkopf mit Lichtsender und Lichtempfänger. 3D-Laserscanner erfassen einen dreidimensionalen Raumbereich und nicht lediglich eine Fläche. Das kann durch Bewegung um eine weitere Achse realisiert werden, sei es in einer Schwenk- oder einer vollständigen Drehbewegung. In der DE 10 2008 032 216 A1 beispielsweise wird die gesamte Scaneinheit samt Sender, Empfänger und Drehspiegel auf einem Ablenkteller angeordnet. Die EP 1 965 225 A2 offenbart verschiedenste Möglichkeiten, die Drehbewegung eines Laserscanners mit einer zusätzlichen Kippbewegung zu kombinieren.Conventional laser scanners have a rotating mirror or a polygon mirror wheel in order to periodically scan a surveillance plane or a segment of a surveillance plane. Alternatively, an active measuring head rotates with a light transmitter and light receiver. 3D laser scanners capture a three-dimensional space and not just an area. This can be realized by movement around another axis, be it in a pivoting or a full rotation movement. In the DE 10 2008 032 216 A1 For example, the entire scanning unit including transmitter, receiver and rotating mirror is arranged on a deflection plate. the EP 1 965 225 A2 reveals a wide variety of options for combining the rotating movement of a laser scanner with an additional tilting movement.

Bekannt sind weiterhin Mehrlagen-Laserscanner, die mehrere in Elevation übereinander angeordnete Abtaststrahlen aufweisen. So ist aus US 8 767 190 B2 bekannt, für mehrere Abtastebenen je einen eigenen Lichtsender und Lichtempfänger vorzusehen, so dass die einzelnen Abtastebenen in gewünschtem Höhen- oder Elevationsraster einjustierbar sind. Die US 2017/0289524 A1 offenbart ein optisches System zum Erfassen von Abstandsinformationen, bei dem sendeseitig eine Reihenanordnung von Lichtquellen und empfangsseitig ein Bildsensor hinter einer großen Empfangslinse mit einem Blendenarray vorgesehen ist.Also known are multilayer laser scanners which have a plurality of scanning beams arranged one above the other in elevation. That's it U.S. 8,767,190 B2 It is known to provide a separate light transmitter and light receiver for several scanning planes, so that the individual scanning planes can be adjusted in the desired height or elevation grid. the US 2017/0289524 A1 discloses an optical system for detecting distance information, in which a series arrangement of light sources is provided on the transmission side and an image sensor is provided on the reception side behind a large receiving lens with an aperture array.

Laserscanner und etwas allgemeiner Lidar-Sensoren sind hervorragend dafür geeignet, Geometrien zu erfassen. In mobilen Anwendungen, etwa in Montage auf einem Fahrzeug, Roboter oder Handwagen, können konsistente und genaue metrische Karten der Umgebung aufgenommen werden. Dies kann dann beispielsweise einer Navigation zugrunde gelegt werden (insbesondere SLAM, Simultaneous Localization and Mapping), oder es werden geometrische Größen wie die Grundfläche einer Halle aus der Karte bestimmt.Laser scanners and, more generally, lidar sensors are excellent for capturing geometries. In mobile applications, such as mounted on a vehicle, robot or hand truck, consistent and accurate metric maps of the environment can be recorded. This can then be used as a basis for navigation, for example (in particular SLAM, Simultaneous Localization and Mapping), or geometric variables such as the floor area of a hall can be determined from the map.

Oft ist zudem gewünscht, nicht physisch anwesenden Personen anhand einer Karte einen visuellen Eindruck der Umgebung zu verschaffen, etwa zur Planung, Überwachung oder sonstigen auch räumlich beziehungsweise zeitlich versetzen Diagnose oder im Rahmen einer Virtual-Reality-Anwendung. Der Umgang mit der Lidar-Technologie und davon erzeugten Karten gehört typischerweise nicht zur Expertise der entsprechenden Fachleute. Darum ist eine natürliche Interpretierbarkeit mit einem niederschwelligen, intuitiven Zugang erwünscht, den weder eine Lidar-Punktwolke noch eine entsprechende Karte vermitteln kann.It is also often desirable to give people who are not physically present a visual impression of the environment using a map, for example for planning, monitoring or other diagnostics that are also spatially or temporally offset or as part of a virtual reality application. Dealing with lidar technology and the maps generated from it is typically not part of the expertise of the relevant specialists. Therefore, a natural interpretability with a low-threshold, intuitive access is desired, which neither a lidar point cloud nor a corresponding map can convey.

Ein herkömmlicher Lösungsansatz besteht darin, eine Farbkamera mit dem Lidar-Sensor zu kombinieren und deren Bilddaten mit den Lidar-Messdaten zu fusionieren. Das Ergebnis sind leichter erfassbare Visualisierungen in Form einer farbigen Punktwolke oder einer farbigen Oberflächenrekonstruktion (Meshes). Die zusätzliche Kamera samt geeignetem Objektiv sowie der Aufwand für die Kamerakalibrierung zu dem Lidar-Sensor als Voraussetzung der Datenfusion erhöhen jedoch den Preis des Gesamtaufbaus erheblich. Außerdem kann die zusätzliche Farberfassung die Messzyklen zum Teil erheblich verlängern. Somit wird die eigentlich durch eine abgesenkte Eintrittsschwelle erhöhte Akzeptanz der Technologie letztlich doch zu teuer erkauft.A conventional approach consists of combining a color camera with the lidar sensor and fusing its image data with the lidar measurement data. The result is easier to grasp visualizations in the form of a colored point cloud or a colored surface reconstruction (meshes). However, the additional camera including a suitable lens and the effort for the camera calibration for the lidar sensor as a prerequisite for data fusion increase the price of the overall structure considerably. In addition, the additional color detection can in some cases significantly lengthen the measurement cycles. Thus, the acceptance of the technology, which is actually increased by a lowered entry threshold, is ultimately bought too expensively.

Ein alternativer Ansatz, der ohne zusätzliche Farbkamera auskommt, bezieht die Remissionswerte (RSSI, Received Signal Strength Indicator) des Lidar-Sensors ein, die aus der rückgestreuten Empfangsenergie abgeleitet werden. Zum einen handelt es sich dabei jedoch um skalare Größen, die nur eine monochromatische Visualisierung ermöglichen. Mit den Farben fehlt eine psychologisch sehr wichtige Information, um sich intuitiv zurechtzufinden. Zum zweiten arbeitet ein Lidar-System in aller Regel nicht im sichtbaren Spektrum, sondern typischerweise im (Nah)-Infrarotbereich. Die Remissionswerte sind daher nicht direkt durch das menschliche Auge interpretierbar, sondern müssen in Falschfarben oder Helligkeiten übersetzt werden. Während Falschfarben sozusagen per definitionem unintuitiv sind und erneut Erfahrung des Betrachters voraussetzen, haben die aus dem Infraroten gewonnene Helligkeiten das Problem, dass sie sich teilweise sehr deutlich von den Erwartungen unterscheiden. So weisen Pflanzen wegen des Chlorophylls eine starke Reflektivität auf, und im sichtbaren Spektrum schwarze Autoreifen leuchten im Infraroten gleichsam auf.An alternative approach, which does not require an additional color camera, includes the remission values (RSSI, Received Signal Strength Indicator) of the lidar sensor, which are derived from the backscattered reception energy. On the one hand, however, these are scalar quantities, which only allow monochromatic visualization. With the colors, psychologically very important information is missing in order to find your way around intuitively. Secondly, a lidar system usually does not work in the visible spectrum, but typically in the (near) infrared range. The remission values can therefore not be interpreted directly by the human eye, but must be translated into false colors or brightness. While false colors are, so to speak, by definition unintuitive and once again require experience on the part of the viewer, the brightness obtained from the infrared has the problem that in some cases it differs significantly from what is expected. Plants are highly reflective because of their chlorophyll, and black car tires in the visible spectrum glow in the infrared, so to speak.

Die US 2020/0357190 A1 befasst sich mit einer derartigen 3D-Darstellung von Lidar-Punktewolken, in der die Farben linear längs des Regenbogens dem RSSI zugeordnet werden. Physiologisch besteht aber keine lineare Beziehung zwischen Helligkeit und Farbe, so entstehen nur Falschfarben, und folglich treten hierbei die soeben geschilderten Schwierigkeiten auf.the U.S. 2020/0357190 A1 deals with such a 3D representation of lidar point clouds in which the colors are linearly assigned to the RSSI along the rainbow. Physiologically, however, there is no linear relationship between brightness and color, so only false colors arise, and consequently the difficulties just described arise here.

In den letzten Jahren haben Verfahren des maschinellen Lernens und insbesondere tiefe neuronale Netze (Deep Learning) gerade in der Bildverarbeitung viele klassische Probleme etwa der Segmentierung, Objekterkennung, Superresolution oder Rauschunterdrückung in zuvor ungeahnter Leistungsfähigkeit gelöst. Dabei wurden auch Ansätze entwickelt, die Farbinformation aus monochromatischen Bildern zurückzugewinnen (Colorization, Kolorierung). In diesem Zusammenhang ist die Arbeit von Zhang, Richard, Phillip Isola, und Alexei A. Efros. „Colorful image colorization.“ European conference on computer vision, Springer, Cham, 2016 zu nennen. Unter dem Weblink https://deoldify.ai/ werden weitere Beispiele für das Einfärben gezeigt, die auch Videosequenzen einbeziehen.In recent years, methods of machine learning and in particular deep neural networks (deep learning) have solved many classic problems such as segmentation, object recognition, superresolution or noise reduction with previously unimagined efficiency, especially in image processing. Approaches were also developed to recover the color information from monochromatic images (colorization). Related is the work of Zhang, Richard, Phillip Isola, and Alexei A. Efros. "Colorful image colorization." European conference on computer vision, Springer, Cham, 2016. The web link https://deoldify.ai/ shows further examples for coloring, which also include video sequences.

Diese Verfahren des maschinellen Lernens können jedoch mit Lidar-Messdaten nicht umgehen. Das hat mit den sehr unterschiedlichen Eigenschaften in Bezug auf Sichtbereich, räumliche Anordnung der Messdaten, Zeitverhalten und den Spektralbereichen eines Lidar-Sensors und einer Kamera zu tun. Im oben diskutierten Stand der Technik wird nicht einmal diese Problematik erkannt, geschweige denn gelöst.However, these machine learning methods cannot handle lidar measurement data. This has to do with the very different properties in terms of the field of view, spatial arrangement of the measurement data, time behavior and the spectral ranges of a lidar sensor and a camera. In the prior art discussed above, not even this problem is recognized, let alone solved.

Die beiden Arbeiten Kim, Hyun-Koo, et al. „Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation“, Sensors 19.21 (2019): 4818 und Kim, Hyun-Koo, et al., „Color Image Generation from Range and Reflection Data of LiDAR“ Sensors 20.18 (2020): 5414 befassen sich jeweils mit dem Einfärben von LIDAR-Daten mittels eines neuronalen Netzes.The two papers Kim, Hyun-Koo, et al. "Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation", Sensors 19.21 (2019): 4818 and Kim, Hyun-Koo, et al., "Color Image Generation from Range and Reflection Data of LiDAR" Sensors 20.18 (2020) : 5414 each deal with the coloring of LIDAR data using a neural network.

Es ist daher Aufgabe der Erfindung, das Visualisieren von Lidar-Messdaten zu verbessern.It is therefore the object of the invention to improve the visualization of lidar measurement data.

Diese Aufgabe wird durch ein Verfahren zum Visualisieren von Lidar-Messdaten und ein System mit einem Lidar-Sensor und einer Steuer- und Auswertungseinheit zur Durchführung des Verfahrens nach Anspruch 1 beziehungsweise 11 gelöst. Lidar-Messdaten sind die von einem Lidar-Sensor erzeugten Messdaten, typischerweise in Form einer 3D-Punktewolke, wobei es aber auf die konkrete Repräsentation nicht ankommt. Dabei entsteht die laterale Ortsauflösung (x,y) vorzugsweise durch makroskopisch-mechanische Bewegung wie in einem Laserscanner mit Drehspiegel oder drehendem Messkopf, alternativ durch Mikrospiegel oder elektrische Ansteuerung eines Solid-State-Sensors. Die Entfernungsdimension Z wird durch das Lichtlaufzeitverfahren des Lidar-Prinzips erfasst, indem ein Lichtsignal ausgesandt, wieder empfangen und die Lichtlaufzeit gemessen wird.This object is achieved by a method for visualizing lidar measurement data and a system with a lidar sensor and a control and evaluation unit for carrying out the method according to claims 1 and 11, respectively. Lidar measurement data is the measurement data generated by a lidar sensor, typically in the form of a 3D point cloud, although the specific representation is irrelevant. The lateral spatial resolution (x,y) is preferably created by macroscopic-mechanical movement such as in a laser scanner with a rotating mirror or rotating measuring head, alternatively by micro-mirrors or electrical control of a solid-state sensor. The distance dimension Z is recorded using the time-of-flight method of the lidar principle, in which a light signal is sent out, received again and the time-of-flight is measured.

Zusätzlich wird die Energie des empfangenen Lichtsignals gemessen, um zu den jeweiligen Messpunkten der Lidar-Messdaten einen Remissionswert zu gewinnen. Dabei sind die verschiedenen physikalischen Begriffe für die Stärke des Empfangssignals, wie Intensität, Pegel, Energie oder weitere austauschbar, und im Folgenden wird meist der RSSI-Wert stellvertretend für den Remissionswert verwendet. Aus den jeweiligen Remissionswerten werden Farbwerte rekonstruiert. Wie einleitend erläutert, ist diese Rekonstruktion deutlich unterbestimmt und folglich hochgradig mehrdeutig, da der Farbraum drei Dimensionen beispielsweise in Form von Luminanz und a, b im CIE-Lab-Farbraum oder Rot, Grün und Blau bei RGB-Farbcodierung aufweist, während der Remissionswert lediglich ein Skalar ist.In addition, the energy of the received light signal is measured in order to obtain a remission value for the respective measurement points of the lidar measurement data. The various physical terms for the strength of the received signal, such as intensity, level, energy or others, are interchangeable, and in the following the RSSI value is usually used as a substitute for the remission value. Color values are reconstructed from the respective remission values. As explained in the introduction, this reconstruction is clearly underdetermined and therefore highly ambiguous, since the color space has three dimensions, for example in the form of luminance and a, b in the CIE Lab color space or red, green and blue in RGB color coding, while the remission value only is a scalar.

Die Erfindung geht von dem Grundgedanken aus, für die Rekonstruktion der Farbwerte aus den Remissionswerten ein Verfahren des maschinellen Lernens zu verwenden. Dieser Vorgang kann auch als Einfärben (Colorization, Kolorierung) von Lidar-Messdaten bezeichnet werden. Eingangsdaten für das Verfahren des maschinellen Lernens sind somit die Remissionswerte und mindestens implizit aufgrund von deren Anordnung die geometrischen Beziehungen der Messpunkte, und Ausgangsdaten sind plausible Farbwerte, die einem jeweiligen Messpunkt zugewiesen werden. Im Gegensatz zu dem herkömmlichen Ansatz wie in US 2020/0357190 A1 , der (Falsch-)Farben einem einzelnen Remissionswert zuordnet, bezieht das Verfahren des maschinellen Lernens die Nachbarschaft und damit die Struktur der Umgebung ein. Mindestens implizit fließt erfindungsgemäß das Wissen um bekannte Objekte und deren typische Farbgebung ein.The invention is based on the basic idea of using a machine learning method for the reconstruction of the color values from the remission values. This process can also be referred to as coloring (colorization) of lidar measurement data. Input data for the machine learning method are therefore the remission values and, at least implicitly, the geometric relationships of the measurement points based on their arrangement, and output data are plausible color values that are assigned to a respective measurement point. In contrast to the conventional approach as in U.S. 2020/0357190 A1 , which assigns (false) colors to a single remission value, the machine learning process relates the neighborhood and thus the struc environment. At least implicitly, according to the invention, the knowledge of known objects and their typical coloring is included.

Die Erfindung hat den Vorteil, dass eine zumindest plausible, wenn nicht wirklichkeitsnahe oder -getreue Farbwiedergabe ermöglicht wird. Das erhöht die Attraktivität und intuitive Zugänglichkeit von Lidar-Anwendungen deutlich, da die Lidar-Messdaten den gewohnten Filmaufnahmen oder Fotografien mindestens sehr viel ähnlicher werden. Dies gelingt, obwohl die Lidar-Messdaten lediglich Remissionsdaten mit allen ihren einleitend geschilderten Problemen bei der Farbzuweisung bereitstellen. Im Vergleich zum Einsatz einer zusätzlichen Farbkamera wird eine deutliche Kostenreduktion des Gesamtsystems erzielt, und dies in Bezug auf den Systemaufbau, die Installation und Verkabelung, die Software und die Aufzeichnung der Lidar-Messdaten. Insbesondere werden die Messzyklen nicht verlängert, was bei herkömmlichen hochauflösenden Laserscannern bei zusätzlicher Farbaufzeichnung durchaus sehr spürbar der Fall ist.The invention has the advantage that a color reproduction that is at least plausible, if not close to or true to reality, is made possible. This significantly increases the attractiveness and intuitive accessibility of lidar applications, since the lidar measurement data are at least much more similar to the usual film recordings or photographs. This succeeds, although the lidar measurement data only provide remission data with all the problems with color assignment described in the introduction. Compared to the use of an additional color camera, a significant cost reduction of the entire system is achieved, and this in relation to the system structure, installation and cabling, the software and the recording of the lidar measurement data. In particular, the measuring cycles are not lengthened, which is very noticeably the case with conventional high-resolution laser scanners with additional color recording.

Aus den Lidar-Messdaten und den zugehörigen Remissionswerten wird bevorzugt ein zweidimensionales Remissionsbild erzeugt. Im einfachsten Fall werden dazu einfach die gemessenen Abstände der Lidar-Messdaten weggelassen und die Remissionswerte den (x,y)-Werten zugeordnet, analog zu einer Fotografie. Ein komplexeres Rendering berücksichtigt die aus den LiDAR-Messdaten bekannten 3D-Beziehungen und die Perspektive des Remissionsbilds. Das Remissionsbild ist damit schon einmal in seinen Dimensionen an ein übliches Farbbild angeglichen und kann, nach dem Einfärben, direkt auf einer herkömmlichen Anzeige dargestellt werden.A two-dimensional remission image is preferably generated from the lidar measurement data and the associated remission values. In the simplest case, the measured distances of the lidar measurement data are simply left out and the remission values are assigned to the (x,y) values, analogous to a photograph. A more complex rendering takes into account the 3D relationships known from the LiDAR measurement data and the perspective of the remission image. The dimensions of the reflectance image are thus already adjusted to a conventional color image and, after coloring, can be displayed directly on a conventional display.

Vorzugsweise wird das Remissionsbild in ein Format transformiert, das dem Format von Farbbildern entspricht, die zum Training des Verfahrens des maschinellen Lernens verwendet werden. Das Remissionsbild wird mit anderen Worten geometrisch aufbereitet, um ein vergleichbares Format anzunehmen wie die Farbbilder, mit denen trainiert wurde und die letztlich auch zum Visualisieren erzeugt werden sollen. Die meisten Lidar-Sensoren haben einen ganz anderen Sichtbereich als eine Kamera, so etwa 360° lateral und 30° in Elevation eines mehrlagigen oder höhenverstellbaren Laserscanners gegenüber 70° in beiden Richtungen einer Kamera sowie unterschiedliche Optiken und Perspektiven. Der Aufbau des zur Aufzeichnung der Lidar-Messdaten verwendeten Lidar-Sensors ist aber bekannt, so dass sich dies rechnerisch transformieren lässt.Preferably, the remission image is transformed into a format that corresponds to the format of color images used to train the machine learning method. In other words, the remission image is processed geometrically in order to adopt a comparable format to the color images that were used for training and that are ultimately also intended to be generated for visualization. Most lidar sensors have a very different field of view than a camera, e.g. 360° lateral and 30° in elevation of a multi-layer or height-adjustable laser scanner versus 70° in both directions of a camera, as well as different optics and perspectives. However, the structure of the lidar sensor used to record the lidar measurement data is known, so that it can be transformed mathematically.

Das Remissionsbild wird bevorzugt mittels einer Projektion der Lidar-Messdaten in eine virtuelle Ebene erzeugt, insbesondere eine sphärische, zylindrische oder stereographische Projektion. Das ist ein Beispiel für eine bestimmte Repräsentation (Rendering) der Lidar-Messdaten. Die genannten speziellen Projektionen berücksichtigen das Aufnahmeprinzip des Lidar-Sensors und sind daher besonders geeignet, um Remissionsbilder zu erzeugen, mit denen das Verfahren des maschinellen Lernens umgehen kann, das letztlich, wenn auch auf komplexe Weise, mit gewöhnlichen Farbbildern vergleicht.The remission image is preferably generated by means of a projection of the lidar measurement data into a virtual plane, in particular a spherical, cylindrical or stereographic projection. This is an example of a specific representation (rendering) of the lidar measurement data. The special projections mentioned take into account the recording principle of the lidar sensor and are therefore particularly suitable for generating remission images that the machine learning process can deal with, which ultimately compares with ordinary color images, albeit in a complex manner.

Die Remissionswerte werden bevorzugt anhand eines Zusammenhangs von Abstand und Remissionsverlust korrigiert. Ein Lidar-Sensor und eine Kamera unterscheiden sich auch in diesem Punkt, insbesondere ist der Dynamikbereich bei einem Lidar-Sensor aus physikalischen Gründen viel höher. Der RSSI-Wert hängt damit nicht nur von dem Reflexionsvermögen des angetasteten Objekts, sondern auch von dessen Abstand ab. Das ist ein für die Helligkeit einer Kameraaufnahme in diesem Ausmaß und für Farbwahrnehmung oder -aufnahme gänzlich ungewohnter Effekt. Da ja der Abstand mittels Lichtlaufzeit gemessen wurde und somit bekannt ist, lässt sich diese Abstandsabhängigkeit aber herausrechnen. Dazu wird beispielsweise vorab eine Tabelle (LUT, Lookup-Table) mit RSSI-Werten von Zielen verschiedenen Remissionsvermögens in verschiedenen Abständen aufgenommen und damit oder mit einer entsprechenden Funktion oder Interpolation korrigiert.The reflectance values are preferably corrected using a relationship between distance and reflectance loss. A lidar sensor and a camera also differ in this point, in particular the dynamic range of a lidar sensor is much higher for physical reasons. The RSSI value thus depends not only on the reflectivity of the object being touched, but also on its distance. This is an entirely unfamiliar effect for the brightness of a camera recording of this magnitude and for color perception or recording. Since the distance was measured using the time of flight of light and is therefore known, this distance dependency can be calculated out. For this purpose, for example, a table (LUT, lookup table) with RSSI values of targets with different reflectivity is recorded at different distances and corrected with it or with a corresponding function or interpolation.

Die Lidar-Messdaten werden mit infrarotem Licht erfasst, wobei die Remissionswerte zunächst aus dem infraroten Spektrum ins sichtbare Spektrum transformiert werden. Die Verwendung von Infrarotlicht ist für Lichtlaufzeitverfahren üblich. Damit werden aber keine einem Schwarz-Weiß-Bild entsprechenden Helligkeiten erfasst, so dass bestehende Ansätze des maschinellen Lernens zum Einfärben nicht anwendbar sind. Daher ist eine vorbereitende Transformation ins sichtbare Spektrum sinnvoll. Diese Transformation kann einer festen Rechenvorschrift folgen. Alternativ wird auch hierfür ein Verfahren des maschinellen Lernens, insbesondere ein neuronales Netz eingesetzt. Dieses weitere Verfahren des maschinellen Lernens betrifft den Vorbereitungsschritt der Überführung ins sichtbare Spektrum und darf nicht mit demjenigen für das eigentliche Einfärben verwechselt werden. Allerdings ist alternativ vorstellbar, dass ein gemeinsames Verfahren des maschinellen Lernens beide Schritte durchführt. Dafür wäre dann aber zumindest ein anderes Training, wenn nicht gar eine andere Architektur erforderlich als für nur einen der beiden kombinierten Schritte allein.The lidar measurement data is recorded with infrared light, with the remission values being first transformed from the infrared spectrum into the visible spectrum. The use of infrared light is common for time-of-flight methods. However, no brightness levels corresponding to a black-and-white image are recorded with this, so that existing machine learning approaches for coloring cannot be used. Therefore, a preparatory transformation into the visible spectrum makes sense. This transformation can follow a fixed calculation rule. Alternatively, a machine learning method, in particular a neural network, is also used for this purpose. This further method of machine learning relates to the preparatory step of converting to the visible spectrum and must not be confused with that for the actual coloring. However, it is alternatively conceivable that a common machine learning process carries out both steps. However, this would at least require a different training, if not a different architecture than for just one of the two combined steps alone.

Die Remissionswerte werden zunächst in einen Rotwert transformiert. Wegen der spektralen Nähe zwischen Infrarot und Rot kann eine solche Transformation in einen Rotwert derjenigen in einen Grau- oder Helligkeitswert überlegen sein, sowohl im Hinblick auf Einfachheit der Transformation als auch das letztendliche Farbergebnis.The remission values are first transformed into a red value. Because of the spectral Proximity between infrared and red, such a transformation to a red value can be superior to that to a gray or lightness value, both in terms of ease of transformation and the ultimate color result.

Das Verfahren des maschinellen Lernens weist bevorzugt ein lineares Modell, einen Entscheidungsbaum, ein neuronales Netz oder eine Kombination mehrerer neuronaler Netze, eine Gaussprozess-Regression, ein k-nearest Neighbour-Verfahren oder eine support vector machine auf. Das passende Verfahren des maschinellen Lernens kann anhand der verfügbaren Auswertungsressourcen, Trainingsdaten und Erfordernisse der möglichen Anwendungen gewählt werden. Mit Verfahren des maschinellen Lernens ist hier zunächst dasjenige gemeint, mit dem Farbwerte aus Remissionswerten rekonstruiert werden. Gleichermaßen steht die Auswahl möglicher Verfahren des maschinellen Lernens für Vorbereitungsschritte wie die Transformation aus dem infraroten Spektrum in das sichtbare Spektrum zur Verfügung.The machine learning method preferably has a linear model, a decision tree, a neural network or a combination of several neural networks, a Gaussian process regression, a k-nearest neighbor method or a support vector machine. The appropriate machine learning method can be selected based on the available evaluation resources, training data and the requirements of the possible applications. The machine learning method here means that with which color values are reconstructed from remission values. Likewise, the selection of possible machine learning methods for preparatory steps such as the transformation from the infrared spectrum to the visible spectrum is available.

Das Verfahren des maschinellen Lernens weist bevorzugt ein tiefes neuronales Faltungsnetz auf. Obwohl es andere Möglichkeiten des maschinellen Lernens gibt, von denen im Vorabsatz einige genannt sind, haben gerade die tiefen neuronalen Faltungsnetze (Deep Convolutional Neural Network) in jüngerer Zeit ihre Überlegenheit gegenüber allen anderen herkömmlichen Verfahren und auch Verfahren des maschinellen Lernens gezeigt. Vorzugsweise nach einigen der diskutierten Vorbereitungsschritte insbesondere zur geometrischen Anpassung zwischen Lidar-Messdaten und einem Kamerabild sowie der Transformation aus dem infraroten Spektrum ins sichtbare Spektrum können Ansätze zum Einfärben von monochromen Kamerabildern angewandt werden. Ein somit auch Lidar-Messdaten zugänglich gemachtes Beispiel zur Umsetzung der Erfindung ist der Ansatz der einleitend genannten Arbeit von Zhang et al.The machine learning method preferably has a deep convolutional neural network. Although there are other possibilities of machine learning, some of which are mentioned in the previous paragraph, the deep convolutional neural networks have recently shown their superiority over all other conventional methods and also methods of machine learning. Approaches for coloring monochrome camera images can be applied preferably after some of the preparatory steps discussed, in particular for the geometric adjustment between lidar measurement data and a camera image as well as the transformation from the infrared spectrum to the visible spectrum. An example of the implementation of the invention that is also made accessible to lidar measurement data is the approach of the work by Zhang et al.

Die Remissionswerte werden zunächst in Rotwerte transformiert, und dann werden Grün- und Blauwerte mit dem Verfahren des maschinellen Lernens aus den Rotwerten rekonstruiert. Die Rotwerte lassen sich wegen der spektralen Nähe zum Infrarotbereich besonders gut aus den Remissionswerten transformieren. Die zusätzlichen Farbdimensionen, also Grünwerte und Blauwerte, werden dann mit dem Verfahren des maschinellen Lernens rekonstruiert. Das weicht gezielt von dem CIE-Lab-Farbraum aus Zhang et al. ab, um der Natur von Lidar-Messdaten besser gerecht zu werden. Alternativ ist aber auch denkbar, die Remissionswerte in Luminanzwerte zu transformieren und mit dem Verfahren des maschinellen Lernens die Farbwerte a, b des CIE-Lab-Farbraums zu rekonstruieren.The reflectance values are first transformed into red values, and then green and blue values are reconstructed from the red values using the machine learning method. The red values can be transformed particularly well from the remission values because of the spectral proximity to the infrared range. The additional color dimensions, i.e. green values and blue values, are then reconstructed using the machine learning method. This deliberately deviates from the CIE Lab color space from Zhang et al. to better reflect the nature of lidar measurement data. Alternatively, however, it is also conceivable to transform the remission values into luminance values and to reconstruct the color values a, b of the CIE Lab color space using the machine learning method.

Das Verfahren des maschinellen Lernens ist bevorzugt mit einer allgemeinen Bilddatenbank vortrainiert. Es gibt unzählige frei verfügbare Bilder etwa aus einer Bilddatenbank wie unter https://www.image-net.org/ oder den LOCO-Datensatz unter https://github.com/tum-fml/loco. So steht ein riesiger Schatz an Trainingsbildern zur Verfügung. Eine Besonderheit bei der Problemstellung Einfärben ist, dass die Transformation in Gegenrichtung Farbe nach Schwarz-Weiß - oder nach Rot - völlig trivial ist und damit der sonst mühselige Schritt des Annotierens oder Labelings sehr einfach automatisiert werden kann.The machine learning method is preferably pre-trained with a general image database. There are countless freely available images, for example from an image database such as https://www.image-net.org/ or the LOCO data set at https://github.com/tum-fml/loco. A huge treasure trove of training images is thus available. A special feature of the problem of coloring is that the transformation in the opposite direction from color to black and white - or to red - is completely trivial and the otherwise tedious step of annotating or labeling can be automated very easily.

Das Verfahren des maschinellen Lernens ist bevorzugt mit Daten einer Anwendungsumgebung trainiert, insbesondere einer industriellen Umgebung. Das ermöglicht ein spezifisches Training für Besonderheiten der tatsächlichen Anwendungssituation. Vorzugsweise setzt ein solches individuelles Training auf einem allgemeinen Training auf, so dass sehr viel weniger Trainingsbeispiele benötigt werden. Typische individuell zu trainierende Objekte in einer industriellen Umgebung sind Hallenwände und Hallenböden, Maschinen oder Indoor-Fahrzeuge.The machine learning method is preferably trained with data from an application environment, in particular an industrial environment. This enables specific training for special features of the actual application situation. Such individual training is preferably based on general training, so that far fewer training examples are required. Typical objects to be trained individually in an industrial environment are hall walls and floors, machines or indoor vehicles.

Trainingsdaten für das Verfahren des maschinellen Lernens werden bevorzugt durch gemeinsame Aufnahme von Lidar-Messdaten und Farbbildern erzeugt. Nur für das Training wird also doch auf eine Kombination eines Lidar-Sensors mit einer Farbkamera zurückgegriffen. Dabei spielen Kosten wie Aufnahmezeiten eine untergeordnete Rolle, da die Kombination nur vorübergehend benötigt wird. Das Training ist so deutlich spezifischer, da nun auch Lidar-Messdaten als die ursprünglichen Eingangsdaten zur Verfügung stehen.Training data for the machine learning method are preferably generated by jointly recording lidar measurement data and color images. A combination of a lidar sensor and a color camera is only used for training. Costs such as recording times play a subordinate role here, since the combination is only needed temporarily. The training is significantly more specific, since lidar measurement data is now also available as the original input data.

Das erfindungsgemäße System aus einem Lidar-Sensor zur Aufnahme von Lidar-Messdaten und einer Recheneinheit ist für ein Visualisieren beziehungsweise Einfärben der Lidar-Messdaten mit einem erfindungsgemäßen Verfahren ausgebildet. Vorzugsweise ist auch eine Anzeige vorgesehen, auf der das Ergebnis präsentiert werden kann, insbesondere in Form eines Farbbildes mit den rekonstruierten Farben. Bei der Recheneinheit kann es sich um eine praktisch beliebige Recheneinheit oder Mehrzahl von homogenen oder heterogenen Recheneinheiten handeln, etwa einen internen digitalen Baustein wie eine CPU, ein FPGA, eine GPU, eine NPU des Lidar-Sensors oder mehrere davon, oder beliebige Formen von Computern, die direkt oder über ein Netzwerk oder eine Cloud angeschlossen sind und ihrerseits eine beliebige Anzahl solcher digitaler Bausteine aufweisen. Der rechenintensivste Schritt, das Einfärben oder die Farbinferenz, muss in den meisten praktischen Anwendungsfällen weder vor Ort noch in Echtzeit erfolgen, so dass die Aufnahme der Lidar-Messdaten davon nicht beeinträchtigt ist.The system according to the invention, consisting of a lidar sensor for recording lidar measurement data and a computing unit, is designed for visualizing or coloring the lidar measurement data using a method according to the invention. A display is preferably also provided on which the result can be presented, in particular in the form of a color image with the reconstructed colors. The computing unit can be virtually any computing unit or plurality of homogeneous or heterogeneous computing units, such as an internal digital building block such as a CPU, an FPGA, a GPU, an NPU of the lidar sensor or several of them, or any form of computers , which are connected directly or via a network or a cloud and in turn have any number of such digital building blocks. The most computationally intensive step, coloring or color inference, does not need to be done on-site or in real-time for most practical use cases, so the on acquisition of the lidar measurement data is not affected.

Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.The method according to the invention can be developed in a similar way and shows similar advantages. Such advantageous features are described by way of example but not exhaustively in the dependent claims which follow the independent claims.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:

  • 1 eine schematische Schnittdarstellung eines mehrlagigen Laserscanners als Beispiel eines Lidar-Sensors; und
  • 2 ein beispielhaftes Ablaufdiagramm für das Einfärben von Lidar-Messdaten.
The invention is explained in more detail below, also with regard to further features and advantages, by way of example on the basis of embodiments and with reference to the attached drawing. The illustrations of the drawing show in:
  • 1 a schematic sectional view of a multilayer laser scanner as an example of a lidar sensor; and
  • 2 an example flowchart for coloring lidar measurement data.

1 zeigt eine schematische Schnittdarstellung durch einen beispielhaften Laserscanner 10, der für eine 3D-Erfassung von Lidar-Messdaten mehrlagig ausgebildet ist. Der Laserscanner 10 umfasst in grober Aufteilung eine bewegliche Abtasteinheit 12 und eine Sockeleinheit 14. Die Abtasteinheit 12 ist der optische Messkopf, während in der Sockeleinheit 14 weitere Elemente wie eine Versorgung, Auswertungselektronik, Anschlüsse und dergleichen untergebracht sind. Im Betrieb wird mit Hilfe eines Antriebs 16 der Sockeleinheit 14 die Abtasteinheit 12 in eine Drehbewegung um eine Drehachse 18 versetzt, um so einen Überwachungsbereich 20 periodisch abzutasten.
In der Abtasteinheit 12 erzeugt ein Lichtsender 22 mit mehreren Lichtquellen 22a, beispielsweise LEDs oder Laser in Form von Kantenemittern oder VCSELs, mit Hilfe einer gemeinsamen Sendeoptik 24 mehrere Sendelichtstrahlen 26 mit gegenseitigem Winkelversatz, die in den Überwachungsbereich 20 ausgesandt werden. Die mehreren Sendelichtstrahlen 26 können alternativ über weniger oder nur eine Lichtquelle und mindestens ein Strahlteiler- oder Mustererzeugungselement entstehen. Die Anzahl von vier Sendelichtstrahlen 26 ist nur ein Beispiel, es können mehr oder weniger sein. Ein einziger Sendelichtstrahl ist denkbar, dann entsteht ein 2D-Laserscanner, der durch zusätzliche Bewegung in Elevation zu einem 3D-Laserscanner erweiterbar ist.
1 FIG. 1 shows a schematic sectional illustration through an exemplary laser scanner 10, which is designed in multiple layers for a 3D acquisition of lidar measurement data. The laser scanner 10 roughly comprises a movable scanning unit 12 and a base unit 14. The scanning unit 12 is the optical measuring head, while the base unit 14 accommodates further elements such as a supply, evaluation electronics, connections and the like. During operation, a drive 16 of the base unit 14 is used to set the scanning unit 12 in a rotational movement about a rotational axis 18 in order to periodically scan a monitoring area 20 in this way.
In the scanning unit 12, a light emitter 22 with a plurality of light sources 22a, for example LEDs or lasers in the form of edge emitters or VCSELs, generates a plurality of transmitted light beams 26 with a mutual angular offset with the aid of common transmitting optics 24, which are emitted into the monitoring area 20. Alternatively, the plurality of transmitted light beams 26 can arise via fewer or only one light source and at least one beam splitter or pattern generation element. The number of four transmission light beams 26 is only an example, there can be more or fewer. A single transmitted light beam is conceivable, then a 2D laser scanner is created, which can be expanded to a 3D laser scanner by additional movement in elevation.

Treffen die Sendelichtstrahlen 26 in dem Überwachungsbereich 20 auf ein Objekt, so kehren entsprechende remittierte Lichtstrahlen 28 zu dem Laserscanner 10 zurück. Die remittierten Lichtstrahlen 28 werden von einer Empfangsoptik 30 auf einen Lichtempfänger 32 mit mehreren Lichtempfangselementen 32a geführt, die jeweils ein elektrisches Empfangssignal erzeugen. Die Lichtempfangselemente 32a können separate Bauteile oder Pixel einer integrierten Matrixanordnung sein, beispielsweise Photodioden, APDs (Avalanche Diode) oder SPADs (Single-Photon Avalanche Diode).If the transmitted light beams 26 hit an object in the monitored area 20 , corresponding reflected light beams 28 return to the laser scanner 10 . The reflected light beams 28 are guided by receiving optics 30 to a light receiver 32 with a plurality of light receiving elements 32a, each of which generates an electrical reception signal. The light receiving elements 32a may be separate components or pixels of an integrated array such as photodiodes, APDs (Avalanche Diode) or SPADs (Single-Photon Avalanche Diode).

Lichtsender 22 und Lichtempfänger 32 sind in der in 1 gezeigten Ausführungsform gemeinsam auf einer Leiterkarte 34 angeordnet, die auf der Drehachse 18 liegt und mit der Welle 36 des Antriebs 16 verbunden ist. Dies ist nur beispielhaft zu verstehen, es sind praktisch beliebige Anzahlen und Anordnungen von Leiterkarten denkbar. Auch der optische Grundaufbau mit biaxial nebeneinanderliegendem Lichtsender 22 und Lichtempfänger 32 ist nicht zwingend und durch jede an sich von einstrahligen optoelektronischen Sensoren oder Laserscannern bekannte Bauform ersetzbar. Ein Beispiel dafür ist eine koaxiale Anordnung mit oder ohne Strahlteiler.Light transmitter 22 and light receiver 32 are in 1 shown embodiment arranged together on a printed circuit board 34, which lies on the axis of rotation 18 and is connected to the shaft 36 of the drive 16. This is only to be understood as an example; practically any number and arrangement of printed circuit boards is conceivable. The basic optical structure with a biaxially adjacent light transmitter 22 and light receiver 32 is also not mandatory and can be replaced by any design known per se from single-beam optoelectronic sensors or laser scanners. An example of this is a coaxial arrangement with or without a beam splitter.

Eine berührungslose Versorgungs- und Datenschnittstelle 38 verbindet die bewegliche Abtasteinheit 12 mit der ruhenden Sockeleinheit 14. Dort befindet sich eine Steuer- und Auswertungseinheit 40, die zumindest teilweise auch auf der Leiterkarte 34 oder an anderem Ort in der Abtasteinheit 12 untergebracht sein kann. Die Steuer- und Auswertungseinheit 40 steuert den Lichtsender 22 und erhält die Empfangssignale des Lichtempfängers 32 zur weiteren Auswertung. Sie steuert außerdem den Antrieb 16 und erhält das Signal einer nicht gezeigten, von Laserscannern allgemein bekannten Winkelmesseinheit, welche die jeweilige Winkelstellung der Abtasteinheit 12 bestimmt.
Zur Auswertung wird vorzugsweise mit einem an sich bekannten Lichtlaufzeitverfahren die Distanz zu einem angetasteten Objekt gemessen. Zusammen mit der Information über die Winkelstellung von der Winkelmesseinheit stehen nach jeder Scanperiode mit Winkel und Entfernung zweidimensionale Polarkoordinaten aller Objektpunkte in einer Abtastebene zur Verfügung. Die jeweilige Abtastebene ist über die Identität des jeweiligen remittierten Lichtstrahls 28 und dessen Erfassung in einem der Lichtempfangselemente 32a ebenfalls bekannt, so dass insgesamt ein dreidimensionaler Raumbereich abgetastet wird. Damit sind die Objektpositionen beziehungsweise Objektkonturen bekannt und können über eine Sensorschnittstelle 42 ausgegeben werden, beispielsweise als 3D-Punktwolke. Die Sensorschnittstelle 42 oder ein weiterer, nicht gezeigter Anschluss dienen umgekehrt als Parametrierschnittstelle.
A non-contact supply and data interface 38 connects the movable scanning unit 12 to the stationary base unit 14. A control and evaluation unit 40 is located there, which can also be accommodated at least partially on the printed circuit board 34 or at another location in the scanning unit 12. The control and evaluation unit 40 controls the light transmitter 22 and receives the received signals from the light receiver 32 for further evaluation. It also controls the drive 16 and receives the signal from an angle measuring unit, not shown, which is generally known from laser scanners and which determines the respective angular position of the scanning unit 12 .
For the evaluation, the distance to a touched object is preferably measured using a known time-of-flight method. Together with the information about the angular position from the angle measuring unit, two-dimensional polar coordinates of all object points in a scanning plane are available after each scan period with angle and distance. The respective scanning plane is also known via the identity of the respective reflected light beam 28 and its detection in one of the light receiving elements 32a, so that a three-dimensional spatial area is scanned overall. The object positions or object contours are thus known and can be output via a sensor interface 42, for example as a 3D point cloud. Conversely, the sensor interface 42 or another connection (not shown) serves as a parameterization interface.

Zusätzlich zu der Distanzmessung ist die Steuer- und Auswertungseinheit 40 in der Lage, die Intensität der remittierten Sendelichtstrahlen 28 zu bestimmen. Damit steht zu den Messpunkten ein jeweiliger Remissionswert zur Verfügung, insbesondere ein RSSI (Received Signal Strength Value).In addition to the distance measurement, the control and evaluation unit 40 is able to determine the intensity of the transmitted light beams 28 that are reflected. A respective remission value is thus available for the measuring points, in particular an RSSI (Received Signal Strength Value).

Der dargestellte Laserscanner 10 hat einen rotierenden Messkopf, nämlich die Abtasteinheit 12. Dabei kann nicht nur ein Sende-Empfangsmodul mitrotieren wie hier dargestellt, es sind weitere derartige Module mit Höhenversatz oder einem Winkelversatz bezüglich der Drehachse 18 vorstellbar. Alternativ ist auch eine periodische Ablenkung mittels Drehspiegel oder einem Facettenspiegelrad denkbar. Das erfordert zusätzliche Überlegungen, weil es von der jeweiligen Drehstellung abhängt, wie die mehreren Sendelichtstrahlen 26 in den Überwachungsbereich 20 fallen. Sie rotieren gleichsam mit der Bewegung des Drehspiegels umeinander, dies aber in einer vorhersagbaren und daher in den 3D-Messpunkten kompensierbaren Weise.The laser scanner 10 shown has a rotating measuring head, namely the scanning unit 12. Not only one transceiver module can rotate as shown here, other such modules with a height offset or an angular offset with respect to the axis of rotation 18 are conceivable. Alternatively, a periodic deflection by means of a rotating mirror or a faceted mirror wheel is also conceivable. This requires additional considerations because how the multiple transmitted light beams 26 fall into the monitored area 20 depends on the respective rotational position. They rotate around each other with the movement of the rotating mirror, but in a predictable way that can therefore be compensated for in the 3D measuring points.

Anstelle eines Laserscanners 10 kann für die Aufzeichnung von Lidar-Messdaten, also beispielsweise einer 3D-Punktewolke der Umgebung, samt zugehörigen Remissionswerten ein anderer Lidar-Sensor eingesetzt werden. Diese verwenden beispielsweise Matrixanordnungen von Einzellichtsendern und Einzellichtempfängern, eine Mikroaktorik zum Scannen, wie eine Piezo-Aktorik, einen MEMS-Spiegel oder eine adaptive Linse beziehungsweise Flüssiglinse, oder rein elektronische Scanverfahren wie mittels optischem Phased Array oder akusto-optischem Modulator.Instead of a laser scanner 10, another lidar sensor can be used for recording lidar measurement data, for example a 3D point cloud of the surroundings, together with associated remission values. These use, for example, matrix arrangements of single-light transmitters and single-light receivers, micro-actuators for scanning, such as a piezo actuator, a MEMS mirror or an adaptive lens or liquid lens, or purely electronic scanning methods such as optical phased arrays or acousto-optical modulators.

2 zeigt ein beispielhaftes Ablaufdiagramm für das Einfärben von Lidar-Messdaten mit einem Verfahren des maschinellen Lernens. Die Schritte S1 und S2 betreffen dessen Trainingsphase und die Schritte S3 bis S8 die Anwendungsphase, die sich in Schritt S3 mit Erfassung der Lidar-Messdaten, die Schritte S4 bis S7 mit Aufarbeitungen der Lidar-Messdaten und Schritt S8 mit der eigentlichen Farbinferenz untergliedert. 2 shows an example flowchart for coloring lidar measurement data using a machine learning method. Steps S1 and S2 relate to its training phase and steps S3 to S8 to the application phase, which is subdivided into step S3 with acquisition of the lidar measurement data, steps S4 to S7 with processing of the lidar measurement data and step S8 with the actual color inference.

In einem Schritt S1 wird das Verfahren des maschinellen Lernens allgemein trainiert oder vortrainiert. Die Details des Trainings hängen von dem konkret eingesetzten Verfahren des maschinellen Lernens ab, das weiter unten zu Schritt S8 diskutiert wird. Bei einem überwachten Lernen eines Faltungsnetzes beispielsweise werden monochrome Trainingsbilder präsentiert, wobei das ursprüngliche Farbbild das gewünschte Ergebnis vorgibt. Dazu können öffentliche Datenbanken verwendet werden, wie sie beispielsweise unter https://www.image-net.org/ oder https://github.com/tum-fml/loco zugänglich sind. Paare von monochromen und farbigen Bildern lassen sich sehr einfach erzeugen, da die Farbreduktion im Gegensatz zum Einfärben sehr einfach möglich ist.In a step S1, the machine learning method is generally trained or pre-trained. The details of the training depend on the specific machine learning method used, which is discussed further below at step S8. For example, in supervised learning of a convolutional network, monochrome training images are presented, with the original color image dictating the desired outcome. Public databases can be used for this, such as those accessible at https://www.image-net.org/ or https://github.com/tum-fml/loco. Pairs of monochrome and color images can be created very easily, since color reduction is very easy to do, in contrast to coloring.

Stattdessen oder in optionaler Ergänzung erfolgt in einem Schritt S2 ein anwendungsspezifisches Training. Dabei wird nicht mit beliebigen Bildern trainiert, sondern mit solchen aus industriellen Umfeldern oder sogar dem konkreten Anwendungsumfeld. Weitergehend ist auch möglich, statt mit Bildern mit Lidar-Messdaten beziehungsweise Remissionswerten zu trainieren. Um zugehörige Farbbilder zu gewinnen, kann ein Lidar-Sensor mit einer Farbkamera verknüpft und kalibriert werden. So werden auch Validierungs- und Testdatensätze gewonnen, um optimale Netze zu finden oder experimentell verschiedene Netzarchitekturen zu untersuchen. Statt einer Kombination eines Lidar-Sensors mit einer Farbkamera ist die Verwendung einer Lichtlaufzeitkamera mit integrierter Farbkamera vorstellbar, wobei deren Charakteristika und damit Trainingsergebnisse nicht uneingeschränkt auf andere Lidar-Sensoren oder Laserscanner übertragbar sind.Instead or as an optional supplement, application-specific training takes place in a step S2. Training is not done with random images, but with those from industrial environments or even the specific application environment. It is also possible to train with lidar measurement data or remission values instead of images. In order to obtain associated color images, a lidar sensor can be linked to a color camera and calibrated. In this way, validation and test data sets are also obtained in order to find optimal networks or to investigate different network architectures experimentally. Instead of a combination of a lidar sensor and a color camera, the use of a time-of-flight camera with an integrated color camera is conceivable, with its characteristics and thus training results not being transferrable to other lidar sensors or laser scanners without restrictions.

In der Anwendungsphase werden in einem Schritt S3 jeweils Lidar-Messdaten und zugehörige Remissionswerte aufgenommen. Dazu wird beispielsweise der Laserscanner 10 gemäß 1 oder ein anderer Lidar-Sensor eingesetzt. Die Lidar-Messdaten und Remissionswerte können aus mehreren Messungen desselben Lidar-Sensors am gleichen oder anderen Ort beziehungsweise von einer Kombination mehrerer Lidar-Sensoren zusammengesetzt werden.In the application phase, lidar measurement data and associated remission values are recorded in a step S3. For this purpose, for example, the laser scanner 10 according to FIG 1 or another lidar sensor is used. The lidar measurement data and remission values can be composed of several measurements from the same lidar sensor at the same or different location or from a combination of several lidar sensors.

Die Lidar-Messdaten und Remissionswerte werden nun in Schritten S4 bis S7 aufbereitet. Dabei schaffen die Schritte S4 bis S6 eine Anpassung in Format und Geometrie, erzeugen insbesondere ein Remissionsbild R(x,y), das zu den im Training verwendeten Farbbildern I(x,y) kompatibel ist, d.h. vergleichbare geometrische Sichtbereiche abdeckt und damit dieselben Objekte abbildet. In Schritt S7 wird der Übergang aus dem typischen IR-Spektrum einer Lichtlaufzeitmessung in das sichtbare Spektrum vollzogen, wofür konkret das Remissionsbild R(x,y) auf ein geschätztes, monochromes Bild T(x,y) im sichtbaren Spektralbereich transformiert wird. Diese Schritte S4 bis S7 sind optional, im Prinzip können die Lidar-Messdaten und Remissionswerte als solche die Eingangsdaten für das Verfahren des maschinellen Lernens bilden. Allerdings werden mit einzelnen, mehreren oder allen diesen Schritten deutlich bessere Ergebnisse erreicht.The lidar measurement data and remission values are now processed in steps S4 to S7. Steps S4 to S6 create an adjustment in format and geometry, in particular generate a remission image R(x,y) that is compatible with the color images I(x,y) used in training, i.e. covers comparable geometric viewing areas and thus the same objects depicts. In step S7, the transition from the typical IR spectrum of a time-of-flight measurement to the visible spectrum is completed, for which purpose the remission image R(x,y) is transformed to an estimated, monochrome image T(x,y) in the visible spectral range. These steps S4 to S7 are optional; in principle, the lidar measurement data and remission values as such can form the input data for the machine learning method. However, significantly better results are achieved with individual, several or all of these steps.

In einem Schritt S4 wird ein Remissionsbild R(x,y) aus den Remissionswerten erzeugt. Die Lidar-Messdaten liegen typischerweise als 3D-Punktewolke vor und sind so nicht unmittelbar mit einem Farbbild zu vergleichen. Durch die Erzeugung des Remissionsbildes wird eine Formatangleichung geschaffen.In a step S4, a remission image R(x,y) is generated from the remission values. The lidar measurement data is typically available as a 3D point cloud and cannot be directly compared with a color image. A format adjustment is created by generating the remission image.

In einem Schritt S5 folgt eine geometrische Anpassung. Ein Lidar-Sensor, insbesondere Laserscanner, hat typischerweise einen sehr großen horizontalen Öffnungswinkel von bis 360° bei nur beschränkter vertikaler Ausdehnung, im Vergleich zu einem sich eher gleichmäßig in beiden Richtungen erstreckenden Öffnungswinkel von beispielsweise je 70° horizontal und vertikal einer Kamera. Ohne ausgleichende Maßnahmen würde nur ein sehr schmaler Überlappungsbereich resultieren.A geometric adjustment follows in a step S5. A lidar sensor, in particular a laser scanner, typically has a very large horizontal opening angle of up to 360° with only a limited vertical extent in comparison to an opening angle of, for example, 70° horizontally and vertically, which extends more evenly in both directions, of a camera. Without compensatory measures, only a very narrow overlapping area would result.

Bei einem 2D-Laserscanner zeigt sich dies am deutlichsten. Um überhaupt eine Höhenauflösung zu erhalten, wird die Scanebene durch einen zusätzlichen Aktuator variiert, und die jeweiligen Höhenlinien der aufeinanderfolgenden Scans werden zu einem Remissionsbild angeordnet. Bei einem Mehrlagenscanner wie demjenigen der 1 werden die Höhenlinien simultan erzeugt.This is most evident with a 2D laser scanner. In order to obtain any height resolution at all, the scan plane is varied by an additional actuator, and the respective height lines of the successive scans are arranged to form a remission image. In a multi-layer scanner like that of 1 the contour lines are generated simultaneously.

Es besteht die Möglichkeit der Reprojektion der Lidar-Messdaten beziehungsweise Remissionswerte in eine virtuelle Ebene, beispielsweise durch sphärische, zylindrische oder stereographische Projektion. Farbbilder für das Training können entsprechend projiziert werden. Die Projektionen haben ihre jeweiligen Vor- und Nachteile, und es hängt auch vom gewünschten Visualisierungsergebnis ab, welche Verzerrungen und Verzeichnungen vermieden werden sollen oder toleriert werden.
Sofern die Anforderungen durch Rasterkorrekturen oder geometrische Projektionen nicht zu erfüllen sind, können aufwändigere Techniken angewandt werden. Ein Beispiel hierfür ist der Aufbau eines 3D-Mapping Graphs, beispielsweise gemäß Grisetti, Giorgio, et al. „A tutorial on graph-based SLAM“, IEEE Intelligent Transportation Systems Magazine 2.4 (2010): 31-43 mit einer Reprojektion der resultierenden Punktwolke in jeweils synthetische Remissionsbilder in passender Perspektive und Ausrichtung. Ergänzend kann noch eine Oberflächenschätzung perTruncated Signed Distance Function auf dem 3D-Mapping Graph durchgeführt werden, siehe hierzu Klingensmith, Matthew, et al. „Chisel: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially Hashed Signed Distance Fields.“ Robotics: science and systems. Vol. 4. No. 1. 2015. Dadurch kann das Problem der unterschiedlichen Belichtung der Umgebung einer passiven Kamera und eines aktiven Lidar-Sensors abgemildert werden, etwa mittels zusätzlicher Schattierung (shader). Synthetische Lichtquellen, die in der Position den echten Lichteinfällen nachempfunden wurden, wie an Fenstern oder Oberlichtern, können dabei helfen, den Unterschied zwischen synthetischem Remissionsbild und einem Helligkeitsbild entsprechend einer Kamera weiter zu verringern.
There is the possibility of reprojecting the lidar measurement data or remission values into a virtual plane, for example using spherical, cylindrical or stereographic projection. Color images for training can be projected accordingly. The projections have their respective advantages and disadvantages, and it also depends on the desired visualization result which distortions and distortions should be avoided or tolerated.
If the requirements cannot be met by grid corrections or geometric projections, more complex techniques can be used. An example of this is the structure of a 3D mapping graph, for example according to Grisetti, Giorgio, et al. "A tutorial on graph-based SLAM", IEEE Intelligent Transportation Systems Magazine 2.4 (2010): 31-43 with a reprojection of the resulting point cloud into synthetic remission images in the appropriate perspective and orientation. In addition, a surface estimation per truncated signed distance function can be performed on the 3D mapping graph, see Klingensmith, Matthew, et al. "Chisel: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially Hashed Signed Distance Fields." Robotics: science and systems. Vol. 4. No. 1. 2015. This can mitigate the problem of different exposure of the surroundings of a passive camera and an active lidar sensor, for example by means of additional shading (shader). Synthetic light sources that are positioned to mimic real light incidence, such as on windows or skylights, can help further reduce the difference between a synthetic remission image and a camera-like brightness image.

In einem Schritt S6 wird eine abstandsabhängige Korrektur der Remissionswerte vorgenommen. Für die Visualisierung beziehungsweise das Einfärben ist das Reflexionsvermögen der angetasteten Objektpunkt von Interesse, ohne einen abstandsbedingten Energieverlust. Da der jeweilige Abstand gemessen wird, bedarf es für eine Korrektur lediglich noch der Kenntnis des entsprechenden abstandsabhängigen Zusammenhangs zwischen gemessener Remission und Reflexionsvermögen. Dazu können vorab mit dem Lidar-Sensor Ziele definierten Reflexionsvermögens, etwa mit 2%, 10%, 50% und 100%, in verschiedenen Abständen angemessen werden. Es entsteht eine Nachschlagtabelle für die Korrektur, die bei Bedarf geeignet interpoliert oder in anderer Weise repräsentiert und genutzt werden kann.In a step S6, the remission values are corrected as a function of the distance. The reflectivity of the touched object point is of interest for the visualization or the coloring, without a distance-related energy loss. Since the respective distance is measured, a correction only requires knowledge of the corresponding distance-dependent relationship between measured remission and reflectivity. For this purpose, targets with a defined reflectivity, for example with 2%, 10%, 50% and 100%, can be measured in advance with the lidar sensor at different distances. A look-up table for the correction results, which can be appropriately interpolated or otherwise represented and used if required.

In einem Schritt S7 erfolgt ein Transfer von mit dem Lidar-Sensor im Infraroten aufgenommenen Remissionswerten in das sichtbare Spektrum. Etwas formaler ausgedrückt wird eine Funktion f angewandt, die Remissionswerte des Remissionsbildes R(x,y) in Werte eines einkanaligen Bildes im sichtbaren Spektrum T(x,y) überführt. Dabei entspricht T(x,y) vorzugsweise einem Farbkanal des späteren eingefärbten Bildes, enthält also beispielsweise Luminanzwerte für den CIE-Lab-Farbraum. Dabei ist zunächst die direkte Interpretation der im Infraroten gemessenen Remissionswerte als Helligkeiten im sichtbaren Spektrum möglich. Wegen der spektralen Nähe von Rot und Infrarot kann es günstiger sein, T(x,y) nicht mit Helligkeitswerten, sondern als den Rotkanal eines RGB-Bildes zu füllen.In a step S7, remission values recorded with the lidar sensor in the infrared are transferred to the visible spectrum. Expressed somewhat more formally, a function f is used, which converts reflectance values of the reflectance image R(x,y) into values of a single-channel image in the visible spectrum T(x,y). In this case, T(x,y) preferably corresponds to a color channel of the later colored image, ie it contains luminance values for the CIE Lab color space, for example. First of all, the direct interpretation of the remission values measured in the infrared as brightness in the visible spectrum is possible. Due to the spectral closeness of red and infrared, it can be better not to fill T(x,y) with brightness values, but rather as the red channel of an RGB image.

Nicht nur für das sogleich erläuterte eigentliche Einfärben im Schritt S8, sondern bereits für die Funktion f, die R(x,y) auf Î(x,y) abbildet, kann ein Verfahren des maschinellen Lernens eingesetzt werden, insbesondere ein neuronales Netz. Semantische Informationen, wie sie mit Verfahren des maschinellen Lernens quasi nebenbei identifiziert werden (siehe etwa Simonyan, Karen, and Andrew Zisserman. „Very deep convolutional networks for large-scale image recognition.“ arXiv preprint arXiv:1409.1556, 2014), können aber auch klassisch gewonnen werden, etwa durch Hough-Transformation, um gezielt runde Objekte im Bild zu detektieren. Es wird jeweils das im Infraroten erzeugte Remissionsbild R(x.y) in einen Feature-Vektor überführt, analog das zum Training beziehungsweise das zur Schätzung der Funktion f verwendete Farbbild I(x,y). Von dem Farbbild wird allerdings nur derjenige Kanal verwendet, in den f transformiert, also beispielsweise der Luminanzkanal nach dem CIE-Lab-Farbmodell oder der Rotkanal eines RGB-Bildes, der physikalisch näher am Infrarot-Spektrum liegt. Ein gängiges Vorgehen im Training von f oder des neuronalen Netzes zur Implementierung von f minimiert dann eine Loss-Funktion, also den Fehler zwischen der momentanen Prädiktion f(R(x,y)=Î(x,y) des neuronalen Netzes und dem tatsächlichen Farbkanal I(x,y). Für zugehörige Objektbereiche F(n) lässt sich das mit einer euklidischen Loss-Funktion als Minimierung von L = Σn ||Î(F(n)) -I(F(n)) ||2 formulieren.A method of machine learning, in particular a neural network, can be used not only for the actual coloring in step S8, which will be explained immediately, but also for the function f that maps R(x,y) to Î(x,y). However, semantic information, as identified almost incidentally with methods of machine learning (see, for example, Simonyan, Karen, and Andrew Zisserman. "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556, 2014), can also can be obtained classically, for example by Hough transformation, in order to specifically detect round objects in the image. In each case, the reflectance image R(xy) generated in the infrared is converted into a feature vector, analogously to the color image I(x,y) used for training or for estimating the function f. Of the color image, however, only that channel is used into which f transforms, for example the luminance channel according to the CIE Lab color model or the red channel of an RGB image, which is physically closer to the infrared spectrum. A common procedure in training f or the neural network for implementing f then minimizes a loss function, i.e. the error between the current prediction f(R(x,y)=Î(x,y) of the neural network and the actual one Color channel I(x,y) For associated object areas F(n), this can be done with a Euclidean loss function as a minimization of L = Σn ||Î(F(n)) -I(F(n)) || 2 formulate.

In einem Schritt S8 erfolgt nach diesen Vorbereitungen, die wie erwähnt je nach Ausführungsform zumindest teilweise entfallen können, das eigentliche Einfärben oder die Farbinferenz mit dem in den Schritten S1 und S2 trainierten Verfahren des maschinellen Lernens. Dabei wird der aus den Remissionswerten transformierte Farbkanal vorgegeben, etwa der Luminanzkanal oder der Rotkanal, und die beiden anderen Farbkanäle a, b beziehungsweise Grün und Blau werden plausibel ergänzt. Dank der Vorbereitungen ist dafür ein an sich bekanntes Verfahren zum Kolorieren wie aus der einleitend genannten Arbeit von Zhang et al. anwendbar, worauf für weitere Details verwiesen wird. Wenn dafür anstelle des Luminanzkanals der Rotkanal den Ausgangspunkt bildet, sollten die perzeptiven Unterschiede richtig gewichtet und dazu die Loss-Funktion angepasst werden: aus dem direkten euklidischen Loss im CIE-Lab-Bereich wird eine Transformation der G, B Schätzungen zusammen mit dem in diesem Schritt gegebenen R-Kanal in den CIE-Lab-Raum vorgenommen, um den angepassten Loss zu berechnen.In a step S8, after these preparations, which, as mentioned, can at least partially be omitted depending on the embodiment, the actual coloring or color inference takes place using the machine learning method trained in steps S1 and S2. The color channel transformed from the remission values is specified, for example the luminance channel or the red channel, and the two other color channels a, b or green and blue are plausibly supplemented. Thanks to the preparations, a method for coloring that is known per se, as described in the work by Zhang et al. applicable, to which reference is made for further details. If the starting point for this is the red channel instead of the luminance channel, the perceptual differences should be properly weighted and the loss function adjusted for this: the direct Euclidean loss in the CIE Lab domain becomes a transformation of the G, B estimates together with that in this one Step given R-channel into the CIE lab space to calculate the adjusted loss.

Der Einsatz eines tiefen Faltungsnetzes wie bei Zhang et al. ist besonders vorteilhaft. Prinzipiell sind andere Verfahren des maschinellen Lernens denkbar, beispielsweise ein lineares Modell, ein Entscheidungsbaum, ein neuronales Netz, eine Gaussprozess-Regression, ein k-nearest Neighbour-Verfahren oder eine support vector machine. Alternativ kann eine Zuordnung von Farbinformation auch klassisch über Objektdetektoren insbesondere mittels Template Matching auf den aufbereiteten Remissionsbildern erfolgen. Erkannten Objekten wird dabei eine plausible Farbe zugewiesen, beispielsweise durch Zugriff auf eine zuvor erstellte Datenbank mit Objekten und zugehörigen Farben.Using a deep convolution mesh as in Zhang et al. is particularly beneficial. In principle, other methods of machine learning are conceivable, for example a linear model, a decision tree, a neural network, a Gaussian process regression, a k-nearest neighbor method or a support vector machine. Alternatively, color information can also be assigned in the classic way via object detectors, in particular by means of template matching on the processed remission images. Detected objects are assigned a plausible color, for example by accessing a previously created database with objects and associated colors.

Das Einfärben und die Farbinferenz kann auf Einzelmessungen oder Einzelscans basieren, oder es werden gerenderte Remissionsbilder von speziell gewählten Positionen in der Karte erzeugt, um dichte Bilder, fotoähnlichere Bilder zu erzeugen. Im Zusammenhang mit einer besser erfassbaren Darstellung sind auch Verfahren des Style Transfers denkbar, wobei hier abweichend vom Regelfall eines Style Transfers keine räumlichen Veränderungen im Bild vorgenommen werden. Bei Erfassung von Lidar-Messdaten mit mehreren Lidar-Sensoren ist ein gegenseitiger RSSI-Abgleich analog zu Schritt S6 von Vorteil.Coloring and color inference can be based on single measurements or single scans, or rendered remission images are generated from specifically chosen locations in the map to produce dense, more photo-like images. In connection with a better comprehensible representation, methods of style transfer are also conceivable, in which case, unlike the normal case of a style transfer, no spatial changes are made in the image. When capturing lidar measurement data with multiple lidar sensors, a mutual RSSI comparison analogous to step S6 is advantageous.

Die Farbinferenz kann in der Regel offline erfolgen, also nach der eigentlichen Aufnahme der Lidar-Messdaten, so dass im Sensorsystem selbst keine zusätzlichen Kosten und Rechenzeiten anfallen. Die Einfärbung kann sogar ein Nebenprodukt sein, beziehungsweise mit anderen Bildverarbeitungsschritten wie Objektdetektion oder Objektsegmentierung kombiniert werden. Mit einer solchen Kombination von Aufgaben befasst sich beispielsweise die Arbeit Dharmasiri, Thanuja, Andrew Spek, and Tom Drummond. „Joint prediction of depths, normals and surface curvature from rgb images using cnns.“ 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE, 2017, auf die ergänzend verwiesen wird.The color inference can usually be done offline, i.e. after the actual recording of the lidar measurement data, so that no additional costs and computing times are incurred in the sensor system itself. The coloring can even be a by-product or combined with other image processing steps such as object detection or object segmentation. For example, the work Dharmasiri, Thanuja, Andrew Spek, and Tom Drummond deals with such a combination of tasks. "Joint prediction of depths, normals and surface curvature from rgb images using cnns." 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE, 2017, to which additional reference is made.

Claims (11)

Verfahren zum Visualisieren von mit infrarotem Licht erfassten Lidar-Messdaten, insbesondere Lidar-Messdaten eines Laserscanners (10), wobei mit den Lidar-Messdaten zugehörige Remissionswerte erfasst und aus den Remissionswerten mit einem Verfahren des maschinellen Lernens Farbwerte rekonstruiert werden, dadurch gekennzeichnet, dass zuerst die Remissionswerte in Rotwerte transformiert und dann Grün- und Blauwerte mit dem Verfahren des maschinellen Lernens aus den Rotwerten rekonstruiert werden.Method for visualizing lidar measurement data recorded with infrared light, in particular lidar measurement data from a laser scanner (10), with the lidar measurement data being used to record associated remission values and color values to be reconstructed from the remission values using a machine learning method, characterized in that first the reflectance values are transformed into red values and then green and blue values are reconstructed from the red values using the machine learning method. Verfahren nach Anspruch 1, wobei aus den Lidar-Messdaten und den zugehörigen Remissionswerten ein zweidimensionales Remissionsbild erzeugt wird.procedure after claim 1 , whereby a two-dimensional remission image is generated from the lidar measurement data and the associated remission values. Verfahren nach Anspruch 2, wobei das Remissionsbild in ein Format transformiert wird, das dem Format von Farbbildern entspricht, die zum Training des Verfahrens des maschinellen Lernens verwendet werden.procedure after claim 2 , where the remission image is transformed into a format corresponding to the format of color images used to train the machine learning method. Verfahren nach Anspruch 1 oder 2, wobei das Remissionsbild mittels einer Projektion der Lidar-Messdaten in eine virtuelle Ebene erzeugt wird, insbesondere eine sphärische, zylindrische oder stereographische Projektion.procedure after claim 1 or 2 , wherein the remission image is generated by means of a projection of the lidar measurement data in a virtual plane, in particular a spherical, cylindrical or stereographic projection. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Remissionswerte anhand eines Zusammenhangs von Abstand und Remissionsverlust korrigiert werden.Method according to one of the preceding claims, in which the reflectance values are corrected using a relationship between distance and reflectance loss. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens ein lineares Modell, einen Entscheidungsbaum, ein neuronales Netz, eine Gaussprozess-Regression, ein k-nearest Neighbour-Verfahren oder eine support vector machine aufweist.Method according to one of the preceding claims, wherein the machine learning method comprises a linear model, a decision tree, a neural network, a Gaussian process regression, a k-nearest neighbor method or a support vector machine. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens ein tiefes neuronales Faltungsnetz aufweist.A method according to any one of the preceding claims, wherein the machine learning method comprises a deep convolutional neural network. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens mit einer allgemeinen Bilddatenbank vortrainiert ist.Method according to one of the preceding claims, wherein the method of the machine learning with a general image database. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens mit Daten einer Anwendungsumgebung trainiert ist, insbesondere einer industriellen Umgebung.Method according to one of the preceding claims, wherein the machine learning method is trained with data from an application environment, in particular an industrial environment. Verfahren nach einem der vorhergehenden Ansprüche, wobei Trainingsdaten für das Verfahren des maschinellen Lernens durch gemeinsame Aufnahme von Lidar-Messdaten und Farbbildern erzeugt werden.Method according to one of the preceding claims, wherein training data for the machine learning method are generated by joint recording of lidar measurement data and color images. System mit einem Lidar-Sensor (10) zur Aufnahme von Lidar-Messdaten und mit einer Recheneinheit, die ein Visualisieren der Lidar-Messdaten mit einem Verfahren nach einem der vorhergehenden Ansprüche ausführt.System with a lidar sensor (10) for recording lidar measurement data and with a computing unit that executes a visualization of the lidar measurement data using a method according to one of the preceding claims.
DE102021124430.7A 2021-09-21 2021-09-21 Visualize lidar measurement data Active DE102021124430B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021124430.7A DE102021124430B3 (en) 2021-09-21 2021-09-21 Visualize lidar measurement data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021124430.7A DE102021124430B3 (en) 2021-09-21 2021-09-21 Visualize lidar measurement data

Publications (1)

Publication Number Publication Date
DE102021124430B3 true DE102021124430B3 (en) 2022-11-03

Family

ID=83600637

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021124430.7A Active DE102021124430B3 (en) 2021-09-21 2021-09-21 Visualize lidar measurement data

Country Status (1)

Country Link
DE (1) DE102021124430B3 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116418967A (en) * 2023-04-13 2023-07-11 青岛图海纬度科技有限公司 Color restoration method and device for laser scanning of underwater dynamic environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1965225A2 (en) 2007-02-28 2008-09-03 Denso Wave Incorporated Laser radar apparatus for three-dimensional detection of objects
DE102008032216A1 (en) 2008-07-09 2010-01-14 Sick Ag Device for detecting the presence of an object in space
US8767190B2 (en) 2006-07-13 2014-07-01 Velodyne Acoustics, Inc. High definition LiDAR system
US20170289524A1 (en) 2015-09-24 2017-10-05 Ouster, Inc. Optical System for Collecting Distance Information Within a Field
US20200357190A1 (en) 2019-05-06 2020-11-12 Sap National Security Services, Inc. System and method for enhancing a 3d rendering of a lidar point cloud

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8767190B2 (en) 2006-07-13 2014-07-01 Velodyne Acoustics, Inc. High definition LiDAR system
EP1965225A2 (en) 2007-02-28 2008-09-03 Denso Wave Incorporated Laser radar apparatus for three-dimensional detection of objects
DE102008032216A1 (en) 2008-07-09 2010-01-14 Sick Ag Device for detecting the presence of an object in space
US20170289524A1 (en) 2015-09-24 2017-10-05 Ouster, Inc. Optical System for Collecting Distance Information Within a Field
US20200357190A1 (en) 2019-05-06 2020-11-12 Sap National Security Services, Inc. System and method for enhancing a 3d rendering of a lidar point cloud

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KIM, H.K. [et al.]: Color Image Generation from Range and Reflection Data of LiDAR. Sensors [online]. 21 September 2020. Vol. 20, no. 18, S. 5414. DOI 10.3390/s20185414.
KIM, H.K. [et. al.]: Asymmetric Encoder-Decoder Structured FCN Based LiDAR to Color Image Generation. Sensors [online]. 5 November 2019. Vol. 19, no. 21, S. 4818. DOI 10.3390/s19214818.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116418967A (en) * 2023-04-13 2023-07-11 青岛图海纬度科技有限公司 Color restoration method and device for laser scanning of underwater dynamic environment
CN116418967B (en) * 2023-04-13 2023-10-13 青岛图海纬度科技有限公司 Color restoration method and device for laser scanning of underwater dynamic environment

Similar Documents

Publication Publication Date Title
DE112020004813B4 (en) System for expanding sensor systems and imaging systems with polarization
US11513212B2 (en) Motor vehicle and method for a 360° detection of the motor vehicle surroundings
DE102020206759A1 (en) Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
CN107862293B (en) Radar color semantic image generation system and method based on countermeasure generation network
EP3819671B1 (en) Optoelectronic sensor and method for detecting objects
EP3396409B1 (en) Method for calibrating a camera and a laser scanner
DE112015004396T5 (en) AUGMENTED REALITY CAMERA FOR USE WITH 3D METROLOGY EQUIPMENT FOR PRODUCING 3D IMAGES FROM 2D CAMERA IMAGES
DE10058244C2 (en) Measuring method for determining the position of an object in front of a screen and device for carrying out the method
DE102016107959A1 (en) Structured light based multipath deletion with top imaging
US11887278B2 (en) System and method for training a neural network to fill gaps between scan points in images and to de-noise point cloud images
US11620760B2 (en) Ranging method based on laser-line scanning imaging
DE102009055626A1 (en) Optical measuring device for optical measurement of maize plant, has evaluation device evaluating distance signal of camera pixels to determine three-dimensional enveloped surface of measuring object to be detected in measuring region
US11523029B2 (en) Artificial intelligence scan colorization
DE102021124430B3 (en) Visualize lidar measurement data
DE102020129096A1 (en) GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM
DE102019134324A1 (en) A method of measuring the topography of an environment
DE102014116904B4 (en) Method for optically scanning and measuring a scene and automatically generating a video
Ehambram et al. Stereo-visual-lidar sensor fusion using set-membership methods
EP3885787B1 (en) Detection of distance measurement data
DE102015002283A1 (en) Device and method for in particular three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement and object-dependent spatial resolution of several different individual scanners
DE102017117212A1 (en) System and method for stereotriangulation
EP4224430A1 (en) Scan color restoration
DE102022204515A1 (en) Method for determining groups of points that are visible or not visible from a given viewpoint
DE102016119150A1 (en) Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scanned data from a 3D scanner
WO2022194939A1 (en) Defect recognition in additive manufacture

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final