DE102018127865A1 - Method for detecting an object using a laser scanner - Google Patents

Method for detecting an object using a laser scanner Download PDF

Info

Publication number
DE102018127865A1
DE102018127865A1 DE102018127865.9A DE102018127865A DE102018127865A1 DE 102018127865 A1 DE102018127865 A1 DE 102018127865A1 DE 102018127865 A DE102018127865 A DE 102018127865A DE 102018127865 A1 DE102018127865 A1 DE 102018127865A1
Authority
DE
Germany
Prior art keywords
laser scanner
sampling points
bounding box
points
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018127865.9A
Other languages
German (de)
Inventor
Harsha Mathur
Faraz Qureishi
Georg Arbeiter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102018127865.9A priority Critical patent/DE102018127865A1/en
Publication of DE102018127865A1 publication Critical patent/DE102018127865A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen eines Objekts durch einen Laserscanner, mit den folgenden Verfahrensschritten:- Abtasten einer Umgebung des Laserscanners durch einen Laserstrahl,- Erfassen von reflektiertem Laserstrahllicht in der Form von Abtastpunkten (3),- Bestimmen mindestens eines mutmaßlichen Objekts in der Umgebung des Laserscanners basierend auf dem erfassten reflektierten Laserstrahllicht in der Form von Abtastpunkten (3), und- Bestimmen eines Begrenzungsrahmens (1) für das mindestens eine mutmaßliche Objekt, gekennzeichnet durch- Zählen der Anzahl von Abtastpunkten (3) im Begrenzungsrahmen (1), und- Validieren, ob es sich bei dem mutmaßlichen Objekt um ein reales Objekt oder um ein falsch positives Ergebnis handelt, durch Vergleichen der Anzahl gezählter Abtastpunkte (3) mit einer erwarteten Anzahl von Abtastpunkten (3) für ein reales Objekt.Auf diese Weise wird ein Verfahren bereitgestellt, um auf effiziente Weise unter Verwendung eines einzelnen Sensors zu validieren, ob ein erfasstes mutmaßliches Objekt ein reales Objekt oder ein falsch positives Ergebnis ist.The present invention relates to a method for detecting an object by a laser scanner, with the following method steps: - scanning an environment of the laser scanner by a laser beam, - detecting reflected laser beam light in the form of scanning points (3), - determining at least one suspected object in the surroundings of the laser scanner based on the detected reflected laser beam light in the form of scanning points (3), and - determining a bounding box (1) for the at least one suspected object, characterized by - counting the number of scanning points (3) in the bounding box (1) , and- Validate whether the putative object is a real object or a false positive result by comparing the number of counted sample points (3) with an expected number of sample points (3) for a real object. In this way provides a method to efficiently use an e Validate individual sensor whether a detected suspected object is a real object or a false positive result.

Description

Die Erfindung betrifft ein Verfahren zum Erfassen eines Objekts durch einen Laserscanner, insbesondere zum autonomen Fahren, mit folgenden Verfahrensschritten:

  • - Abtasten einer Umgebung des Laserscanners durch einen Laserstrahl,
  • - Erfassen von reflektiertem Laserstrahllicht in der Form von Abtastpunkten,
  • - Bestimmen mindestens eines mutmaßlichen Objekts in der Umgebung des Laserscanners basierend auf dem erfassten reflektierten Laserstrahllicht in der Form von Abtastpunkten, und
  • - Bestimmen eines Begrenzungsrahmens für das mindestens eine mutmaßliche Objekt.
The invention relates to a method for detecting an object by a laser scanner, in particular for autonomous driving, with the following method steps:
  • Scanning an environment of the laser scanner by a laser beam,
  • Detection of reflected laser beam light in the form of sampling points,
  • Determining at least one putative object in the vicinity of the laser scanner based on the detected reflected laser beam light in the form of scanning points, and
  • - Determining a bounding box for the at least one suspected object.

Die kritischste Aufgabe des autonomen Fahrens ist die Objekterfassung anhand verfügbarer Sensordaten. Die erfassten Objekte werden ferner dazu verwendet, die erreichbare Sichtbarkeit für den verwendeten Sensor zu definieren. In Laserscanneranwendungen werden diese Objekte zum Definieren des sichtbaren Raums im Sichtfeld (FOV) des Sensors verwendet. Ungenauigkeiten in Erfassungsalgorithmen können jedoch auch zur Erzeugung von Geisterobjekten führen (falsch positive Ergebnisse) führen, wodurch eine ungenaue Eingabe für die Schätzung des sichtbaren Raums erhalten wird.The most critical task of autonomous driving is object detection using available sensor data. The detected objects are also used to define the attainable visibility for the sensor used. In laser scanner applications, these objects are used to define the visible space in the field of view (FOV) of the sensor. However, inaccuracies in detection algorithms can also lead to the creation of ghost objects (false positive results), which results in an inaccurate input for the estimation of the visible space.

Ein falsch positives Ergebnis in einem solchen Szenario führt zu einer Fehlinterpretation des verfügbaren sichtbaren Raums, wodurch die Leistungsfähigkeit der Nachverarbeitungsschritte beeinträchtigt wird. Die Erfassungsrate kann durch die Verwendung mehrerer Sensoren und Zusammenführen der von allen Sensoren verfügbaren Daten verbessert werden. In dieser Hinsicht ist aus der US 9383753 B1 eine LIDAR- (Light Detection and Ranging) Vorrichtung mit einer dynamisch einstellbaren Winkelauflösung zur Verwendung als ein Sensor bekannt, der Umgebungsinformation zum Navigieren in einem autonomen Fahrzeug bereitstellt. Ein erster Bereich einer Abtastzone wird abgetastet, während Lichtpulse mit einer ersten Pulsrate ausgesendet werden, und ein zweiter Bereich der Abtastzone wird abgetastet, während Lichtpulse mit einer zweiten Pulsrate ausgesendet werden, die sich von der ersten Pulsrate unterscheidet. Es wird Information von der LIDAR-Vorrichtung empfangen, die die Zeitverzögerungen zwischen der Aussendung der Lichtpulse und dem Empfang der entsprechenden zurückkehrenden Lichtpulse anzeigen. Es wird eine dreidimensionale Punktkarte erzeugt, wobei die Auflösung der Punktkarte im ersten Bereich auf der ersten Pulsrate und im zweiten Bereich auf der zweiten Pulsrate basiert.A false positive result in such a scenario leads to a misinterpretation of the available visible space, which affects the performance of the post-processing steps. The acquisition rate can be improved by using multiple sensors and merging the data available from all sensors. In this regard, is out of the US 9383753 B1 a LIDAR (Light Detection and Ranging) device with a dynamically adjustable angular resolution for use as a sensor is known which provides environmental information for navigation in an autonomous vehicle. A first area of a scan zone is scanned while light pulses are emitted at a first pulse rate, and a second area of the scan zone is scanned while light pulses are emitted at a second pulse rate that is different from the first pulse rate. Information is received from the LIDAR device indicating the time delays between the transmission of the light pulses and the reception of the corresponding returning light pulses. A three-dimensional point map is generated, the resolution of the point map being based on the first pulse rate in the first area and on the second pulse rate in the second area.

Ähnlicherweise beschreibt die US 9097800 B1 eine LIDAR- (Light Detection and Ranging) Vorrichtung, die einem autonomen Fahrzeug zugeordnet ist und eine Abtastzone abtastet, indem Lichtpulse ausgesendet und den Lichtpulsen entsprechende reflektierte Signale empfangen werden. Die reflektierten Signale zeigen eine dreidimensionale Punktkarte der Verteilung reflektierender Punkte in der Abtastzone an. Eine RADAR- (Radio Detection and Ranging) Vorrichtung tastet einen Bereich der Abtastzone ab, der einem durch die dreidimensionale Punktkarte angezeigten reflektierenden Merkmal entspricht. Massive Objekte werden von nicht massiven reflektierenden Merkmalen basierend auf einem reflektierten Funksignal unterschieden, das dem reflektierenden Merkmal entspricht. Positionen von Merkmalen, die durch die reflektierten Funksignale angezeigt werden, werden während der Abtastung durch die LIDAR-Vorrichtung gemäß einer Relativbewegung der funkreflektierenden Merkmale, die durch eine Frequenzverschiebung in den reflektierten Funksignalen angezeigt wird, auf geschätzte Positionen projiziert.Similarly, the US 9097800 B1 a LIDAR (Light Detection and Ranging) device which is assigned to an autonomous vehicle and scans a scanning zone by emitting light pulses and receiving reflected signals corresponding to the light pulses. The reflected signals indicate a three-dimensional point map of the distribution of reflecting points in the scan zone. A RADAR (Radio Detection and Ranging) device scans an area of the scan zone that corresponds to a reflective feature indicated by the three-dimensional dot map. Solid objects are distinguished from non-massive reflective features based on a reflected radio signal that corresponds to the reflective feature. Positions of features indicated by the reflected radio signals are projected onto estimated positions during scanning by the LIDAR device in accordance with a relative movement of the radio reflecting features indicated by a frequency shift in the reflected radio signals.

Die vorstehend erwähnten Verfahren erhöhen jedoch nicht nur die Kosten für Hardware, sondern führen auch wechselseitige Abhängigkeiten zwischen den verwendeten Sensoren ein.However, the methods mentioned above not only increase the cost of hardware, but also introduce interdependencies between the sensors used.

Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren anzugeben, das unter Verwendung eines einzelnen Sensors effizient validiert, ob ein erfasstes mutmaßliches Objekt ein reales Objekt oder ein falsch positives Ergebnis ist.The invention is therefore based on the object of specifying a method which, using a single sensor, efficiently validates whether a detected suspected object is a real object or a false positive result.

Die Lösung dieser Aufgabe erfolgt durch den Gegenstand der unabhängigen Ansprüche. Bevorzugte Ausführungsformen sind in den Unteransprüchen beschrieben.This object is achieved by the subject matter of the independent claims. Preferred embodiments are described in the subclaims.

Erfindungsgemäß wird daher ein Verfahren zum Erfassen eines Objekts durch einen Laserscanner angegeben, das die folgenden Verfahrensschritte aufweist:

  • - Abtasten einer Umgebung des Laserscanners durch einen Laserstrahl,
  • - Erfassen von reflektiertem Laserstrahllicht in der Form von Abtastpunkten,
  • - Bestimmen mindestens eines mutmaßlichen Objekts in der Umgebung des Laserscanners basierend auf dem erfassten reflektierten Laserstrahllicht in der Form von Abtastpunkten, und
  • - Bestimmen eines Begrenzungsrahmens für das mindestens eine mutmaßliche Objekt, gekennzeichnet durch
  • - Zählen der Anzahl von Abtastpunkten im Begrenzungsrahmen, und
  • - Validieren, ob es sich bei dem mutmaßlichen Objekt um ein reales Objekt oder ein falsch positives Ergebnis handelt, durch Vergleichen der Anzahl gezählter Abtastpunkte mit einer erwarteten Anzahl von Abtastpunkten für ein reales Objekt.
According to the invention, a method for detecting an object by a laser scanner is therefore specified, which has the following method steps:
  • Scanning an environment of the laser scanner by a laser beam,
  • Detection of reflected laser beam light in the form of sampling points,
  • Determining at least one putative object in the vicinity of the laser scanner based on the detected reflected laser beam light in the form of scanning points, and
  • - Determining a bounding box for the at least one putative object, characterized by
  • - counting the number of sample points in the bounding box, and
  • - Validate whether the suspected object is a real object or a false positive by comparing the number of counted sample points with an expected number of sample points for a real object.

Bei Algorithmen ist es aufgrund zahlreicher unvermeidbarer Faktoren, die die Leistungsfähigkeit beeinträchtigen, nicht immer möglich, eine Erfassungsrate von 100% zu erzielen. Beispielsweise können Verdeckungen, übersprungene Bild-Rahmen usw. die Erfassungsrate durch Erzeugen falsch positiver und falsche negativer Ergebnisse erheblich beeinflussen. Die vorliegende Erfindung befasst sich daher mit dem Vermindern von falsch positiven Ergebnissen durch Validieren der erfassten Objekte durch Zählen der Anzahl von dem Begrenzungsrahmen des Objekts zugeordneten Abtastpunkten und Ausführen eines Vergleichs mit erwarteten Daten für die Abtastpunkte, ohne dass zusätzliche Kosten und wechselseitige Abhängigkeiten verursacht werden, die auftreten können, wenn mehrere Sensoren verwendet werden.With algorithms, it is not always possible to achieve a 100% acquisition rate due to numerous unavoidable factors that affect performance. For example, obscurations, skipped picture frames, etc. can significantly affect the acquisition rate by generating false positive and false negative results. The present invention is therefore concerned with reducing false positive results by validating the detected objects by counting the number of sample points associated with the bounding box of the object and performing a comparison with expected data for the sample points without incurring additional costs and interdependencies. that can occur when multiple sensors are used.

Im Allgemeinen können für die Erfindung verschiedene Typen von Laserscannern verwendet werden. Vorzugsweise ist ein Laserscanner ein LIDAR-Sensor. LIDAR-Sensoren haben sich für Automobilanwendungen als effizient und vielseitig erwiesen und sind daher für die vorliegende Erfindung gut geeignet.In general, various types of laser scanners can be used with the invention. A laser scanner is preferably a LIDAR sensor. LIDAR sensors have proven to be efficient and versatile for automotive applications and are therefore well suited for the present invention.

Das Vergleichen der Anzahl gezählter Abtastpunkte mit einer erwarteten Anzahl von Abtastpunkten für ein reales Objekt kann auf unterschiedliche Weise erfolgen. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Verfahren jedoch die folgenden weiteren Verfahrensschritte auf:

  • - Bereitstellen einer Nachschlagetabelle für die erwartete Anzahl von Abtastpunkten für reale Objekte verschiedener Klassifizierungen, und
  • - Vergleichen der Anzahl gezählter Abtastpunkte mit der erwarteten Anzahl von Abtastpunkten für die realen Objekte mit verschiedenen Klassifizierungen. Auf diese Weise wird das Validieren, ob es sich bei dem mutmaßlichen Objekt um ein reales Objekt oder um ein falsch positives Ergebnis handelt, auf der Basis verschiedener Klassen erwarteter Objekte ausgeführt, die in der Nachschlagetabelle definiert sind. Die verschiedenen Klassen erwarteter Objekte, die durch die Nachschlagetabelle bereitgestellt werden, werden im Voraus auf der Basis der gemessenen Anzahl von Abtastpunkten für beispielhafte reale Objekte bestimmt. Auf diese Weise wird die Validierung weniger fehleranfällig und effizienter. In dieser Hinsicht ist die erwartete Anzahl von Abtastpunkten vorzugsweise durch einen Bereich von Anzahlen von Abtastpunkten mit einem oberen und einem unteren Grenzwert gegeben. Daher kann ein statistisches Verfahren in Bezug auf die erwartete Anzahl von Abtastpunkten für Objekte verschiedener Klassen verwendet werden.
The comparison of the number of counted sampling points with an expected number of sampling points for a real object can be done in different ways. According to a preferred embodiment of the invention, however, the method has the following further method steps:
  • Providing a look-up table for the expected number of sampling points for real objects of different classifications, and
  • - Compare the number of counted sampling points with the expected number of sampling points for the real objects with different classifications. In this way, validation as to whether the suspected object is a real object or a false positive result is performed based on various classes of expected objects defined in the lookup table. The various classes of expected objects provided by the lookup table are determined in advance based on the measured number of sampling points for exemplary real objects. This makes validation less error prone and more efficient. In this regard, the expected number of sampling points is preferably given by a range of numbers of sampling points with an upper and a lower limit. Therefore, a statistical method regarding the expected number of sampling points for objects of different classes can be used.

Ferner ermöglicht das erfindungsgemäße Verfahren nicht nur eine hochgradig zuverlässige Validierung eines mutmaßlichen Objekts. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Verfahren ferner den Schritt zum Bestimmen der Klassifizierung des mutmaßlichen Objekts auf, das auf der Basis der Nachschlagetabelle als ein reales Objekt validiert wurde. Auf diese Weise wird auch klar, zu welcher Klassifizierung das validierte Objekt gehört. Vorzugsweise ist die Klassifizierung mindestens eine Klassifizierung unter Fußgänger, Motorrad, Auto und LKW.Furthermore, the method according to the invention not only enables a highly reliable validation of a putative object. According to a preferred embodiment of the invention, the method further comprises the step of determining the classification of the putative object that has been validated based on the lookup table as a real object. This also makes it clear which classification the validated object belongs to. The classification is preferably at least one classification among pedestrians, motorcycles, cars and trucks.

Die vorstehend erwähnte Aufgabe der Erfindung kann bereits durch das weiter oben erläuterte Verfahren gelöst werden. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Verfahren jedoch ferner die folgenden Verfahrensschritte auf:

  • - Erfassen des reflektierten Laserstrahllichts in Form von Abtastpunkten in mehreren Schichten, die mit verschiedenen Entfernungszonen vom Laserscanner in Beziehung stehen,
  • - Bestimmen, in welchen Schichten sich der Begrenzungsrahmen befindet, und
  • - Zählen der Abtastpunkte nur in den Schichten, in denen sich der Begrenzungsrahmen befindet. Auf diese Weise wird kein Arbeitsaufwand darauf aufgewendet, Abtastpunkte in anderen Schichten zu zählen, als in denjenigen, in denen sich der Begrenzungsrahmen tatsächlich befindet. Dies spart Rechenzeit und macht das Verfahren somit schneller und effizienter. Vorzugsweise erfolgt das Bestimmen, in welchen Schichten sich der Begrenzungsrahmen befindet, dadurch, dass bestimmt wird, wo sich der nächstgelegene Punkt des Begrenzungsrahmens und der am weitesten entfernte Punkt des Begrenzungsrahmens in Bezug auf den Laserscanner befinden.
The above-mentioned object of the invention can already be achieved by the method explained above. According to a preferred embodiment of the invention, however, the method also has the following method steps:
  • Detection of the reflected laser beam light in the form of scanning points in several layers which are related to different distance zones from the laser scanner,
  • - determine which layers the bounding box is in, and
  • - Counting the sampling points only in the layers in which the bounding box is located. In this way, no work is required to count sample points in layers other than those in which the bounding box is actually located. This saves computing time and makes the process faster and more efficient. Preferably, determining which layers the bounding box is in is done by determining where the closest point of the bounding box and the most distant point of the bounding box are with respect to the laser scanner.

Für die Erfindung ist es nicht obligatorisch, zu bestimmen, in welchem Winkelsektor sich das validierte Objekt relativ zum Laserscanner befindet. Gemäß einer bevorzugten Ausführungsform der Erfindung weist das Verfahren jedoch den folgenden Schritt auf:

  • - Bestimmen des Winkelbereichs des mutmaßlichen Objekts relativ zum Laserscanner durch Erfassen des am weitesten rechts liegenden Punktes und des am weitesten links liegenden Punktes des Begrenzungsrahmens relativ zum Laserscanner. Auf diese Weise wird weitere Information über das validierte Objekt verfügbar, weil auch bestimmt wird, in welchem Winkelsektor sich das validierte Objekt relativ zum Laserscanner befindet.
It is not mandatory for the invention to determine in which angle sector the validated object is located relative to the laser scanner. According to a preferred embodiment of the invention, however, the method has the following step:
  • - Determine the angular range of the suspected object relative to the laser scanner by detecting the right most point and the left most point of the bounding box relative to Laser scanner. In this way, further information about the validated object is available because it is also determined in which angle sector the validated object is located relative to the laser scanner.

Die Erfindung erfordert lediglich das Bestimmen der Anzahl von Abtastpunkten im Begrenzungsrahmen und das Validieren, ob es sich bei dem mutmaßlichen Objekt um ein reales Objekt oder ein falsch positives Ergebnis handelt, durch Vergleichen der Anzahl gezählter Abtastpunkte mit einer erwarteten Anzahl von Abtastpunkten für ein reales Objekt. Gemäß einer bevorzugten Ausführungsform der Erfindung wird jedoch nicht nur die Anzahl von Abtastpunkten im Begrenzungsrahmen bestimmt, sondern auch die Intensität der Abtastpunkte. Auf diese Weise kann weitere Information für eine sichere Validierung des mutmaßlichen Objekts erfasst werden, d.h. ob es sich um ein reales Objekt oder um ein falsch positives Ergebnis handelt.The invention only requires determining the number of sample points in the bounding box and validating whether the suspected object is a real object or a false positive by comparing the number of counted sample points with an expected number of sample points for a real object . According to a preferred embodiment of the invention, however, not only the number of sampling points in the bounding frame is determined, but also the intensity of the sampling points. In this way, further information for a safe validation of the suspected object can be acquired, i.e. whether it is a real object or a false positive result.

Die Erfindung betrifft auch auf die Verwendung eines vorstehend beschriebenen Verfahrens in einem Fahrzeug, das auf einer Straße fährt.The invention also relates to the use of a method described above in a vehicle that is traveling on a road.

Ferner betrifft die Erfindung ein nichtflüchtiges computerlesbares Medium, das darauf gespeicherte Anweisungen enthält, die, wenn sie durch einen Prozessor ausgeführt werden, ein vorstehend beschriebenes Verfahren implementieren.The invention further relates to a non-transitory computer-readable medium which contains instructions stored thereon which, when executed by a processor, implement a method described above.

Diese und andere Aspekte der Erfindung werden aus den nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargelegt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will become apparent and explained from the embodiments described below. Individual features set forth in the embodiments may form an aspect of the present invention, alone or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.

Es zeigen:

  • 1 schematisch ein Szenario im Sichtfeld eines Laserscanners gemäß einer bevorzugten Ausführungsform der Erfindung;
  • 2 schematisch die Erfassung eines Bereichs von Interesse (ROI) gemäß der bevorzugten Ausführungsform der Erfindung; und
  • 3 schematisch das Szenario mit unterschiedlichen Schichten im Sichtfeld eines Laserscanners gemäß der bevorzugten Ausführungsform der Erfindung.
Show it:
  • 1 schematically a scenario in the field of view of a laser scanner according to a preferred embodiment of the invention;
  • 2nd schematically the detection of an area of interest (ROI) according to the preferred embodiment of the invention; and
  • 3rd schematically the scenario with different layers in the field of view of a laser scanner according to the preferred embodiment of the invention.

1 zeigt schematisch ein Szenario, in dem ein Objekt im Sichtfeld 2 (FOV) eines Laserscanners erfasst wird, der an einem Fahrzeug montiert ist, das im Folgenden als Ego-Fahrzeug bezeichnet wird. Im FOV 2 befindet sich die Position des Ego-Fahrzeugs mit dem Laserscanner am Ursprung 0. Das Objekt wird durch seinen Begrenzungsrahmen 1 angezeigt, wobei die Darstellung von Abtastpunkten für das Objekt innerhalb des Begrenzungsrahmens 1 weggelassen worden ist. Es werden weitere Abtastpunkte 3 erfasst, die nicht mit irgendwelchen Objekten in Beziehung stehen. Der freie und damit befahrbare Raum, der für das Ego-Fahrzeug zur Verfügung steht, ist durch ein Polygon mit gestrichelten Linien dargestellt. 1 shows schematically a scenario in which an object in the field of view 2nd (FOV) of a laser scanner that is mounted on a vehicle, which is referred to below as an ego vehicle. In FOV 2nd is the position of the ego vehicle with the laser scanner at the origin 0 . The object is defined by its bounding box 1 displayed, with the representation of sample points for the object within the bounding box 1 has been omitted. There will be more sample points 3rd recorded that are not related to any objects. The free and thus accessible space that is available for the ego vehicle is shown by a polygon with dashed lines.

Ein falsch positives Ergebnis in einem solchen Szenario führt zu einer Fehlinterpretation des verfügbaren sichtbaren Raums, wodurch die Leistungsfähigkeit von Nachverarbeitungsschritten beeinträchtigt wird. Obwohl die Erfassungsrate durch die Verwendung mehrerer Sensoren und Zusammenführen der von allen Sensoren verfügbaren Daten verbessert werden kann, ist es ein Vorteil der vorliegenden Erfindung, dass nur ein einziger Sensor, d.h. ein Laserscanner, verwendet werden kann, um zusätzliche Kosten und Aufwand zu vermeiden, während eine Validierung erfasster Objekte dennoch effizient und zuverlässig ausgeführt werden kann.A false positive result in such a scenario leads to a misinterpretation of the available visible space, which affects the performance of post-processing steps. Although the acquisition rate can be improved by using multiple sensors and merging the data available from all sensors, it is an advantage of the present invention that only a single sensor, i.e. a laser scanner can be used to avoid additional cost and effort while still validating captured objects can be performed efficiently and reliably.

Der Algorithmus gemäß der bevorzugten Ausführungsform der Erfindung zum Validieren der Objekterfassung verwendet den Begrenzungsrahmen 1 eines erfassten Objekts, wie in 1 dargestellt ist. Wie in 2 dargestellt ist, wird, um Abtastpunkte zu identifizieren, die dem durch seinen Begrenzungsrahmen 1 definierten Objekt zugeordnet sind, ein erwarteter Bereich relativ zum Ego-Fahrzeug 4 definiert. Der Winkel, bei dem der Begrenzungsrahmen 1, der das Objekt definiert, im FOV 2 liegt, kann unter Verwendung der am weitesten links und rechts liegenden Ecken des Begrenzungsrahmens 1 des Objekts berechnet werden. Dies ist auch in 2 dargestellt, die die Winkel θ1 und θ2 darstellt, bei denen das Objekt im FOV 2 liegt. Im vorliegenden Beispiel können die Abtastpunkte des erfassten Objekts zwischen den Winkeln θ1 und θ2 im rechten Bereich des FOV 2 liegen.The algorithm according to the preferred embodiment of the invention for validating object detection uses the bounding box 1 of a detected object, as in 1 is shown. As in 2nd is shown in order to identify sample points that by its bounding box 1 assigned object, an expected area relative to the ego vehicle 4th Are defined. The angle at which the bounding box 1 that defines the object in FOV 2nd can, using the leftmost and rightmost corners of the bounding box 1 of the object can be calculated. This is also in 2nd shown the the angles θ 1 and θ 2 represents where the object in FOV 2nd lies. In the present example, the scanning points of the detected object can be between the angles θ 1 and θ 2 in the right area of the FOV 2nd lie.

Wie in 3 dargestellt ist, erfasst der Laserscanner gemäß der hier beschriebenen vorliegenden bevorzugten Ausführungsform der Erfindung das reflektierte Laserstrahllicht in der Form von Abtastpunkten in mehreren Schichten, die mit verschiedenen Entfernungszonen vom Laserscanner in Beziehung stehen, der sich am Ursprung 0 des in 3 dargestellten Koordinatensystems befindet.As in 3rd , the laser scanner in accordance with the presently preferred embodiment of the invention described herein detects the reflected laser beam light in the form of sampling points in multiple layers related to different distance zones from the laser scanner located at the origin 0 of in 3rd shown coordinate system is located.

Nachdem die Winkel identifiziert worden sind, zwischen denen der Begrenzungsrahmen 1 des Objekts liegt, wird geprüft, welche Schichten tatsächlich auf den Begrenzungsrahmen 1 des Objekts auftreffen. 3 zeigt ein Szenario, in dem der Begrenzungsrahmen 1 des Objekts im FOV 2 des Laserscanners von oben betrachtet (Vogelperspektive) dargestellt ist. Die in 3 gezeichneten Ellipsen stellen die Projektionslinien 5 dar, die für die einzelnen Schichten L1 bis L7 berechnet wurden, die mit verschiedenen Entfernungszonen vom Laserscanner in Beziehung stehen, wobei L1 die Schicht beschreibt, die am nähesten zum Laserscanner angeordnet ist, der sich am Ursprung 0 befindet, und L7 die Schicht beschreibt, die am weitesten vom Laserscanner entfernt ist.After the angles have been identified between which the bounding box 1 of the object, it is checked which layers are actually on the bounding box 1 of the object. 3rd shows a scenario in which the bounding box 1 of the object in the FOV 2nd of the laser scanner viewed from above (bird's eye view). In the 3rd drawn ellipses put the projection lines 5 represents that for the individual layers L 1 to L 7 were calculated that are related to different distance zones from the laser scanner, where L 1 describes the layer that is closest to the laser scanner located at the origin 0 located, and L 7 describes the layer furthest away from the laser scanner.

Das erfasste Objekt wird durch seinen Begrenzungsrahmen 1 dargestellt, dessen nächstgelegene und am weitesten entfernte Ecken durch (xnear , ynear) bzw. (xfar , yfar) bezeichnet sind. Aus 3 ist ersichtlich, dass nur Schichten L5 bis L7 auf das Objekt auftreffen. Daher werden nur diese Schichten L5 bis L7 zum Ausführen der Begrenzungsrahmenprüfung verwendet, was die Prozedur effektiver macht als die Begrenzungsrahmenprüfung auch für solche Schichten auszuführen, die nicht auf das Objekt auftreffen und daher möglicherweise keine relevante Information für das vorliegende Verfahren enthalten. Die Begrenzungsrahmenprüfung selbst wird nachstehend beschrieben.The captured object is identified by its bounding box 1 whose nearest and farthest corners are represented by ( x near , y near ) respectively. (x far , y far ) are designated. Out 3rd it can be seen that only layers L 5 to L 7 hit the object. Therefore, only these layers L 5 to L 7 used to perform the bounding box check, which makes the procedure more effective than running the bounding box check for those layers that do not strike the object and therefore may not contain relevant information for the present method. The bounding box check itself is described below.

Der nächste Schritt beinhaltet das Identifizieren und Zählen der Abtastpunkte von den relevanten Schichten L5 bis L7 , die sich innerhalb des Begrenzungsrahmens 1 befinden. Das Hauptkriterium zum Validieren des Objekts, ob es sich um ein reales Objekt oder ein falsch positives Ergebnis handelt, ist gemäß der vorliegenden bevorzugten Ausführungsform der Erfindung die Anzahl von Abtastpunkten, die in dem Begrenzungsrahmen 1 des Objekts enthalten sind.The next step involves identifying and counting the sample points from the relevant slices L 5 to L 7 that are within the bounding box 1 are located. The main criterion for validating the object, whether it is a real object or a false positive result, according to the present preferred embodiment of the invention, is the number of sample points that are in the bounding box 1 of the object are included.

Die Information über die Klasse des Objekts ist gemäß der bevorzugten Ausführungsform der Erfindung ebenfalls verfügbar. Die verschiedenen Klassen, denen ein Objekt gemäß der bevorzugten Ausführungsform der Erfindung zugehörig sein kann, sind „Fußgänger, Motorrad, PKW und LKW“. Es kann eine statistische Analyse über die Gesamtzahl von Punkten ausgeführt werden, die ein Objekt in Abhängigkeit von seiner Klasse haben kann. Ein Fußgänger wird weniger Abtastpunkte haben als ein Motorrad, und die erwartete Anzahl von Punkten für ein Auto oder einen LKW ist sogar noch höher. Daher wird gemäß der bevorzugten Ausführungsform der Erfindung eine Nachschlagetabelle basierend auf der Klasse eines Objekts und der erwarteten Anzahl von Abtastpunkten bereitgestellt, die es haben kann.The information about the class of the object is also available according to the preferred embodiment of the invention. The various classes to which an object can belong according to the preferred embodiment of the invention are “pedestrians, motorcycles, cars and trucks”. Statistical analysis can be performed on the total number of points an object can have depending on its class. A pedestrian will have fewer sample points than a motorcycle, and the expected number of points for a car or truck is even higher. Therefore, according to the preferred embodiment of the invention, a look-up table is provided based on the class of an object and the expected number of sample points it may have.

Gemäß der bevorzugten Ausführungsform der Erfindung wird diese Information auch verwendet, um zu verifizieren, ob das erfasste Objekt ein reales Objekt oder ein falsch positives Ergebnis ist. Dies bedeutet, dass ein erfasstes Objekt nur dann als ein reales Objekt verifiziert werden kann, wenn seine Anzahl von Abtastpunkten mit einem der Bereiche der Anzahl von Abtastpunkten in der Nachschlagetabelle in Beziehung steht. Daher gibt es eine Anzahl von Abtastpunkten, die auftreten kann, die nicht mit irgendeinem dieser Bereiche von Abtastpunkten in Beziehung steht, was bedeutet, dass der Begrenzungsrahmen mit diesen Abtastpunkten nicht als mit einem realen Objekt, sondern als mit einem falsch positiven Ergebnis in Beziehung stehend verifiziert werden würde. Auf diese Weise wird gemäß der bevorzugten Ausführungsform der Erfindung ein Verfahren zum effizienten Validieren, ob ein erfasstes mutmaßliches Objekt ein reales Objekt oder ein falsch positives Ergebnis ist, bereitgestellt, das unter Verwendung eines einzelnen Sensors realisiert werden kann. Somit können zusätzliche Kosten aufgrund mehrerer Sensoren vermieden werden und es können keine wechselseitigen Abhängigkeiten zwischen mehreren Sensoren auftreten.According to the preferred embodiment of the invention, this information is also used to verify whether the detected object is a real object or a false positive result. This means that a detected object can only be verified as a real object if its number of sample points is related to one of the ranges of the number of sample points in the lookup table. Therefore, there are a number of sample points that can occur that are not related to any of these ranges of sample points, which means that the bounding box with these sample points is not related to a real object, but rather to a false positive result would be verified. In this way, according to the preferred embodiment of the invention, a method for efficiently validating whether a detected putative object is a real object or a false positive result is provided, which can be implemented using a single sensor. Additional costs due to multiple sensors can thus be avoided and there can be no interdependencies between multiple sensors.

Wie vorstehend auch erwähnt wurde, wird, obwohl die Erfindung nur das Bestimmen der Anzahl von Abtastpunkten im Begrenzungsrahmen 1 und das Validieren des mutmaßlichen Objekts, ob es sich um ein reales Objekt oder um ein falsch positives Ergebnis handelt, durch Vergleichen der Anzahl gezählter Abtastpunkte mit einer erwarteten Anzahl von Abtastpunkten für ein reales Objekt aufweist, gemäß einer weiteren bevorzugten Ausführungsform der Erfindung nicht nur die Anzahl von Abtastpunkten im Begrenzungsrahmen 1 bestimmt, sondern auch die Intensität der Abtastpunkte. Dadurch wird weitere Information zum sicheren Validieren des erfassten mutmaßlichen Objekts, ob es sich um ein reales Objekt oder um ein falsch positives Ergebnis handelt, bereitgestellt.As also mentioned above, although the invention only determines the number of sample points in the bounding frame 1 and validating the putative object, whether it is a real object or a false positive result, by comparing the number of counted sample points with an expected number of sample points for a real object, according to another preferred embodiment of the invention, not only that Number of sample points in the bounding box 1 determined, but also the intensity of the sampling points. This provides further information for reliably validating the detected putative object, whether it is a real object or a false positive result.

BezugszeichenlisteReference symbol list

11
BegrenzungsrahmenBounding box
22nd
SichtfeldField of view
33rd
AbtastpunkteSampling points
44th
Ego-FahrzeugEgo vehicle
55
ProjektionslinienProjection lines
L1 - L7 L 1 - L 7
Schichtenlayers
θ1, θ2 θ 1 , θ 2
WinkelbereichAngular range
(Xnear, ynear)(X near , y near )
nähester Punkt des Begrenzungsrahmensclosest point of the bounding box
(xfar, yfar)(x far , y far )
am weitesten entfernter Punkt des Begrenzungsrahmensfurthest point of the bounding box

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 9383753 B1 [0003]US 9383753 B1 [0003]
  • US 9097800 B1 [0004]US 9097800 B1 [0004]

Claims (10)

Verfahren zum Erfassen eines Objekts durch einen Laserscanner, mit den folgenden Verfahrensschritten: - Abtasten einer Umgebung des Laserscanners durch einen Laserstrahl; - Erfassen von reflektiertem Laserstrahllicht in der Form von Abtastpunkten (3); - Bestimmen mindestens eines mutmaßlichen Objekts in der Umgebung des Laserscanners basierend auf dem erfassten reflektierten Laserstrahllicht in der Form von Abtastpunkten (3); und - Bestimmen eines Begrenzungsrahmens (1) für das mindestens eine mutmaßliche Objekt, gekennzeichnet durch - Zählen der Anzahl von Abtastpunkten (3) im Begrenzungsrahmen (1); und - Validieren, ob es sich bei dem mutmaßlichen Objekt um ein reales Objekt oder um ein falsch positives Ergebnis handelt, durch Vergleichen der Anzahl gezählter Abtastpunkte (3) mit einer erwarteten Anzahl von Abtastpunkten (3) für ein reales Objekt.Method for detecting an object by a laser scanner, comprising the following method steps: - scanning an environment of the laser scanner by a laser beam; - Detection of reflected laser beam light in the form of sampling points (3); - Determining at least one suspected object in the vicinity of the laser scanner based on the detected reflected laser beam light in the form of scanning points (3); and - determining a bounding box (1) for the at least one suspected object, characterized by - counting the number of sampling points (3) in the bounding box (1); and - validating whether the putative object is a real object or a false positive result by comparing the number of counted sampling points (3) with an expected number of sampling points (3) for a real object. Verfahren nach Anspruch 1, wobei die erwartete Anzahl von Abtastpunkten (3) durch einen Bereich für die Anzahl von Abtastpunkten (3) gegeben ist.Procedure according to Claim 1 , the expected number of sampling points (3) being given by a range for the number of sampling points (3). Verfahren nach Anspruch 2, mit den folgenden Verfahrensschritten: - Bereitstellen einer Nachschlagetabelle für die erwartete Anzahl von Abtastpunkten (3) für reale Objekte unterschiedlicher Klassifizierungen; und - Vergleichen der Anzahl gezählter Abtastpunkte (3) mit der erwarteten Anzahl der Abtastpunkte (3) für die realen Objekte mit unterschiedlichen Klassifizierungen.Procedure according to Claim 2 , with the following method steps: - providing a look-up table for the expected number of sampling points (3) for real objects of different classifications; and comparing the number of counted sampling points (3) with the expected number of sampling points (3) for the real objects with different classifications. Verfahren nach Anspruch 3 mit dem folgenden Verfahrensschritt: - Bestimmen einer Klassifizierung des mutmaßlichen Objekts, das als ein reales Objekt validiert wurde, auf der Basis der Nachschlagetabelle.Procedure according to Claim 3 with the following method step: - determining a classification of the putative object that has been validated as a real object, based on the lookup table. Verfahren nach Anspruch 4, wobei die Klassifizierung mindestens eine der folgenden Klassifizierungen ist: „Fußgänger, Motorrad, PKW und LKW“.Procedure according to Claim 4 , whereby the classification is at least one of the following classifications: "Pedestrian, motorcycle, car and truck". Verfahren nach einem der vorhergehenden Ansprüche, mit den folgenden Verfahrensschritten: - Erfassen des reflektierten Laserstrahllichts in der Form von Abtastpunkten (3) in mehreren Schichten (L1 - L7), die mit verschiedenen Abstandszonen vom Laserscanner in Beziehung stehen; - Bestimmen, in welchen Schichten (L1 - L7) sich der Begrenzungsrahmen (1) befindet; und - Zählen der Abtastpunkte (3) nur in den Schichten (L1 - L7), in denen sich der Begrenzungsrahmen (1) befindet.Method according to one of the preceding claims, with the following method steps: - detecting the reflected laser beam light in the form of scanning points (3) in a plurality of layers (L 1 - L 7 ) which are related to different distance zones from the laser scanner; - Determine in which layers (L 1 - L 7 ) the bounding frame (1) is located; and - counting the sampling points (3) only in the layers (L 1 - L 7 ) in which the bounding frame (1) is located. Verfahren nach Anspruch 6, mit dem folgenden Verfahrensschritt: - Bestimmen, in welchen Schichten (L1 - L7) sich der Begrenzungsrahmen (1) befindet, durch Bestimmen, wo der näheste Punkt (xnear, ynear) des Begrenzungsrahmens (1) und wo der am weitesten entfernte Punkt (xfar, yfar) des Begrenzungskastens (1) in Bezug auf den Laserscanner angeordnet sind.Procedure according to Claim 6 , with the following method step: - Determine in which layers (L 1 - L 7 ) the bounding box (1) is located by determining where the closest point (x near , y near ) of the bounding box (1) and where the am farthest point (x far , y far ) of the boundary box (1) are arranged in relation to the laser scanner. Verfahren nach einem der vorhergehenden Ansprüche, mit dem folgenden Verfahrensschritt: - Bestimmen des Winkelbereichs (θ1, θ2) des mutmaßlichen Objekts relativ zum Laserscanner durch Erfassen des am weitesten rechts liegenden Punktes und des am weitesten links liegenden Punktes des Begrenzungsrahmens (1) relativ zum Laserscanner.A method according to any one of the preceding claims, including the step of: determining the angular range (θ 1 , θ 2 ) of the suspected object relative to the laser scanner by detecting the right most point and the left most point of the bounding box (1) relative to the laser scanner. Verwendung eines Verfahrens nach einem der vorhergehenden Ansprüche in einem auf einer Straße fahrenden Fahrzeug.Use of a method according to one of the preceding claims in a vehicle traveling on a road. Nichtflüchtiges computerlesbares Medium, das darauf gespeicherte Anweisungen umfasst, die, wenn sie durch einen Prozessor ausgeführt werden, ein Verfahren nach einem der Ansprüche 1 bis 8 implementieren.Non-transitory computer readable medium comprising instructions stored thereon which, when executed by a processor, are a method according to one of the Claims 1 to 8th to implement.
DE102018127865.9A 2018-11-08 2018-11-08 Method for detecting an object using a laser scanner Pending DE102018127865A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018127865.9A DE102018127865A1 (en) 2018-11-08 2018-11-08 Method for detecting an object using a laser scanner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018127865.9A DE102018127865A1 (en) 2018-11-08 2018-11-08 Method for detecting an object using a laser scanner

Publications (1)

Publication Number Publication Date
DE102018127865A1 true DE102018127865A1 (en) 2020-05-14

Family

ID=70468734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018127865.9A Pending DE102018127865A1 (en) 2018-11-08 2018-11-08 Method for detecting an object using a laser scanner

Country Status (1)

Country Link
DE (1) DE102018127865A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097800B1 (en) 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9097800B1 (en) 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion

Similar Documents

Publication Publication Date Title
DE102006057552B4 (en) System and method for measuring the distance of a preceding vehicle
DE102006012914B4 (en) System and method for determining the distance to a preceding vehicle
DE102006005512B4 (en) System and method for measuring the distance of a preceding vehicle
DE102013018721A1 (en) Method for detecting parking space for motor vehicle, particularly passenger car, involves entering sensor data in cells of digital occupancy grid depending on position of motor vehicle relative to detected partial area
DE102015214743A1 (en) Method and device in a motor vehicle for improved data fusion in an environment detection
DE102006036402A1 (en) System and method for measuring the distance of a preceding vehicle
DE102015220885A1 (en) Apparatus and method for identifying a target object
DE102018008442A1 (en) Method for weather and / or visibility detection
DE112017008149T5 (en) DEVICE FOR COMMUNICATION FROM A VEHICLE, METHOD FOR COMMUNICATING A VEHICLE OUTSIDE, INFORMATION PROCESSING DEVICE AND PROGRAM FOR COMMUNICATION FROM A VEHICLE
DE102015213558A1 (en) Device and method for merging two obstacle cards for environment detection
DE102019209846A1 (en) Method of operating a 3D distance sensor device
DE112012004847B4 (en) Method and system for detecting lines in an image and lane detection system for analyzing street images
WO2003019234A1 (en) Method for detecting and tracking objects
DE102008050456B4 (en) Method and apparatus for lane detection
DE102019128907A1 (en) Filtering of measurement data from an active optical sensor system
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
DE102019001041A1 (en) Method and device for recognizing at least one manipulated traffic sign with a laser scanner
DE102018127865A1 (en) Method for detecting an object using a laser scanner
DE102015217265A1 (en) Stereo camera device for detecting the environment of a motor vehicle, motor vehicle with such a stereo camera device and a method for detecting raindrops or deposits
DE102018119632A1 (en) Method for determining the detection range of an environmental sensor
DE102021000359A1 (en) Method for determining false-positive detections by a lidar sensor
DE102019126074A1 (en) Analysis of an environment of an active optical sensor system
DE102019210129A1 (en) Method for checking a calibration of several sensors and a motor vehicle with several sensors
DE102019116100A1 (en) Method for differentiating between precipitation and spray in one based on a point cloud
DE102019211459A1 (en) Method and device for checking a calibration of environmental sensors

Legal Events

Date Code Title Description
R163 Identified publications notified