DE102020000190A1 - Procedure for the validation of classified objects - Google Patents

Procedure for the validation of classified objects Download PDF

Info

Publication number
DE102020000190A1
DE102020000190A1 DE102020000190.4A DE102020000190A DE102020000190A1 DE 102020000190 A1 DE102020000190 A1 DE 102020000190A1 DE 102020000190 A DE102020000190 A DE 102020000190A DE 102020000190 A1 DE102020000190 A1 DE 102020000190A1
Authority
DE
Germany
Prior art keywords
objects
classification
classified
sensor
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020000190.4A
Other languages
German (de)
Inventor
Alexander Lotz
Benedikt Rank
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102020000190.4A priority Critical patent/DE102020000190A1/en
Publication of DE102020000190A1 publication Critical patent/DE102020000190A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/62Methods or arrangements for recognition using electronic means
    • G06K9/6267Classification techniques
    • G06K9/6268Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches
    • G06K9/627Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches based on distances between the pattern to be recognised and training or reference patterns
    • G06K9/6271Classification techniques relating to the classification paradigm, e.g. parametric or non-parametric approaches based on distances between the pattern to be recognised and training or reference patterns based on distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes

Abstract

Die Erfindung betrifft ein Verfahren zur Validierung von mittels eines Sensors (2) erfassten und klassifizierten Objekten (O1 bis O8) durch eine Analyse von Schatten. Erfindungsgemäß werden zu klassifizierende Objekte (O1 bis O8) und diese umgebende Bodenbereiche mittels zumindest einer Kamera (1.1) erfasst. Dabei wird ein auf den Bodenbereichen befindlicher Schattenwurf (S1 bis S8) des entsprechenden Objekts (O1 bis O8) analysiert und klassifiziert, wobei eine aus der Analyse und der Klassifizierung gewonnene Information als Validierungsinformation (I) für eine Klassifikation von Objekten (01 bis 08), welche in einer Klassifizierung anhand von Sensordaten (D) zumindest eines anderen Sensors (2) als die zumindest eine Kamera (1.1) erzeugt wurde und eine Größe und einen Ort des entsprechenden Objekts (O1 bis O8) betrifft, verwendet wird.The invention relates to a method for validating objects (O1 to O8) detected and classified by means of a sensor (2) by analyzing shadows. According to the invention, objects to be classified (O1 to O8) and floor areas surrounding them are recorded by means of at least one camera (1.1). A shadow cast on the floor areas (S1 to S8) of the corresponding object (O1 to O8) is analyzed and classified, with information obtained from the analysis and classification as validation information (I) for a classification of objects (01 to 08) which was generated in a classification based on sensor data (D) of at least one other sensor (2) than the at least one camera (1.1) and relates to a size and a location of the corresponding object (O1 to O8) is used.

Description

  • Die Erfindung betrifft ein Verfahren zur Validierung von mittels eines Sensors erfassten und klassifizierten Objekten durch eine Analyse von Schatten.The invention relates to a method for validating objects detected and classified by means of a sensor by analyzing shadows.
  • Aus der DE 10 2015 200 433 A1 ist ein Verfahren zur Evaluierung eines Objekt-Klassifikators bekannt, wobei der Objekt-Klassifikator eingerichtet ist, ein Objekt in einem Bildausschnitt eines Bildes zu detektieren. Das Verfahren umfasst folgende Schritte:
    • - Bereitstellen eines Test-Datensatzes mit einer Vielzahl von Bildern;
    • - Ermitteln von Wahrscheinlichkeiten für das Vorliegen von Bildausschnitten mit einem zu detektierenden Objekt innerhalb der Vielzahl von Bildern des Test-Datensatzes, wobei die Wahrscheinlichkeiten von Beleuchtungssituationen der Bildabschnitte abhängen;
    • - Anwenden des Objekt-Klassifikators auf Bildausschnitte der Vielzahl von Bildern des Test-Datensatzes in Abhängigkeit von einer jeweiligen Beleuchtungssituation der Bildausschnitte und in Abhängigkeit von der Wahrscheinlichkeit für die jeweilige Beleuchtungssituation; und
    • - Evaluieren des Objekt-Klassifikators auf Basis der Bildausschnitte auf die der Objekt-Klassifikator angewendet wurde.
    From the DE 10 2015 200 433 A1 a method for evaluating an object classifier is known, the object classifier being set up to detect an object in an image section of an image. The procedure consists of the following steps:
    • - Providing a test data set with a plurality of images;
    • Determination of probabilities for the presence of image sections with an object to be detected within the plurality of images of the test data set, the probabilities depending on the lighting situations of the image sections;
    • Application of the object classifier to image sections of the plurality of images of the test data set as a function of a respective lighting situation of the image sections and as a function of the probability for the respective lighting situation; and
    • - Evaluation of the object classifier on the basis of the image sections to which the object classifier was applied.
  • Für unterschiedliche Beleuchtungssituationen werden unterschiedliche diskrete Beleuchtungskategorien oder Beleuchtungsklassen definiert, welche „Tag Sonne“, „Tag Schatten“, „Nacht mit Straßenlampen“ und „Nacht ohne Beleuchtung“ umfassen.For different lighting situations, different discrete lighting categories or lighting classes are defined, which include "day sun", "day shadow", "night with street lamps" and "night without lighting".
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Validierung von mittels eines Sensors erfassten und klassifizierten Objekten durch eine Analyse von Schatten anzugeben.The invention is based on the object of specifying a novel method for validating objects detected and classified by means of a sensor by analyzing shadows.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention with a method which has the features specified in claim 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
  • In dem Verfahren zur Validierung von mittels eines Sensors erfassten und klassifizierten Objekten durch eine Analyse von Schatten werden erfindungsgemäß zu klassifizierende Objekte und diese umgebende Bodenbereiche mittels zumindest einer Kamera erfasst. Weiterhin wird ein auf den Bodenbereichen befindlicher Schattenwurf des entsprechenden Objekts analysiert und klassifiziert und es wird eine aus der Analyse und der Klassifizierung gewonnene Information als Validierungsinformation für eine Klassifikation von Objekten, welche in einer Klassifizierung anhand von Sensordaten zumindest eines anderen Sensors als die zumindest eine Kamera erzeugt wurde und eine Größe und einen Ort des entsprechenden Objekts betrifft, verwendet.In the method for validating objects detected and classified by means of a sensor by analyzing shadows, objects to be classified according to the invention and the ground areas surrounding them are detected by means of at least one camera. Furthermore, a shadow cast by the corresponding object on the floor areas is analyzed and classified and information obtained from the analysis and the classification is used as validation information for a classification of objects, which is classified using sensor data from at least one sensor other than the at least one camera and relates to a size and a location of the corresponding object.
  • Unter einer Klassifikation wird dabei vorliegend insbesondere das Endprodukt einer Klassifizierung verstanden.In the present case, a classification is understood in particular to be the end product of a classification.
  • Die Trennung von Objekten auf Basis verschiedener Sensordaten ist oftmals schwierig. Beispielhaft ist bei zwei eng beieinander stehenden Objekten, die über ein Radarsystem erfasst werden, eine Kantentrennung der Objekte nicht möglich. Diese Objekte werden somit zu einem Objekt zusammengefasst. Ähnliche Effekte können aber auch bei anderen Sensoren entstehen, z. B. bei Lidar- oder Kamerasystemen.The separation of objects based on different sensor data is often difficult. For example, it is not possible to separate the edges of two objects that are close together and that are detected by a radar system. These objects are thus combined into one object. Similar effects can also arise with other sensors, e.g. B. with lidar or camera systems.
  • Mittels des vorliegenden Verfahrens zur Validierung von klassifizierten Objekten werden anhand von mittels zumindest einer Kamera erfassten Daten Schattenwürfe um Objekte zusätzlich analysiert, um eine Objekttrennung zu ermöglichen. Somit kann eine Aussage über eine Anzahl von eng beieinander liegenden Objekten generiert werden. Hierbei werden als Informationen die Schattenwürfe genutzt, die nicht physisch zum entsprechenden Objekt gehören, sondern eine Wechselwirkung mit dem Objekt haben. Dies ermöglicht eine Generierung von Wissen über Objekte, das durch herkömmliche Bild- und/oder Objekterkennungsmethoden nicht oder nur sehr schwer zu generieren ist.Using the present method for validating classified objects, shadows cast around objects are additionally analyzed on the basis of data recorded by means of at least one camera in order to enable object separation. In this way, a statement can be generated about a number of objects that are close together. The shadows that do not physically belong to the corresponding object, but rather interact with the object, are used as information. This enables knowledge about objects to be generated which cannot be generated, or can only be generated with great difficulty, using conventional image and / or object recognition methods.
  • In einer möglichen Ausgestaltung des Verfahrens werden anhand von Karteninformationen Schattenverzerrungen, welche aus einer Topografie an einer geografischen Position des entsprechenden Objekts resultieren, bei der Analyse und Klassifizierung des entsprechenden Schattenwurfs berücksichtigt. Hierdurch kann eine topografische Information genutzt werden, um eine Vergrößerung oder Verminderung des Schattenwurfs in der Klassifizierung und einer relativen Verortung eines Objekts zu berücksichtigen. Somit können mögliche Fehleinschätzungen des Verfahrens verringert werden, welche durch unebene Umgebungen entstehen.In one possible embodiment of the method, using map information, shadow distortions that result from a topography at a geographical position of the corresponding object are taken into account in the analysis and classification of the corresponding shadow. In this way, topographical information can be used in order to take into account an increase or decrease in the shadow cast in the classification and the relative location of an object. In this way, possible incorrect assessments of the method, which arise from uneven surroundings, can be reduced.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
  • Dabei zeigen:
    • 1 schematisch ein Bild mit mehreren nebeneinander befindlichen Fahrzeugen und mit deren Schattenwürfen,
    • 2 schematisch ein Bild einer Verkehrsszene mit mehreren Fahrzeugen und mit deren Schattenwürfen und
    • 3 schematisch eine Vorrichtung zur Validierung von klassifizierten Sensorobjekten.
    Show:
    • 1 schematically a picture with several vehicles next to each other and with their shadows,
    • 2 schematically an image of a traffic scene with several vehicles and their shadows and
    • 3 schematically a device for validating classified sensor objects.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.
  • In 1 ist ein Bild B1 mit mehreren dicht nebeneinander befindlichen, als Fahrzeuge ausgebildeten Objekten O1 bis O4 und mit deren Schattenwürfen S1 bis S4 dargestellt. 2 zeigt ein Bild B2 einer Verkehrsszene mit mehreren dicht nebeneinander fahrenden, ebenfalls als Fahrzeuge ausgebildeten Objekten O5 bis O8 und mit deren Schattenwürfen S5 bis S8.In 1 is a picture B1 with several objects in close proximity to one another and designed as vehicles O1 to O4 and with their shadows S1 to S4 shown. 2 shows a picture B2 a traffic scene with several objects driving close together, also designed as vehicles O5 to O8 and with their shadows S5 to S8 .
  • Eine Trennung von mittels zumindest eines in 3 näher dargestellten Sensors 2 erfassten Objekten O1 bis O8 in Sensordaten D ist oftmals schwierig. Beispielhaft ist bei eng beieinander befindlichen Objekten O1 bis 08, wie die dargestellten Fahrzeuge, die beispielsweise über ein Radarsystem erfasst werden, eine Kantentrennung der Objekte O1 bis O8 nicht möglich. Diese Objekte O1 bis O8 werden somit zu mehreren Objekten O1 bis O8 zusammengefasst. Ähnliche Effekte können aber auch bei anderen Sensoren 2 entstehen, z. B. bei Lidar- oder Kamerasystemen.A separation of at least one in 3 sensor shown in more detail 2 detected objects O1 to O8 in sensor data D. is often difficult. An example is when objects are close together O1 to 08 such as the vehicles shown, which are detected by a radar system, for example, an edge separation of the objects O1 to O8 not possible. These objects O1 to O8 thus become several objects O1 to O8 summarized. However, similar effects can also occur with other sensors 2 arise, e.g. B. with lidar or camera systems.
  • Obwohl - wie in den 1 und 2 dargestellt - möglicherweise eine teilweise oder komplette Verdeckung von Objekten O1 bis 08 herrscht, existiert - insbesondere bei ausreichender Sonneneinstrahlung - zwischen jeweils zwei unmittelbar benachbarten Schattenwürfen S1 bis S8 jeweils eine Trennung, so dass diese zwei eindeutig trennbare Konturen bilden. Diese Schattenwürfe S1 bis S8 weisen dabei sichtbare Lücken zwischen den Objekten 01 bis 08 auf, sofern ein Vektor der Sonneneinstrahlung eine laterale Komponente besitzt. Das heißt, eine zur Klassifizierung der Schattenwürfe S1 bis S8 kann als Validierungsinformation für eine Klassifikation der Objekte O1 bis 08 genutzt werden.Although - as in the 1 and 2 shown - possibly a partial or complete obscuring of objects O1 to 08 prevails, exists - especially when there is sufficient sunlight - between two immediately adjacent shadows S1 to S8 in each case a separation so that these form two clearly separable contours. These shadows S1 to S8 show visible gaps between the objects 01 to 08 if a vector of solar radiation has a lateral component. That is, one to classify the shadows cast S1 to S8 can be used as validation information for a classification of the objects O1 to 08 be used.
  • Aus diesem Grund ist zu einer Validierung von mittels zumindest eines Sensors 2, beispielsweise Radar-, Lidar- oder Kamerasensors, erfassten und auf Grundlage der dadurch ermittelten Sensordaten D klassifizierten Objekten O1 bis 08 vorgesehen, dass die zu klassifizierenden Objekte 01 bis 08 und diese umgebende Bodenbereiche mittels zumindest einer in 3 näher dargestellten Kamera 1.1 erfasst werden. Hierbei müssen die relevanten Objekte 01 bis 08 sowohl im Erfassungsbereich der Kamera 1.1 als im Erfassungsbereich des anderen Sensors 2 liegen.For this reason, at least one sensor must be validated 2 , for example radar, lidar or camera sensors, are recorded and based on the sensor data thus determined D. classified objects O1 to 08 provided that the objects to be classified 01 to 08 and this surrounding floor areas by means of at least one in 3 camera shown in more detail 1.1 are recorded. The relevant objects 01 to 08 both in the detection range of the camera 1.1 than in the detection range of the other sensor 2 lie.
  • Weiterhin werden auf den Bodenbereichen befindliche Schattenwürfe S1 bis S8 der Objekte O1 bis 08 analysiert und klassifiziert, wobei eine aus der Analyse und der Klassifizierung gewonnene Information als Validierungsinformation I für die Klassifikation der Objekte O1 bis 08 verwendet wird. Dabei umfasst die Validierungsinformation I eine Größe und einen Ort des entsprechenden Objekts 01 bis 08. Zur Realisierung dieser Validierung ist ein Training einer in 3 dargestellten Vorrichtung 1 auf die Anzahl der Objekte 01 bis 08 und die damit verbundenen Schattenwürfe S1 bis S8 erforderlich, wobei hierzu ein Schattenwurf S1 bis S8 in jedem Trainingsbild erforderlich ist.Furthermore, there are shadows on the floor areas S1 to S8 of the objects O1 to 08 analyzed and classified, with information obtained from the analysis and the classification as validation information I. for the classification of the objects O1 to 08 is used. The validation information includes I. a size and a location of the corresponding object 01 to 08 . To implement this validation, a training course in an in 3 device shown 1 on the number of objects 01 to 08 and the associated shadows S1 to S8 required, whereby a shadow is cast S1 to S8 is required in every training image.
  • In einer möglichen Ausgestaltung werden zusätzlich anhand von Karteninformationen Schattenverzerrungen, welche aus einer Topografie an einer geografischen Position des entsprechenden Objekts O1 bis 08 resultieren, bei der Analyse und Klassifizierung des entsprechenden Schattenwurfs S1 bis S8 berücksichtigt. Hierdurch kann eine topografische Information genutzt werden, um eine Vergrößerung oder Verminderung des Schattenwurfs S1 bis S8 in der Klassifizierung und einer relativen Verortung eines Objekts O1 bis 08 zu berücksichtigen.In one possible embodiment, map information is also used to identify shadow distortions that are derived from a topography at a geographical position of the corresponding object O1 to 08 result in the analysis and classification of the corresponding shadow cast S1 to S8 considered. In this way, topographical information can be used to enlarge or reduce the shadow cast S1 to S8 in the classification and relative location of an object O1 to 08 to consider.
  • Wie in 1 dargestellt ist, liegt eine Überlappung aller Objekte O1 bis O4 vor. Anhand der Schattenwürfe S1 bis S4 ist für das menschliche Auge zu erkennen, dass das Objekt O1 nicht mit dem Objekt O2 verschmolzen ist. Diese Information wird bei der Klassifizierung der Objekte O1 bis O4 hauptsächlich durch die Schattenwürfe S1 bis S4 generiert. Gleiches gilt auch die in 2 dargestellte Verkehrssituation, insbesondere die Objekte O7 und O8 und deren zugehörige Schattenwürfe S7 und S8.As in 1 is shown, there is an overlap of all objects O1 to O4 in front. Based on the shadows cast S1 to S4 is visible to the human eye that the object O1 not with the object O2 is fused. This information is used when classifying the objects O1 to O4 mainly through the shadows cast S1 to S4 generated. The same applies to the in 2 depicted traffic situation, especially the objects O7 and O8 and their associated shadows S7 and S8 .
  • In 3 zeigt ein mögliches Ausführungsbeispiel einer Vorrichtung 1 zur Validierung von im Bild B2 gemäß 2 dargestellten klassifizierten Objekten O5 bis O8. Hierbei werden mittels eines trainierten Convolutional Neural Network 1.2 die im mittels der Kamera 1.1. erfassten Bild B2 vorhandenen Schattenwürfe S5 bis S8 den Objekten O5 bis O8 zugeordnet und es wird eine relative Verortung der Objekte O5 bis O8 und von deren zugehörigen Schattenwürfe S5 bis S8 ermittelt. Weiterhin wird mittels des Convolutional Neural Network 1.2 aus der relativen Verortung eines Objekts O5 bis O8 und seines zugehörigen Schattenwurfs S5 bis S8 eine Größe des Objekts O5 bis O8 bestimmt. Das heißt, das Convolutional Neural Network 1.2 ist ausgebildet, Schattenwürfe S1 bis S8 zu einzelnen Objekten O1 bis O8 zuzuordnen, ähnlich wie ein menschliches Auge und Gehirn arbeiten.In 3 shows a possible embodiment of a device 1 for validation of in the picture B2 according to 2 classified objects shown O5 to O8 . A trained convolutional neural network 1.2 the im by means of the camera 1.1 . captured image B2 existing shadows S5 to S8 the objects O5 to O8 assigned and there is a relative location of the objects O5 to O8 and their associated shadows S5 to S8 determined. Furthermore, by means of the Convolutional Neural Network 1.2 from the relative location of an object O5 to O8 and its associated shadow S5 to S8 a size of the object O5 to O8 certainly. That is, the Convolutional Neural Network 1.2 is trained to cast shadows S1 to S8 to individual objects O1 to O8 map to work much like a human eye and brain.
  • All die mittels des Convolutional Neural Network 1.2 ermittelten Informationen bilden die Validierungsinformationen I, welche in einem ersten Verfahrensschritt V1 mit den Sensordaten D des zumindest einen anderen Sensors 2 zur Validierung der Klassifikation fusioniert werden. Das Ergebnis der Fusion kann anschließend in weiteren Verfahrensschritten V2 bis Vn, beispielsweise zu einem Betrieb von auf einer Objekterkennung basierenden Fahrerassistenzsystemen, verwendet werden.All of that through the Convolutional Neural Network 1.2 The information determined forms the validation information I. , which in a first process step V1 with the sensor data D. of at least one other sensor 2 be merged to validate the classification. The result of the merger can then be used in further procedural steps V2 to Vn , for example, to operate driver assistance systems based on object recognition.
  • BezugszeichenlisteList of reference symbols
  • 11
    Vorrichtungcontraption
    1.11.1
    Kameracamera
    1.21.2
    Convolutional Neural NetworkConvolutional Neural Network
    22
    Sensor sensor
    B1, B2B1, B2
    Bildimage
    DD.
    SensordatenSensor data
    II.
    ValidierungsinformationValidation information
    O1 bis O8O1 to O8
    Objektobject
    S1 bis S8S1 to S8
    SchattenwurfShadows
    V1, V2V1, V2
    VerfahrensschrittProcess step
  • ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
  • Zitierte PatentliteraturPatent literature cited
    • DE 102015200433 A1 [0002]DE 102015200433 A1 [0002]

Claims (5)

  1. Verfahren zur Validierung von mittels eines Sensors (2) erfassten und klassifizierten Objekten (1 bis 8) durch eine Analyse von Schatten, dadurch gekennzeichnet, dass - zu klassifizierende Objekte (O1 bis O8) und diese umgebende Bodenbereiche mittels zumindest einer Kamera (1.1) erfasst werden, - ein auf den Bodenbereichen befindlicher Schattenwurf (S1 bis S8) des entsprechenden Objekts (O1 bis O8) analysiert und klassifiziert wird, - eine aus der Analyse und der Klassifizierung gewonnene Information als Validierungsinformation (I) für eine Klassifikation von Objekten (O1 bis O8), welche in einer Klassifizierung anhand von Sensordaten (D) zumindest eines anderen Sensors (2) als die zumindest eine Kamera (1.1) erzeugt wurde und eine Größe und einen Ort des entsprechenden Objekts (O1 bis O8) betrifft, verwendet wird.Method for validating objects (1 to 8) detected and classified by means of a sensor (2) by analyzing shadows, characterized in that objects (O1 to O8) to be classified and the surrounding soil areas are detected by means of at least one camera (1.1) - a shadow cast (S1 to S8) of the corresponding object (O1 to O8) on the floor areas is analyzed and classified, - information obtained from the analysis and the classification as validation information (I) for a classification of objects (O1 to O8), which was generated in a classification based on sensor data (D) of at least one other sensor (2) than the at least one camera (1.1) and relates to a size and location of the corresponding object (O1 to O8) is used.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand von Karteninformationen Schattenverzerrungen, welche aus einer Topografie an einer geografischen Position des entsprechenden Objekts (O1 bis O8) resultieren, bei der Analyse und Klassifizierung des entsprechenden Schattenwurfs (S1 bis S8) berücksichtigt werden.Procedure according to Claim 1 , characterized in that, using map information, shadow distortions resulting from a topography at a geographical position of the corresponding object (O1 to O8) are taken into account in the analysis and classification of the corresponding shadow (S1 to S8).
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mittels eines Convolutional Neural Network (1.2) die Schattenwürfe (S1 bis S8) den Objekten (O1 bis O8) zugeordnet werden und eine relative Verortung eines Objekts (O1 bis O8) und seines zugehörigen Schattenwurfs (S1 bis S8) ermittelt wird.Procedure according to Claim 1 or 2 , characterized in that the shadows (S1 to S8) are assigned to the objects (O1 to O8) by means of a convolutional neural network (1.2) and a relative location of an object (O1 to O8) and its associated shadow (S1 to S8) is determined becomes.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass mittels des Convolutional Neural Network (1.2) aus der relativen Verortung eines Objekts (O1 bis O8) und seines zugehörigen Schattenwurfs (S1 bis S8) eine Größe des Objekts (O1 bis O8) bestimmt wird.Procedure according to Claim 3 , characterized in that a size of the object (O1 to O8) is determined by means of the convolutional neural network (1.2) from the relative location of an object (O1 to O8) and its associated shadow (S1 to S8).
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Validierungsinformation (I) mit den Sensordaten (D) des zumindest einen anderen Sensors (2) zur Validierung der Klassifikation fusioniert wird.Procedure according to Claim 4 , characterized in that the validation information (I) is merged with the sensor data (D) of the at least one other sensor (2) for validating the classification.
DE102020000190.4A 2020-01-15 2020-01-15 Procedure for the validation of classified objects Pending DE102020000190A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020000190.4A DE102020000190A1 (en) 2020-01-15 2020-01-15 Procedure for the validation of classified objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020000190.4A DE102020000190A1 (en) 2020-01-15 2020-01-15 Procedure for the validation of classified objects

Publications (1)

Publication Number Publication Date
DE102020000190A1 true DE102020000190A1 (en) 2020-10-01

Family

ID=72612707

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020000190.4A Pending DE102020000190A1 (en) 2020-01-15 2020-01-15 Procedure for the validation of classified objects

Country Status (1)

Country Link
DE (1) DE102020000190A1 (en)

Similar Documents

Publication Publication Date Title
DE112013001858T5 (en) Multiple-hint object recognition and analysis
EP2179381B1 (en) Method and apparatus for recognizing traffic signs
DE102012023867A1 (en) Traffic light recognition
DE102014117102B4 (en) Lane change warning system and method for controlling the lane change warning system
DE102015207902A1 (en) Method and device for confirming the relevant inner white circle in the recognition of the environment of a circular traffic sign
EP2034461A2 (en) Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program
DE102016210534A1 (en) Method for classifying an environment of a vehicle
DE102018213268A1 (en) METHOD FOR APPLICATION IN A VEHICLE
DE102005017541A1 (en) Circular object detecting method for e.g. truck, involves increasing accumulator field initialized to zero to given value, and identifying circular object if number of markings in image field exceed given threshold
DE102020000190A1 (en) Procedure for the validation of classified objects
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
DE4211171C2 (en) Process for recognizing patterns of interest
DE102017207658A1 (en) A method of identifying a vehicle with an accessory tag, and an apparatus for performing the method
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102019204602A1 (en) Method and device for masking objects contained in an image
DE102015006569A1 (en) Method for image-based recognition of the road type
DE102016120066A1 (en) A computer implemented method for controlling an object recognition system
DE102020006078A1 (en) Procedure for the detection of traffic lights and vehicles
DE102020003100A1 (en) Process for camera-based detection of traffic lights
DE102012020778B4 (en) Method of tagging a sequence of images taken in time sequence with integrated quality control
DE102018010039A1 (en) Method for recognizing at least one pattern in an environment of a vehicle, control device for executing such a method, and vehicle with such a control device
EP3772017A1 (en) Rail signal detection for autonomous railway vehicles
DE102019001599A1 (en) Method for traffic light recognition for an ego vehicle
DE102020003003A1 (en) Method for recognizing a light signal of a light signal system for a vehicle, device and vehicle
DE102013012781A1 (en) Method for training an algorithm for recognizing predetermined patterns in image data, camera system and motor vehicle

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70372 STUTTGART, DE