DE102016210534A1 - Method for classifying an environment of a vehicle - Google Patents

Method for classifying an environment of a vehicle Download PDF

Info

Publication number
DE102016210534A1
DE102016210534A1 DE102016210534.5A DE102016210534A DE102016210534A1 DE 102016210534 A1 DE102016210534 A1 DE 102016210534A1 DE 102016210534 A DE102016210534 A DE 102016210534A DE 102016210534 A1 DE102016210534 A1 DE 102016210534A1
Authority
DE
Germany
Prior art keywords
environment
representation
map
sensors
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016210534.5A
Other languages
German (de)
Inventor
Christoph Seeger
Michael Manz
Andre Müller
Loren Schwarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102016210534.5A priority Critical patent/DE102016210534A1/en
Publication of DE102016210534A1 publication Critical patent/DE102016210534A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Die Erfindung betrifft ein Verfahren zum Klassifizieren einer Umgebung (9) eines Fahrzeugs (1), umfassend die Schritte: Bereitstellen (400) einer Repräsentation der Umgebung (9), wobei die Repräsentation eine Karte umfasst, die Belegungswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Karte aufweist, und Einordnen (500) der Umgebung (9) in vordefinierte Kategorien (10, 11, 12, 13) durch ein maschinelles Lernverfahren, wobei das maschinelle Lernverfahren das Einordnen (500) anhand eines vordefinierten Klassifikators und der bereitgestellten Repräsentation der Umgebung (9) vornimmt.The invention relates to a method for classifying an environment (9) of a vehicle (1), comprising the steps of: providing (400) a representation of the environment (9), the representation comprising a map having occupancy probabilities of predefined subregions within the map, and classifying (500) the environment (9) into predefined categories (10, 11, 12, 13) by a machine learning method, the machine learning method performing the ranking (500) based on a predefined classifier and the provided representation of the environment (9) ,

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs. Weiterhin betrifft die Erfindung ein Computerprogrammprodukt sowie ein Steuergerät zum Ausführen eines solchen Verfahrens. Schließlich betrifft die Erfindung ein Fahrzeug umfassend ein derartiges Steuergerät. The present invention relates to a method for classifying an environment of a vehicle. Furthermore, the invention relates to a computer program product and a control device for carrying out such a method. Finally, the invention relates to a vehicle comprising such a control device.
  • Aus dem Stand der Technik ist bekannt, Straßentypen zu klassifizieren, indem die Umgebung eines Fahrzeugs mit Kameras erfasst wird. Die Kameras erfassen Verkehrsschilder, Straßenschilder oder Hinweisschilder, die Anzahl der Fahrspuren und andere für einen Straßentyp charakteristische Merkmale. Die erfassten Merkmale werden durch ein Bildverarbeitungsprogramm analysiert und einem Straßentyp zugeordnet. Außerdem besteht die Möglichkeit, den befahrenen Straßentyp mittels GPS zu bestimmen. Dabei wird die Position des Fahrzeugs ermittelt und mit einer Kartendatenbank verglichen, in welcher jeder Straße ein Straßentyp zugeordnet ist. From the prior art it is known to classify road types by detecting the surroundings of a vehicle with cameras. The cameras detect traffic signs, street signs or signposts, the number of lanes and other features characteristic of a road type. The detected features are analyzed by an image processing program and assigned to a road type. It is also possible to determine the type of road used by GPS. The position of the vehicle is determined and compared with a map database in which each road is assigned a road type.
  • Derartige Verfahren sind bspw. aus der DE 10 2009 049 408 A1 oder aus der DE 10 2011 121 442 A1 bekannt. Such methods are, for example, from the DE 10 2009 049 408 A1 or from the DE 10 2011 121 442 A1 known.
  • Nachteilig am Stand der Technik ist, dass Kameras zur Erkennung von Fahrbahnen, Randbebauungen, Verkehrsschildern, oder sonstiger Merkmale funktionsbedingt lichtabhängig und lichtempfindlich sind. Aus diesem Grund kann es bei schlechten Sichtbedingungen, wie insbesondere bei Nebel, Schnee oder Regen, aber auch bei Nacht oder tief stehender Sonne zu einem Funktionsausfall der Kamera und somit zu einem Funktionsausfall der Straßentyperkennung kommen. GPS-basierte und Karten-basierte Systeme sind oftmals nicht aktuell, sodass Baustellen oder eine anderweitig geänderte Verkehrsführung nicht aufgeführt sind, wodurch ein korrektes Erkennen des Straßentyps nicht möglich ist. Des Weiteren ist es aus Sicht der Funktionssicherheit erstrebenswert, mehrere Sensorprinzipien für die Entscheidungsfindung zu fusionieren. A disadvantage of the prior art is that cameras for detecting lanes, edge structures, traffic signs, or other features are function-dependent light-dependent and photosensitive. For this reason, in poor visibility conditions, such as in particular fog, snow or rain, but also at night or low-lying sun to a malfunction of the camera and thus cause a malfunction of the road type detection. GPS-based and map-based systems are often not up to date, so that construction sites or otherwise modified traffic guidance are not listed, so that a correct recognition of the road type is not possible. Furthermore, from a functional safety point of view, it is desirable to merge several sensor principles for decision making.
  • Es ist Aufgabe der Erfindung, ein Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs bereitzustellen, das bei einfacher und kostengünstiger Anwendung ein sicheres und zuverlässiges Charakterisieren eines Straßentyps ermöglicht. It is an object of the invention to provide a method for classifying an environment of a vehicle, which enables a reliable and reliable characterization of a road type with a simple and cost-effective application.
  • Gelöst wird die Aufgabe durch die Merkmale des unabhängigen Anspruchs. Die Unteransprüche haben bevorzugte Weiterbildungen der Erfindung zum Inhalt. The object is achieved by the features of the independent claim. The dependent claims have preferred developments of the invention to the content.
  • Die Aufgabe wird somit gelöst durch ein Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs mit den folgenden Schritten: Zunächst erfolgt ein Bereitstellen einer Repräsentation der Umgebung, die klassifiziert werden soll. Unter Klassifizieren ist dabei insbesondere zu verstehen, dass die Umgebung in vordefinierte Kategorien eingeordnet werden soll. Die Repräsentation der Umgebung umfasst eine Karte, die Belegungswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Karte aufweist. Solche Karten sind auch als „Occupancy Grids“ bekannt. Vorteilhafterweise lassen sich mittels solcher Karten verschiedene Umgebungen einfach und zuverlässig repräsentieren, sodass das maschinelle Lernverfahren die von der Repräsentation repräsentierte Umgebung sicher und zuverlässig einer vordefinierten Kategorie zuordnen kann. Außerdem ist vorteilhaft, dass die Belegungswahrscheinlichkeiten der Karte durch eine Vielzahl von unterschiedlichen Sensoren erfasst werden kann, sodass die Fusion von Sensordaten einer Vielzahl von heterogenen Sensoren ermöglicht ist, was das Verfahren zum Klassifizieren der Umgebung sehr robust und nicht anfällig für Umgebungsstörungen macht. Das Bereitstellen der Repräsentation kann auf unterschiedliche Weisen erfolgen. So kann das Fahrzeug Sensoren aufweisen, um die Umgebung abzutasten und die Repräsentation der Umgebung selbst zu erstellen. Alternativ kann die Repräsentation der Umgebung auch von einer anderen Instanz empfangen werden. Als nächster Schritt erfolgt das Einordnen der Umgebung in vordefinierte Kategorien durch ein maschinelles Lernverfahren. Dazu ist vorgesehen, dass das maschinelle Lernverfahren das Einordnen der Umgebung in eine der vordefinierten Kategorien anhand eines vordefinierten Klassifikators und der bereitgestellten Repräsentation der Umgebung vornimmt. Unter Klassifikator ist insbesondere eine Referenz oder Maske zu verstehen, anhand derer die Repräsentation einer Kategorie zuordenbar ist. Der Klassifikator ist insbesondere durch das maschinelle Lernverfahren selbst vordefiniert, indem das maschinelle Lernverfahren vor Durchführung des erfindungsgemäßen Verfahrens eine Trainingsphase durchlaufen hat. Maschinelle Lernverfahren sowie Trainingsphasen zur Bestimmung des Klassifikators sind aus dem Stand der Technik bekannt und werden daher nicht detailliert beschrieben. Durch das erfindungsgemäße Verfahren ist vorteilhafterweise möglich, nach einer einmaligen Trainingsphase verschiedene Repräsentationen einer, insbesondere aktuellen, Umgebung eines Fahrzeugs zu untersuchen, um in Echtzeit eine Klassifizierung der Umgebung vornehmen zu können. Dabei ist nicht zwingend notwendig, dass die Repräsentation der Umgebung durch ein videobasiertes Sensorsystem erstellt wurde. Vielmehr ist ermöglicht, die Repräsentation der Umgebung mit unterschiedlichen Sensoren zu erstellen. Somit ist das erfindungsgemäße Verfahren unabhängig von Lichteinflüssen und somit sehr robust gegenüber Störeinflüssen. The object is thus achieved by a method for classifying an environment of a vehicle with the following steps: First, a representation of the environment that is to be classified is provided. Classification is to be understood in particular as meaning that the environment is to be classified into predefined categories. The representation of the environment includes a map having occupancy probabilities of predefined subareas within the map. Such cards are also known as "Occupancy Grids". Advantageously, by means of such cards different environments can be represented simply and reliably, so that the machine learning method can safely and reliably assign the environment represented by the representation to a predefined category. In addition, it is advantageous that the occupancy probabilities of the card can be detected by a plurality of different sensors so that the fusion of sensor data of a plurality of heterogeneous sensors is enabled, making the method for classifying the environment very robust and not susceptible to environmental disturbances. The provision of the representation can be done in different ways. Thus, the vehicle may include sensors to scan the environment and create the representation of the environment itself. Alternatively, the representation of the environment may also be received by another entity. The next step is to classify the environment into predefined categories using a machine learning procedure. For this purpose, it is provided that the machine learning method makes the classification of the environment in one of the predefined categories on the basis of a predefined classifier and the provided representation of the environment. In particular, a classifier is a reference or mask by means of which the representation of a category can be assigned. The classifier is predefined in particular by the machine learning method itself, in that the machine learning method has undergone a training phase before the method according to the invention is carried out. Machine learning methods and training phases for determining the classifier are known from the prior art and are therefore not described in detail. The inventive method advantageously makes it possible, after a single training phase, to examine various representations of a, in particular current, environment of a vehicle in order to be able to classify the environment in real time. It is not absolutely necessary that the representation of the environment was created by a video-based sensor system. Rather, it is possible to create the representation of the environment with different sensors. Thus, the inventive method is independent of the influence of light and thus very robust against interference.
  • Bevorzugt ist vorgesehen, dass das maschinelle Lernverfahren vor dem Durchführen des erfindungsgemäßen Verfahrens eine Trainingsphase durchlaufen hat. Während der Trainingsphase wird durch das maschinelle Lernverfahren anhand eines vorbekannten Datensatzes der Klassifikator bestimmt. Der vorbekannte Datensatz umfasst dazu eine Vielzahl von vorbekannten Repräsentationen einer Umgebung für jede Kategorie. Insbesondere wird die Trainingsphase einmalig durchgeführt, sodass die Trainingsphase beispielsweise während einer Herstellung des Fahrzeugs erfolgen kann. Nach der Trainingsphase steht der Klassifikator zur Verfügung, um den Schritt des Einordnens durchzuführen. It is preferably provided that the machine learning method has undergone a training phase before carrying out the method according to the invention. During the training phase, the classifier is determined by the machine learning method on the basis of a previously known data record. The previously known data set comprises a multiplicity of previously known representations of an environment for each category. In particular, the training phase is carried out once, so that the training phase can take place, for example, during production of the vehicle. After the training phase, the classifier is available to perform the step of ranking.
  • Bevorzugt ist weiterhin vorgesehen, dass die Kategorien verschiedene Straßentypen umfassen. Somit lässt sich insbesondere die Umgebung anhand eines aktuell befahrenen Straßentyps klassifizieren. Bei den Straßentypen kann es sich insbesondere um Autobahnen und/oder außerstädtische Straßen wie insbesondere Bundesstraßen oder Landstraßen und/oder um Parkplätze und/oder um innerstädtische Straßen handeln. Dabei ist vorgesehen, dass eine Vielzahl solcher Straßentypen als Kategorien vordefiniert sind, wobei das maschinelle Lernverfahren während der Trainingsphase anhand zumindest einer vorbekannten Repräsentation eines jeden Straßentyps, insbesondere anhand mehrerer vorbekannter Repräsentationen eines jeden Straßentyps, den Klassifikator bestimmt. Besonders vorteilhaft kann durch eine erneute Trainingsphase mit neuen Kategorien das Verfahren zum Klassifizieren der Umgebung adaptiert werden, wenn insbesondere neue und/oder andere Kategorien zum Klassifizieren der Umgebung verwendet werden sollen. Ebenso ist ermöglicht, durch eine erneute Trainingsphase mit denselben Kategorien den Klassifikator zu verfeinern. Preferably, it is further provided that the categories include different types of roads. Thus, in particular the environment can be classified on the basis of a currently used road type. The road types may in particular be highways and / or extra-urban roads such as, in particular, highways or highways and / or parking lots and / or inner-city streets. It is provided that a plurality of such road types are predefined as categories, wherein the machine learning method determines the classifier during the training phase on the basis of at least one known representation of each road type, in particular on the basis of several previously known representations of each road type. Particularly advantageously, the procedure for classifying the environment can be adapted by means of a new training phase with new categories, in particular if new and / or other categories are to be used for classifying the environment. It is also possible to refine the classifier through a new training phase with the same categories.
  • Der zuvor genannte Schritt des Bereitstellens der Repräsentation umfasst vorteilhafterweise die folgenden Schritte: Zunächst erfolgt ein Erfassen der Umgebung mit unterschiedlichen Sensoren. Dabei ist vorgesehen, dass unterschiedliche Sensortypen zum Erfassen der Umgebung verwendet werden. Anschließend erfolgt ein Speichern der jeweils erfassten Sensordaten in jeweils einer Sensorkarte. Somit steht für jeden Sensor eine Sensorkarte zur Verfügung, wobei die Sensorkarte insbesondere einer Karte wie zuvor beschrieben, das bedeutet insbesondere einem Occupancy Grid, entspricht. Schließlich erfolgt ein Zusammenführen der Sensorkarten zu einer Gesamtkarte. Die Gesamtkarte stellt die Repräsentation der Umgebung dar. Dabei ist wiederum bevorzugt vorgesehen, dass die Gesamtkarte eine Karte wie zuvor beschrieben, das bedeutet insbesondere ein Occupancy Grid, ist. Die Gesamtkarte ist somit dem maschinellen Lernverfahren zur Klassifizierung der repräsentierten Umgebung zur Verfügung gestellt. Dabei ist ersichtlich, dass die Gesamtkarte durch Fusion von Daten einer Vielzahl von heterogenen Sensoren entstanden ist. Dies erlaubt ein sehr robustes und für Umgebungsstörungen nicht oder nur wenig anfälliges Verfahren zur Klassifizierung der Umgebung bereitzustellen. Insbesondere ist das Verfahren robuster und weniger störanfälliger als bei der Verwendung reiner Videokameras wie im Stand der Technik. Durch die Verwendung der unterschiedlichen Sensoren ist vorteilhafterweise außerdem ermöglicht, dass neu gebaute Straßen, Baustellen und andere Verkehrsveränderungen zuverlässig erkannt und somit klassifiziert werden können. Die zuvor beschriebene Verwendung der Karte mit Belegungswahrscheinlichkeiten, das bedeutet, der Verwendung des Occupancy Grids, ist eine Verarbeitung der Repräsentation einfach und kostengünstig durchführbar, da solche Karten als Bilder interpretiert werden können und dadurch mithilfe von bekannten Bilderkennungsalgorithmen analysiert und klassifiziert werden können. The aforementioned step of providing the representation advantageously comprises the following steps: First, the environment is detected with different sensors. It is provided that different sensor types are used to capture the environment. Subsequently, each sensor data recorded is stored in a respective sensor card. Thus, a sensor card is available for each sensor, the sensor card in particular corresponding to a card as described above, which means in particular an occupancy grid. Finally, merging the sensor cards into an overall card. The overall map represents the representation of the environment. In turn, it is preferably provided that the overall map is a map as described above, which means in particular an occupancy grid. The overall map is thus provided to the machine learning method for classifying the represented environment. It can be seen that the overall map was created by fusion of data from a variety of heterogeneous sensors. This allows to provide a very robust and environmentally unfriendly or least prone method for classifying the environment. In particular, the method is more robust and less susceptible to interference than when using pure video cameras as in the prior art. By using the different sensors is advantageously also allows newly built roads, construction sites and other traffic changes can be reliably detected and thus classified. The above-described use of the map with occupancy probabilities, that is, the use of the occupancy grid, makes processing the representation simple and inexpensive, since such maps can be interpreted as images and thereby analyzed and classified using known image recognition algorithms.
  • Die Sensoren umfassen bevorzugt Ultraschallsensoren und/oder Radarsensoren und/oder Lidarsensoren und/oder Videosensoren. Durch eine breite Vielzahl von unterschiedlichen Sensortypen lässt sich die Störanfälligkeit der Klassifizierung stark vermindern. Durch das zuvor beschriebene vorteilhafte Zusammenführen der Sensordaten zu einer einzigen Gesamtkarte lässt sich eine einfache und genaue Repräsentation der Umgebung erstellen, auch wenn unterschiedliche Sensoren zum Erfassen der Umgebung verwendet wurden. The sensors preferably include ultrasonic sensors and / or radar sensors and / or lidar sensors and / or video sensors. A wide variety of different sensor types can greatly reduce the susceptibility of the classification. By advantageously combining the sensor data into a single overall map as described above, it is possible to create a simple and accurate representation of the environment, even if different sensors were used to detect the environment.
  • Die Gesamtkarte wird vorteilhafterweise mit bereits gespeicherten Karteninformationen überlagert. So ist besonders vorteilhaft vorgesehen, dass bereits gespeicherte Kartendaten, die vorteilhafterweise während einer vorausgegangenen Fahrt des Fahrzeugs aufgenommen wurden, mit in die aktuelle Erfassung der Umgebung einfließen. Somit lässt sich die Gesamtkarte plausibilisieren und/oder verbessern oder korrigieren. The entire map is advantageously superimposed with already stored map information. Thus, it is provided with particular advantage that already stored map data, which were advantageously recorded during a preceding drive of the vehicle, are included in the current detection of the surroundings. Thus, the overall map can be made plausible and / or improved or corrected.
  • Das maschinelle Lernverfahren ist vorteilhafterweise durch neuronale Netze, insbesondere faltende neuronale Netze (Convolutional Neural Networks), und/oder durch Stützvektormethoden (Support Vector Machines) realisiert. Andere Beispiele für derartige erfindungsgemäß einsetzbare Lernverfahren sind „AdaBoost“ und „Logistic Regression“. Solche maschinellen Lernverfahren sind einfach und kostengünstig zu implementieren und anzuwenden. Gleichzeitig ist eine genaue Klassifizierung ermöglicht. Nach einer einmaligen Trainingsphase erlauben diese maschinellen Lernverfahren somit ein, insbesondere echtzeitfähiges, Klassifizieren einer aktuellen Umgebung eines Fahrzeugs. The machine learning method is advantageously implemented by neural networks, in particular convolutional neural networks, and / or support vector machines. Other examples of such learning methods which can be used according to the invention are "AdaBoost" and "Logistic Regression". Such machine learning methods are simple and inexpensive to implement and apply. At the same time a precise classification is possible. After a one-time training phase, these machine learning methods thus allow a, in particular real-time capable, classification of a current environment of a vehicle.
  • Die Erfindung betrifft weiterhin ein Computerprogrammprodukt, welches Instruktionen umfasst, die eine Auswerteeinheit, insbesondere einen programmierbaren Prozessor, in die Lage versetzen, die Schritte des zuvor beschriebenen Verfahrens durchzuführen. Bei der Auswerteeinheit oder dem programmierbaren Prozessor kann es sich insbesondere um ein Steuergerät eines Fahrzeugs handeln. The invention further relates to a computer program product which comprises instructions which comprise an evaluation unit, in particular a programmable processor to enable it to perform the steps of the previously described method. The evaluation unit or the programmable processor can in particular be a control unit of a vehicle.
  • Weiterhin betrifft die Erfindung ein Steuergerät zum Ausführen der Schritte des zuvor beschriebenen Verfahrens. Dabei ist vorgesehen, dass das Steuergerät in einem Fahrzeug angeordnet ist. Zum Erfassen der Umgebung ist das Steuergerät vorteilhafterweise mit den unterschiedlichen Sensoren, wie zuvor beschrieben, zur Signalübertragung verbunden. Furthermore, the invention relates to a control device for carrying out the steps of the method described above. It is provided that the control unit is arranged in a vehicle. For detecting the environment, the control device is advantageously connected to the different sensors, as described above, for signal transmission.
  • Schließlich umfasst die Erfindung ein Fahrzeug mit einem Steuergerät wie zuvor beschrieben. Das Fahrzeug ist somit in der Lage, eine aktuelle Umgebung sicher und zuverlässig zu klassifizieren. Finally, the invention comprises a vehicle with a control unit as described above. The vehicle is thus able to classify a current environment safely and reliably.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen: Further details, features and advantages of the invention will become apparent from the following description and the figures. Show it:
  • 1 eine schematische Abbildung des Ablaufs des Verfahrens gemäß einem Ausführungsbeispiel der Erfindung, und 1 a schematic illustration of the sequence of the method according to an embodiment of the invention, and
  • 2 eine schematische Abbildung eines Fahrzeugs gemäß einem Ausführungsbeispiel der Erfindung mit einem Steuergerät gemäß einem Ausführungsbeispiel der Erfindung. 2 a schematic illustration of a vehicle according to an embodiment of the invention with a control device according to an embodiment of the invention.
  • 1 zeigt schematisch einen Ablauf eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung. Dabei umfasst das Verfahren einen Schritt des Bereitstellens 400 einer Repräsentation einer Umgebung 9 eines Fahrzeugs 1 (vgl. 2). Nach dem Bereitstellen 400 erfolgt ein Einordnen 500 der Umgebung 9 in vordefinierte Kategorien 10, 11, 12, 13. 1 schematically shows a sequence of a method according to an embodiment of the invention. In this case, the method comprises a step of providing 400 a representation of an environment 9 of a vehicle 1 (see. 2 ). After deploying 400 a classification takes place 500 the environment 9 in predefined categories 10 . 11 . 12 . 13 ,
  • Der Schritt des Bereitstellens 400 umfasst mehrere Unterschritte. So erfolgt zunächst ein Erfassen 100 der Umgebung 9 mit einer Vielzahl von unterschiedlichen Sensoren 3, 4, 5, 6 (vgl. 2). Durch die Vielzahl von unterschiedlichen Sensoren 3, 4, 5, 6 lässt sich die Umgebung 9 auf verschiedene Arten und Weisen erfassen, sodass die Erfassung der Umgebung 9 nicht oder nur wenig anfällig für Störungen ist. The step of providing 400 includes several substeps. So first of all a detection takes place 100 the environment 9 with a variety of different sensors 3 . 4 . 5 . 6 (see. 2 ). Due to the large number of different sensors 3 . 4 . 5 . 6 leaves the environment 9 in different ways, capturing the environment 9 not or only slightly susceptible to interference.
  • In einem weiteren Schritt erfolgt ein Speichern 200 der jeweils erfassten Sensordaten in jeweils einer Sensorkarte 7. Dabei ist vorgesehen, dass jede Sensorkarte 7 ein Occupancy Grid ist. Unter Occupancy Grids werden Karten verstanden, die Belegtheitswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Karte aufweisen. Somit lassen sich die Sensordaten der unterschiedlichen Sensoren in jeweils eigenen aber stets gleichen Sensorkarten 7 darstellen. Die einzelnen Sensorkarten 7 sind somit untereinander vergleichbar und zeigen auf dieselbe Art und Weise das Vorhandensein von Hindernissen, Randbebauungen oder ähnlichen Merkmalen an. In a further step, a save 200 each recorded sensor data in each case a sensor card 7 , It is envisaged that each sensor card 7 an occupancy grid is. Occupancy grids are maps that have probabilities of predefined subareas within the map. Thus, the sensor data of the different sensors in their own but always the same sensor cards 7 represent. The individual sensor cards 7 are thus comparable with each other and indicate in the same way the presence of obstacles, edge structures or similar features.
  • In einem weiteren Schritt erfolgt schließlich ein Zusammenführen 300 der einzelnen Sensorkarten 7 zu einer Gesamtkarte 8, wobei die Gesamtkarte 8 die Repräsentation der Umgebung 9 darstellt. Die Gesamtkarte 8 ist somit wiederum ein Occupancy Grid, was bedeutet, dass auch die Gesamtkarte 8 eine Karte ist, die Belegungswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Gesamtkarte 8 aufweist. In 1 ist beispielhaft dargestellt, wie eine Vielzahl von Sensorkarten 7, die lediglich die Belegungswahrscheinlichkeiten 0 und 1 darstellen, zu einer Gesamtkarte 8, die somit ebenfalls lediglich die Belegungswahrscheinlichkeiten 0 und 1 darstellt, zusammengeführt werden. Dabei ist unter schwarz gezeichneten Bereichen zu verstehen, dass dieser Bereich die Belegungswahrscheinlichkeit 1 aufweist, während bei weiß gezeichneten Bereichen die Belegungswahrscheinlichkeit 0 beträgt. Finally, in a further step, a merge takes place 300 the individual sensor cards 7 to a total map 8th , where the total card 8th the representation of the environment 9 represents. The overall map 8th is thus again an occupancy grid, which means that the overall map 8th a map is the occupancy probabilities of predefined sub-areas within the total map 8th having. In 1 is exemplified as a variety of sensor cards 7 , which represent only the occupancy probabilities 0 and 1, to a total map 8th , which thus also represents only the occupancy probabilities 0 and 1, are brought together. In this case, areas drawn in black are to be understood as meaning that this area has the occupancy probability 1, whereas in the case of areas drawn in white, the occupancy probability is 0.
  • Nach dem Schritt des Zusammenführens 300 steht somit eine Repräsentation der aktuellen Umgebung 9 des Fahrzeugs 1 zur Verfügung, wobei diese Repräsentation in Form der Gesamtkarte 8 vorhanden ist. Anhand der Gesamtkarte 8 lässt sich die Umgebung 9 des Fahrzeugs 1 klassifizieren, was während des Schritts des Einordnens 500 durchgeführt wird. Während des Schritts des Einordnens 500 bestimmt ein maschinelles Lernverfahren anhand eines Klassifikators, in welche der vordefinierten Kategorien 10, 11, 12, 13 die Gesamtkarte 8 einzuordnen ist. Bei den vordefinierten Kategorien 10, 11, 12, 13 handelt es sich vorteilhafterweise um die Kategorien Autobahnen 10, außerstädtische Straßen 11, wie insbesondere Bundesstraßen und/oder Landstraßen, Parkplätze 12 und innerstädtische Straßen 13. After the merge step 300 thus represents a representation of the current environment 9 of the vehicle 1 available, this representation in the form of the overall map 8th is available. Based on the overall map 8th leaves the environment 9 of the vehicle 1 classify what happened during the step of ranking 500 is carried out. During the step of filing 500 determines a machine learning method based on a classifier into which of the predefined categories 10 . 11 . 12 . 13 the overall map 8th is to be classified. For the predefined categories 10 . 11 . 12 . 13 these are advantageously the categories of highways 10 , extra-urban roads 11 , in particular federal highways and / or highways, parking lots 12 and inner-city streets 13 ,
  • Um das Einordnen vornehmen zu können, wurde das maschinelle Lernverfahren zuvor während einer vorausgegangenen Trainingsphase trainiert, um den Klassifikator zu bestimmen. Während der Trainingsphase hat das maschinelle Lernverfahren anhand eines Datensatzes, der für jede vordefinierte Kategorie 10, 11, 12, 13 eine Vielzahl von vorbekannten Repräsentationen aufweist, den Klassifikator bestimmt. Eine solche Trainingsphase von maschinellen Lernverfahren ist aus dem Stand der Technik bekannt und wird daher nicht ausführlich beschrieben. In order to be able to classify, the machine learning procedure was previously trained during a previous training phase to determine the classifier. During the training phase, the machine learning procedure has a record based on each predefined category 10 . 11 . 12 . 13 having a plurality of known representations determines the classifier. Such a training phase of machine learning methods is known from the prior art and will therefore not be described in detail.
  • Bei dem maschinellen Lernverfahren handelt es sich vorteilhafterweise um neuronale Netze, insbesondere um faltende neuronale Netze (Convolutional Neural Networks), und/oder um Stützvektormethoden (Support Vector Machines). Diese maschinellen Lernverfahren haben den Vorteil, dass nach einer einmaligen Trainingsphase eine Vielzahl von unterschiedlichen Repräsentationen einer, insbesondere aktuellen, Umgebung 9 des Fahrzeugs 1 verarbeitet werden kann. Somit ist ein sicheres und zuverlässiges Klassifizieren der Umgebung 9 des Fahrzeugs 1 anhand der aktuellen Repräsentationen der aktuellen Umgebung 9 des Fahrzeugs 1 ermöglicht. Außerdem erlauben die maschinellen Lernverfahren eine solche Klassifizierung vorteilhafterweise in Echtzeit auszuführen. The machine learning method is advantageously neural networks, in particular convolutional neural networks, and / or um Support Vector Machines. These machine learning methods have the advantage that after a single training phase a multiplicity of different representations of an, in particular current, environment 9 of the vehicle 1 can be processed. Thus, a safe and reliable classification of the environment 9 of the vehicle 1 based on the current representations of the current environment 9 of the vehicle 1 allows. In addition, the machine learning methods advantageously allow such classification to be performed in real time.
  • Das in 1 gezeigte Verfahren ist vorteilhafterweise durch ein Computerprogrammprodukt realisierbar, indem das Computerprogrammprodukt Instruktionen aufweist, welche, wenn sie auf einer Auswerteeinheit, insbesondere auf einem Steuergerät 2 (vgl. 2), ausgeführt werden, die Auswerteeinheit, insbesondere das Steuergerät 2, veranlassen, die zuvor beschriebenen Schritte durchzuführen. This in 1 The method shown can be implemented advantageously by a computer program product in that the computer program product has instructions which, when they are stored on an evaluation unit, in particular on a control unit 2 (see. 2 ), the evaluation unit, in particular the control unit 2 , to carry out the steps described above.
  • 2 zeigt ein Fahrzeug 1 gemäß einem Ausführungsbeispiel der Erfindung, wobei das Fahrzeug 1 ein Steuergerät 2 gemäß einem Ausführungsbeispiel der Erfindung umfasst. Das Steuergerät 2 ist zur Signalübertragung mit einer Vielzahl von Sensoren 3, 4, 5, 6 verbunden. Die Sensoren 3, 4, 5, 6 umfassen insbesondere Ultraschallsensoren 3, Radarsensoren 4, Lidarsensoren 5 und Videosensoren 6. Mit diesen unterschiedlichen Sensoren 3, 4, 5, 6 ist die Umgebung 9 des Fahrzeugs 1 erfassbar. Das Steuergerät 2 ist eingerichtet, das in 1 gezeigte Verfahren auszuführen. Somit lässt sich mit dem Fahrzeug 1 sicher und zuverlässig eine aktuelle Umgebung 9 klassifizieren, sodass ein Fahrer des Fahrzeugs 1 stets optimale Informationen und Unterstützungen angeboten werden können, da dem Fahrzeug 1 jederzeit bekannt ist, wo es sich gerade befindet. Das Klassifizieren der Umgebung 9 ist dabei durch die Vielzahl von unterschiedlichen Sensoren 3, 4, 5, 6 nicht oder nur wenig anfällig gegenüber Störungen und damit sehr zuverlässig. 2 shows a vehicle 1 according to an embodiment of the invention, wherein the vehicle 1 a control unit 2 according to an embodiment of the invention. The control unit 2 is for signal transmission with a variety of sensors 3 . 4 . 5 . 6 connected. The sensors 3 . 4 . 5 . 6 include in particular ultrasonic sensors 3 , Radar sensors 4 , Lidar sensors 5 and video sensors 6 , With these different sensors 3 . 4 . 5 . 6 is the environment 9 of the vehicle 1 detectable. The control unit 2 is set up in 1 To execute shown method. Thus, can be with the vehicle 1 safe and reliable a current environment 9 classify a driver of the vehicle 1 Always optimal information and support can be offered as the vehicle 1 It is always known where it is at the moment. Classifying the environment 9 is due to the large number of different sensors 3 . 4 . 5 . 6 not or only slightly susceptible to interference and therefore very reliable.
  • BezugszeichenlisteLIST OF REFERENCE NUMBERS
  • 1 1
    Fahrzeug vehicle
    2 2
    Steuergerät control unit
    3 3
    Ultraschallsensor ultrasonic sensor
    4 4
    Radarsensor radar sensor
    5 5
    Lidarsensor lidar
    6 6
    Videosensor video sensor
    7 7
    Sensorkarte sensor card
    8 8th
    Gesamtkarte total card
    9 9
    Umgebung Surroundings
    10 10
    Autobahn Highway
    11 11
    außerstädtische Straße out of town street
    12 12
    Parkplatz parking spot
    13 13
    innerstädtische Straße inner city street
    100 100
    Erfassen To capture
    200 200
    Speichern to save
    300 300
    Zusammenführen bring together
    400 400
    Bereitstellen Provide
    500 500
    Einordnen filing
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
  • Zitierte PatentliteraturCited patent literature
    • DE 102009049408 A1 [0003] DE 102009049408 A1 [0003]
    • DE 102011121442 A1 [0003] DE 102011121442 A1 [0003]

Claims (10)

  1. Verfahren zum Klassifizieren einer Umgebung (9) eines Fahrzeugs (1), umfassend die Schritte: • Bereitstellen (400) einer Repräsentation der Umgebung (9), wobei die Repräsentation eine Karte umfasst, die Belegungswahrscheinlichkeiten vordefinierter Unterbereiche innerhalb der Karte aufweist und • Einordnen (500) der Umgebung (9) in vordefinierte Kategorien (10, 11, 12, 13) durch ein maschinelles Lernverfahren, wobei das maschinelle Lernverfahren das Einordnen (500) anhand eines vordefinierten Klassifikators und der bereitgestellten Repräsentation der Umgebung (9) vornimmt. Method for classifying an environment ( 9 ) of a vehicle ( 1 ), comprising the steps of: • providing ( 400 ) a representation of the environment ( 9 ), the representation comprising a map having occupancy probabilities of predefined subareas within the map, and • ranking ( 500 ) the environment ( 9 ) in predefined categories ( 10 . 11 . 12 . 13 ) by a machine learning method, wherein the machine learning method the classification ( 500 ) based on a predefined classifier and the provided representation of the environment ( 9 ).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch das maschinelle Lernverfahren während einer Trainingsphase anhand eines vorbekannten Datensatzes der Klassifikator bestimmt wird, wobei der vorbekannte Datensatz für jede Kategorie (10, 11, 12, 13) zumindest eine vorbekannte Repräsentation einer Umgebung (9) aufweist, Method according to Claim 1, characterized in that the classifier is determined by the machine learning method during a training phase on the basis of a previously known data record, the previously known data record being determined for each category ( 10 . 11 . 12 . 13 ) at least one known representation of an environment ( 9 ) having,
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kategorien (10, 11, 12, 13) – Baustellen und/oder – Stauende und/oder – Autobahnrastplatz und/oder – insbesondere unbefestigte Feldwege und/oder – Links- oder Rechtsverkehr und/oder – Straßentopologie und/oder – Straßen-/Fahrspursperrung und/oder – Autobahnauffahrten und/oder – Autobahnabfahrten und/oder – Autobahnkreuze verschiedene Straßentypen, insbesondere Autobahnen (10), und/oder – außerstädtische Straßen (11) und/oder – innerstädtische Straßen (13) und/oder – Parkplätze (12) umfassen. Method according to one of the preceding claims, characterized in that the categories ( 10 . 11 . 12 . 13 ) - construction sites and / or - traffic jams and / or - motorway rest area and / or - in particular unpaved dirt roads and / or - left- or right-hand traffic and / or - road topology and / or - road / lane closure and / or - motorway ramps and / or - Motorway exits and / or - motorway junctions of various types of roads, especially highways ( 10 ), and / or - extra-urban roads ( 11 ) and / or - inner-city roads ( 13 ) and / or parking spaces ( 12 ).
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt des Bereitstellens (400) der Repräsentation umfasst: • Erfassen (100) der Umgebung (9) mit unterschiedlichen Sensoren (3, 4, 5, 6), • Speichern (200) der jeweils erfassten Sensordaten in jeweils einer Sensorkarte (7), und • Zusammenführen (300) der Sensorkarten (7) zu einer Gesamtkarte (8), wobei die Gesamtkarte (8) die Repräsentation der Umgebung (9) darstellt. Method according to one of the preceding claims, characterized in that the step of providing ( 400 ) of the representation includes: • Capture ( 100 ) the environment ( 9 ) with different sensors ( 3 . 4 . 5 . 6 ), • To save ( 200 ) of the sensor data recorded in each case in a sensor card ( 7 ), and • Merge ( 300 ) of the sensor cards ( 7 ) to a complete map ( 8th ), whereby the total map ( 8th ) the representation of the environment ( 9 ).
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Sensoren (3, 4, 5, 6) Ultraschallsensoren (3) und/oder Radarsensoren (4) und/oder Lidarsensoren (5) und/oder Videosensoren (6) umfassen. Method according to claim 4, characterized in that the sensors ( 3 . 4 . 5 . 6 ) Ultrasonic sensors ( 3 ) and / or radar sensors ( 4 ) and / or lidar sensors ( 5 ) and / or video sensors ( 6 ).
  6. Verfahren nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass die Gesamtkarte (8) zusätzlich mit bereits gespeicherten Karteninformationen überlagert wird. Method according to one of claims 4 or 5, characterized in that the overall map ( 8th ) is additionally superimposed with already stored map information.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das maschinelle Lernverfahren durch neuronale Netze, insbesondere faltende neuronale Netze, und/oder Stützvektormethoden realisiert ist. Method according to one of the preceding claims, characterized in that the machine learning method is implemented by neural networks, in particular folding neural networks, and / or support vector methods.
  8. Computerprogrammprodukt umfassend Instruktionen, welche, wenn Sie auf einer Auswerteeinheit ausgeführt werden, die Auswerteeinheit veranlassen, die Schritte des Verfahrens nach einem der vorhergehenden Ansprüche auszuführen. Computer program product comprising instructions which, when executed on an evaluation unit, cause the evaluation unit to carry out the steps of the method according to one of the preceding claims.
  9. Steuergerät (2), welches zum Ausführen der Schritte des Verfahrens gemäß den Ansprüchen 1 bis 7 eingerichtet ist. Control unit ( 2 ), which is adapted to carry out the steps of the method according to claims 1 to 7.
  10. Fahrzeug (1) umfassend ein Steuergerät (2) nach Anspruch 9. Vehicle ( 1 ) comprising a control device ( 2 ) according to claim 9.
DE102016210534.5A 2016-06-14 2016-06-14 Method for classifying an environment of a vehicle Pending DE102016210534A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016210534.5A DE102016210534A1 (en) 2016-06-14 2016-06-14 Method for classifying an environment of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016210534.5A DE102016210534A1 (en) 2016-06-14 2016-06-14 Method for classifying an environment of a vehicle

Publications (1)

Publication Number Publication Date
DE102016210534A1 true DE102016210534A1 (en) 2017-12-14

Family

ID=60419718

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016210534.5A Pending DE102016210534A1 (en) 2016-06-14 2016-06-14 Method for classifying an environment of a vehicle

Country Status (1)

Country Link
DE (1) DE102016210534A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017130488A1 (en) * 2017-12-19 2019-06-19 Valeo Schalter Und Sensoren Gmbh A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018102689A1 (en) * 2018-02-07 2019-08-08 Valeo Schalter Und Sensoren Gmbh Method for providing individually adapted parking information about free parking spaces for a motor vehicle
DE102019128009A1 (en) * 2019-10-17 2020-09-10 Audi Ag Method and device for modifying a vehicle outer shell
EP3812793A4 (en) * 2019-01-15 2021-08-18 Beijing Baidu Netcom Sci & Tech Co Ltd Information processing method, system and equipment, and computer storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003848A1 (en) * 2004-01-26 2005-08-11 Ibeo Automobile Sensor Gmbh Method for identifying marked danger and / or construction sites in the area of roadways
DE102009049408A1 (en) 2008-10-21 2010-04-22 Continental Teves Ag & Co. Ohg Sensor system for autonomous starting of motor vehicle, has camera system monitoring area before vehicle during standstill condition of vehicle, and preventing automatic starting of vehicle when objects move in predetermined area
EP2574958A1 (en) * 2011-09-28 2013-04-03 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
DE102011121442A1 (en) 2011-12-16 2013-06-20 Gm Global Technology Operations, Llc Autonomous start
DE102012218362A1 (en) * 2012-10-09 2014-04-24 Bayerische Motoren Werke Aktiengesellschaft Estimation of the road type using sensor-based environmental data
DE102013018721A1 (en) * 2013-11-08 2014-06-18 Daimler Ag Method for detecting parking space for motor vehicle, particularly passenger car, involves entering sensor data in cells of digital occupancy grid depending on position of motor vehicle relative to detected partial area

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003848A1 (en) * 2004-01-26 2005-08-11 Ibeo Automobile Sensor Gmbh Method for identifying marked danger and / or construction sites in the area of roadways
DE102009049408A1 (en) 2008-10-21 2010-04-22 Continental Teves Ag & Co. Ohg Sensor system for autonomous starting of motor vehicle, has camera system monitoring area before vehicle during standstill condition of vehicle, and preventing automatic starting of vehicle when objects move in predetermined area
EP2574958A1 (en) * 2011-09-28 2013-04-03 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
DE102011121442A1 (en) 2011-12-16 2013-06-20 Gm Global Technology Operations, Llc Autonomous start
DE102012218362A1 (en) * 2012-10-09 2014-04-24 Bayerische Motoren Werke Aktiengesellschaft Estimation of the road type using sensor-based environmental data
DE102013018721A1 (en) * 2013-11-08 2014-06-18 Daimler Ag Method for detecting parking space for motor vehicle, particularly passenger car, involves entering sensor data in cells of digital occupancy grid depending on position of motor vehicle relative to detected partial area

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Christian Pieringer: Modellierung des Fahrzeugumfelds mit Occupancy Grids. Masterarbeit, Universität Passau, August 2013. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017130488A1 (en) * 2017-12-19 2019-06-19 Valeo Schalter Und Sensoren Gmbh A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018102689A1 (en) * 2018-02-07 2019-08-08 Valeo Schalter Und Sensoren Gmbh Method for providing individually adapted parking information about free parking spaces for a motor vehicle
EP3812793A4 (en) * 2019-01-15 2021-08-18 Beijing Baidu Netcom Sci & Tech Co Ltd Information processing method, system and equipment, and computer storage medium
DE102019128009A1 (en) * 2019-10-17 2020-09-10 Audi Ag Method and device for modifying a vehicle outer shell

Similar Documents

Publication Publication Date Title
DE102016210534A1 (en) Method for classifying an environment of a vehicle
DE102014008578A1 (en) Method for determining position data for use in the operation of a vehicle system of a motor vehicle and position data acquisition and distribution system
DE102008023970A1 (en) Method and device for identifying traffic-related information
DE102008041679A1 (en) Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature
EP3644239A1 (en) Device and method for abstracting a dataset
DE102016119729A1 (en) Controlling a passenger transport vehicle with all-round vision camera system
WO2018033269A1 (en) Method and device for supporting a driver assistance system in a motor vehicle
DE102018116036A1 (en) Training a deep convolutional neural network for individual routes
WO2016066416A1 (en) Method and apparatus for determining a current driving situation
EP3063732A1 (en) Situation analysis for a driver assistance system
DE102018203583B4 (en) Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model
DE102010018333A1 (en) Method for evaluating information of image that is captured by optical camera in driver assisting system in e.g. passenger car, involves evaluating information that contains in determined image region, which comprises track course portion
DE102016120066A1 (en) A computer implemented method for controlling an object recognition system
DE102016225631A1 (en) Method and device for removing at least one landmark position of a landmark in a radar map
DE102019129737A1 (en) Method for classifying an environment of a vehicle
DE102019006956A1 (en) Method for the detection of a pedestrian crossing
DE102019214146A1 (en) Method for providing an environment model, environment model supply system and computer program
DE102017216802A1 (en) METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
DE102019216206A1 (en) Device and method for determining a U-turn strategy of an autonomous vehicle
DE102018010039A1 (en) Method for recognizing at least one pattern in an environment of a vehicle, control device for executing such a method, and vehicle with such a control device
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102018121274A1 (en) Process for visualizing a driving intention, computer program product and visualization system
DE102018210852A1 (en) Procedure for the determination of illegal driving behavior by a vehicle
DE102019219923A1 (en) Method and device for the robustification of sensor data against adversarial disturbances

Legal Events

Date Code Title Description
R163 Identified publications notified