DE102016202317A1 - METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE - Google Patents

METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE Download PDF

Info

Publication number
DE102016202317A1
DE102016202317A1 DE102016202317.9A DE102016202317A DE102016202317A1 DE 102016202317 A1 DE102016202317 A1 DE 102016202317A1 DE 102016202317 A DE102016202317 A DE 102016202317A DE 102016202317 A1 DE102016202317 A1 DE 102016202317A1
Authority
DE
Germany
Prior art keywords
vehicle
grid
information
sensors
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016202317.9A
Other languages
German (de)
Inventor
Harald von Rosenberg
Ralph Grewe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH, Continental Teves AG and Co OHG filed Critical Conti Temic Microelectronic GmbH
Priority to DE102016202317.9A priority Critical patent/DE102016202317A1/en
Publication of DE102016202317A1 publication Critical patent/DE102016202317A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/25Road altitude
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem (20) eines Fahrzeugs (7), mit den Schritten: Bereitstellen (S1) von Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs (7) durch eine Vielzahl von Fahrzeugsensoren (21) des Fahrzeugs (7); Klassifizieren (S2) der Fahrzeugsensoren (21) in verschiedene Fahrzeugsensortypklassen; Erstellen (S3) eines Belegungsgitters (1), welches das Fahrzeugumfeld des Fahrzeugs (7) repräsentiert, wobei Gitterzellen (6) des Belegungsgitters (1) anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet werden, und wobei Gitterzellen (6) des Belegungsgitters (1) anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren (21), deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle (6) verwendet werden, Metainformationen zugeordnet werden; und Steuern (S4) von Fahrzeugfunktionen des Fahrzeugs (7) durch das Fahrerassistenzsystem (20) unter Verwendung des erstellten Belegungsgitters (1).The invention relates to a method for controlling vehicle functions by a driver assistance system (20) of a vehicle (7), comprising the steps of: providing (S1) sensor data relating to a vehicle environment of the vehicle (7) by a plurality of vehicle sensors (21) of the vehicle ( 7); Classifying (S2) the vehicle sensors (21) into different vehicle sensor type classes; Creating (S3) an occupancy grid (1) representing the vehicle environment of the vehicle (7), grid cells (6) of the occupancy grid (1) being assigned grid cell information based on the provided sensor data, and grid cells (6) of the occupancy grid (1) the vehicle sensor type classes of those vehicle sensors (21) whose sensor data are used to create the grid cell information of the respective grid cell (6) are assigned meta information; and controlling (S4) vehicle functions of the vehicle (7) by the driver assistance system (20) using the created occupancy grid (1).

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem eines Fahrzeugs, ein Fahrerassistenzsystem für ein Fahrzeug und ein Fahrzeug. The present invention relates to a method for controlling vehicle functions by a driver assistance system of a vehicle, a driver assistance system for a vehicle and a vehicle.

In zunehmendem Maße unterstützen Fahrerassistenzsysteme den Fahrer beim Steuern des Fahrzeugs oder übernehmen einzelne Fahrfunktionen des Fahrzeugs oder die komplette Steuerung des Fahrzeugs. Um bei einem (halb-)autonomen Fahren die Sicherheit zu gewährleisten, muss für eine präzise Erkennung des Fahrzeugumfelds des Fahrzeugs gesorgt werden. Increasingly, driver assistance systems assist the driver in controlling the vehicle or take over individual driving functions of the vehicle or the complete control of the vehicle. In order to ensure safety in (semi-) autonomous driving, it is necessary to ensure a precise recognition of the vehicle environment of the vehicle.

Ein weit verbreitetes Verfahren ist es hierbei, ein Belegungsgitter zu erstellen, welches das Fahrzeugumfeld des Fahrzeugs repräsentiert. Das Belegungsgitter kann eine Vielzahl von Ebenen umfassen, wobei in die Gitterzellen des Belegungsgitters Informationen bezüglich der Überfahrbarkeit des der Zelle entsprechenden Bereichs oder auch einer Höheninformation dieses Bereichs eingetragen werden. So ist aus der DE 10 2012 109 377 A1 ein Verfahren zur Repräsentation von Umgebungsstrukturen in einem Belegungsgitter bekannt, wobei Werte für eine Kritikalität eingetragen werden, um eine Gefährdung zu klassifizieren. A widely used method is to create an occupancy grid that represents the vehicle environment of the vehicle. The allocation grid can comprise a multiplicity of levels, wherein information relating to the traversability of the area corresponding to the cell or also height information of this area is entered into the grid cells of the occupation grid. So is out of the DE 10 2012 109 377 A1 discloses a method for representing environmental structures in an occupancy grid, wherein values for a criticality are entered to classify a hazard.

Weiter ist aus der DE 10 2013 217 488 A1 ein Belegungsgitter bekannt, wobei das Belegungsgitter eine Vielzahl an Ebenen umfasst, wobei in einer weiteren Ebene nur dann Informationen hinterlegt werden, wenn die Information der Gitterzelle in der ersten Ebene einen vorgebbaren Wert einnimmt. Next is from the DE 10 2013 217 488 A1 an occupancy grid known, wherein the occupancy grid comprises a plurality of levels, wherein in a further level information is deposited only when the information of the grid cell in the first level occupies a predetermined value.

Meist wird ein bestimmter Bereich des Fahrzeugumfelds durch eine Vielzahl verschiedener Fahrzeugsensoren überwacht, beispielsweise Radarsensoren, Fahrzeugkameras oder Ultraschallsensoren. Die Qualität der von den Sensoren bereitgestellten Informationen kann hierbei von der Wetterlage oder der Qualität der Fahrzeugsensoren selbst abhängen. Teilweise werden dadurch in das Belegungsgitter auch fehlerbehaftete Informationen eingetragen. Somit kann es passieren, dass Objekte erkannt werden, welche in der Realität nicht existieren, wodurch ein Steuern von Fahrzeugfunktionen durch das Fahrerassistenzsystem erschwert wird. In most cases, a particular area of the vehicle environment is monitored by a variety of different vehicle sensors, such as radar sensors, vehicle cameras or ultrasonic sensors. The quality of the information provided by the sensors may depend on the weather conditions or the quality of the vehicle sensors themselves. In some cases, erroneous information is also entered in the allocation grid. Thus, it may happen that objects are detected which do not exist in reality, thereby making it difficult to control vehicle functions by the driver assistance system.

Es ist daher eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem eines Fahrzeugs bereitzustellen. It is therefore an object of the present invention to provide an improved method for controlling vehicle functions by a driver assistance system of a vehicle.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem eines Fahrzeugs mit den Merkmalen des Patentanspruchs 1, ein Fahrerassistenzsystem für ein Fahrzeug mit den Merkmalen des Patentanspruchs 9 und ein Fahrzeug mit den Merkmalen des Patentanspruchs 14 gelöst. This object is achieved by a method for controlling vehicle functions by a driver assistance system of a vehicle having the features of patent claim 1, a driver assistance system for a vehicle having the features of claim 9 and a vehicle having the features of claim 14.

Demgemäß schafft die vorliegende Erfindung ein Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem eines Fahrzeugs, wobei Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs durch eine Vielzahl von Fahrzeugsensoren des Fahrzeugs bereitgestellt werden. Weiter werden die Fahrzeugsensoren in verschiedene Fahrzeugsensortypklassen klassifiziert. Ein Belegungsgitter, welches das Fahrzeugumfeld des Fahrzeugs repräsentiert, wird erstellt, wobei Gitterzellen des Belegungsgitters anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet werden. Weiter werden Gitterzellen des Belegungsgitters anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren, deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle verwendet werden, Metainformationen zugeordnet. Unter Verwendung des erstellten Belegungsgitters werden Fahrzeugfunktionen des Fahrzeugs durch das Fahrerassistenzsystem gesteuert. Accordingly, the present invention provides a method for controlling vehicle functions by a driver assistance system of a vehicle, wherein sensor data relating to a vehicle environment of the vehicle is provided by a plurality of vehicle sensors of the vehicle. Further, the vehicle sensors are classified into different vehicle sensor type classes. An occupancy grid, which represents the vehicle environment of the vehicle, is created, wherein grid cells of the occupancy grid are assigned grid cell information on the basis of the provided sensor data. Furthermore, grid cells of the occupancy grid are assigned meta information on the basis of the vehicle sensor type classes of those vehicle sensors whose sensor data are used to generate the grid cell information of the respective grid cell. Using the created occupancy grid, vehicle functions of the vehicle are controlled by the driver assistance system.

Weiter ist ein Fahrerassistenzsystem für ein Fahrzeug vorgesehen, welches dazu ausgelegt ist, von einer Vielzahl von Fahrzeugsensoren des Fahrzeugs bereitgestellte Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs zu empfangen. Das Fahrerassistenzsystem ist hierbei dazu ausgebildet, die Fahrzeugsensoren in verschiedene Fahrzeugsensortypklassen zu klassifizieren, und ein Belegungsgitter zu erstellen, welches das Fahrzeugumfeld des Fahrzeugs repräsentiert. Gitterzellen des Belegungsgitters werden anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet, wobei Gitterzellen des Belegungsgitters anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren, deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle verwendet werden, Metainformationen zugeordnet werden. Das Fahrerassistenzsystem ist weiter dazu ausgebildet, Fahrzeugfunktionen des Fahrzeugs unter Verwendung des erstellten Belegungsgitters zu steuern. Further, a driver assistance system for a vehicle is provided, which is designed to receive from a plurality of vehicle sensors of the vehicle provided sensor data relating to a vehicle environment of the vehicle. The driver assistance system is hereby designed to classify the vehicle sensors into different vehicle sensor type classes, and to create an occupancy grid which represents the vehicle surroundings of the vehicle. Grid cells of the occupancy grid are assigned grid cell information on the basis of the provided sensor data, wherein grid cells are assigned meta information on the basis of the vehicle sensor type classes of those vehicle sensors whose sensor data are used to generate the grid cell information of the respective grid cell. The driver assistance system is further configured to control vehicle functions of the vehicle using the created occupancy grid.

Meist umfasst ein Fahrzeug eine Vielzahl von Fahrzeugsensoren, wobei das Fahrzeug mehrere Fahrzeugsensoren aus derselben Fahrzeugsensortypklasse aufweist. Beispielsweise kann das Fahrzeug eine Vielzahl von Fahrzeugkameras aufweisen, welche der Fahrzeugkamerasensortypklasse zugeordnet werden können. Oftmals hängt die Qualität und Zuverlässigkeit von erfassten Sensordaten von der spezifischen Fahrzeugsensortypklasse des Fahrzeugsensors ab. So ist beispielsweise die Qualität von Fahrzeugkameras bei Dunkelheit von geringerer Qualität. Durch die Erfindung ist es jedoch möglich, entsprechende Metainformationen in dem Belegungsgitter zu hinterlegen, so dass beim Steuern von Fahrfunktionen des Fahrzeugs durch das Fahrerassistenzsystem die Qualität und die Herkunft der Gitterzelleninformationen berücksichtigt werden kann. Somit können insbesondere Sensordaten von degenerierten oder nicht zuverlässig arbeitenden Fahrzeugsensoren korrigiert oder entfernt werden. Dadurch wird die Genauigkeit des Belegungsgitters erhöht und somit die Zuverlässigkeit des Fahrerassistenzsystems verbessert und die Sicherheit erhöht. In most cases, a vehicle includes a plurality of vehicle sensors, the vehicle having a plurality of vehicle sensors from the same vehicle sensor class. For example, the vehicle may include a plurality of vehicle cameras that may be associated with the vehicle camera sensor class. Often, the quality and reliability of sensed sensor data depends on the specific vehicle sensor type class of the vehicle sensor. For example, the quality of vehicle cameras is of lower quality in the dark. However, it is by the invention it is possible to store corresponding meta-information in the allocation grid, so that the quality and the origin of the grid-cell information can be taken into account when controlling driving functions of the vehicle by the driver assistance system. Thus, in particular, sensor data from degenerate or non-reliably operating vehicle sensors can be corrected or removed. This increases the accuracy of the occupancy grid and thus improves the reliability of the driver assistance system and increases safety.

Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens umfassen die Gitterzelleninformationen Werte bezüglich einer Fahrbahnhöhe und/oder eines Belegungszustandes. Bei dem Belegungszustand kann beispielsweise zwischen belegt und nicht belegt unterschieden werden, um somit eine Überfahrbarkeit des der Gitterzelle entsprechenden Bereichs im Fahrzeugumfeld des Fahrzeugs anzugeben. According to a preferred embodiment of the method according to the invention, the grid cell information includes values relating to a roadway height and / or an occupying state. In the occupancy state, it is possible, for example, to differentiate between occupied and unoccupied, in order thus to specify a mobility of the area corresponding to the grid cell in the vehicle surroundings of the vehicle.

Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens können die Metainformationen einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklasse zu den Gitterzelleninformationen der jeweiligen Gitterzelle umfassen. Anhand der Qualität der Fahrzeugsensoren der entsprechenden Fahrzeugsensortypklassen kann somit die Zuverlässigkeit der Gitterzelleninformationen der entsprechenden Gitterzelle berechnet werden. According to a preferred embodiment of the method according to the invention, the meta-information may comprise a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell. The reliability of the grid cell information of the corresponding grid cell can thus be calculated on the basis of the quality of the vehicle sensors of the corresponding vehicle sensor type classes.

Gemäß einer bevorzugten Weiterbildung des erfindungsgemäßen Verfahrens umfassen die Metainformationen Erfassungszeitinformationen und/oder Eigendiagnoseinformationen der Fahrzeugsensoren der Fahrzeugsensortypklasse. Die Erfassungszeitinformationen umfassen vorzugsweise einen genauen Erfassungszeitpunkt, zu dem die Sensordaten erfasst wurden. Werden die Sensordaten beispielsweise nach Einbruch der Dunkelheit erfasst, so kann für diejenigen Gitterzellen, für welche anhand von Fahrzeugkameras der Fahrzeugkamerasensorklasse Gitterzelleninformationen erzeugt wurden, in den Metainformationen hinterlegt werden, dass eine Genauigkeit der Gitterzelleninformationen reduziert ist. According to a preferred development of the method according to the invention, the meta-information comprises acquisition time information and / or self-diagnosis information of the vehicle sensors of the vehicle sensor type class. The detection time information preferably includes an accurate detection timing at which the sensor data was acquired. If the sensor data are detected, for example, after dark, then for those grid cells for which grid cell information was generated based on vehicle cameras of the vehicle camera sensor class, it can be stored in the meta information that an accuracy of the grid cell information is reduced.

Eigendiagnoseinformationen können beispielsweise von den Fahrzeugsensoren selbst umfasste Informationen über den Zustand des Fahrzeugsensors umfassen. So kann ein Fahrzeugsensor beispielsweise erkennen, falls die Qualität des Fahrzeugsensors reduziert ist. Beispielsweise kann ein Fahrzeugsensor erkennen, dass der Sensor aufgrund von Schneefall bedingt oder gar nicht einsatzfähig ist. Self-diagnosis information may include, for example, information about the condition of the vehicle sensor included in the vehicle sensors themselves. For example, a vehicle sensor can detect if the quality of the vehicle sensor is reduced. For example, a vehicle sensor can detect that the sensor is due to snowfall conditionally or not operational.

Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens umfassen die Fahrzeugsensortypklassen Radarsensorklassen und/oder Fahrzeugkamerasensorklassen und/oder Lasersensorsensorklassen und/oder Ultraschallsensorklassen und/oder Lidarsensorklassen und/oder Tiefenbildsensortypklassen. According to a preferred embodiment of the method according to the invention, the vehicle sensor type classes comprise radar sensor classes and / or vehicle camera sensor classes and / or laser sensor sensor classes and / or ultrasound sensor classes and / or lidar sensor classes and / or depth image sensor type classes.

Gemäß einer bevorzugten Weiterbildung des erfindungsgemäßen Verfahrens wird anhand der Gitterzelleninformationen eine Objekterkennung durchgeführt. Die Erkennungsgenauigkeit der erkannten Objekte wird hierbei durch Auswertung der Metainformationen berechnet. Dies hat den Vorteil, dass nicht nur die Objekte selbst erkannt werden, sondern zusätzlich Informationen über die Qualität der Erkennung vorliegen. Wird ein Objekt beispielsweise nur mit einer geringen Erkennungsgenauigkeit erkannt, so kann das Fahrerassistenzsystem beispielsweise Fahrzeugsensoren des Fahrzeugsensors ansteuern, so dass ein entsprechender Bereich zusätzlich überwacht und ausgewertet wird, um somit die Genauigkeit der Objekterkennung zu vergrößern. Anschließend kann bestätigt oder verworfen werden, ob ein Objekt vorhanden ist. According to a preferred development of the method according to the invention, an object recognition is carried out on the basis of the grid cell information. The recognition accuracy of the detected objects is calculated by evaluating the meta-information. This has the advantage that not only the objects themselves are recognized, but also information about the quality of the recognition is available. If an object is detected, for example, only with a low recognition accuracy, then the driver assistance system can, for example, control vehicle sensors of the vehicle sensor, so that a corresponding area is additionally monitored and evaluated in order to increase the accuracy of the object recognition. Then it can be confirmed or rejected whether an object exists.

Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden erkannte Objekte als fehlerhaft erkannte Objekte verworfen, falls die Erkennungsgenauigkeit unter einem einstellbaren vorgegebenen Schwellenwert liegt. Somit kann verhindert werden, dass nicht vorhandene Objekte erkannt werden. Die Präzision und Sicherheit des Fahrerassistenzsystems wird weiter verbessert. According to a preferred embodiment of the method according to the invention recognized objects are rejected as erroneously recognized objects, if the recognition accuracy is below an adjustable predetermined threshold. Thus it can be prevented that non-existing objects are detected. The precision and safety of the driver assistance system is further improved.

Gemäß einer bevorzugten Weiterbildung des erfindungsgemäßen Verfahrens wird anhand der Gitterzelleninformationen eine Fahrbahnbegrenzungserkennung durchgeführt. Räumlich benachbarte erkannte Fahrbahnbegrenzungen werden zu einer einzigen Fahrbahnbegrenzung vereinigt, falls anhand der Metainformationen erkannt wird, dass die räumlich benachbarten erkannten Fahrbahnbegrenzungen anhand von Sensordaten von verschiedenen Fahrzeugsensortypklassen erfasst wurden. Dies hat den Vorteil, dass redundante Informationen eliminiert werden können, und somit das Belegungsgitter übersichtlicher und leichter auszuwerten wird. According to a preferred embodiment of the method according to the invention, a lane boundary detection is performed based on the grid cell information. Spatially adjacent recognized lane boundaries are merged into a single lane boundary if meta information is used to detect that the spatially adjacent detected lane boundaries were detected from sensor data of different vehicle sensor classifications. This has the advantage that redundant information can be eliminated, and thus the allocation grid is clearer and easier to evaluate.

Gemäß einer bevorzugten Weiterbildung des erfindungsgemäßen Fahrerassistenzsystems umfassen die Gitterzelleninformationen Werte bezüglich einer Fahrbahnhöhe und/oder eines Belegungszustandes. According to a preferred development of the driver assistance system according to the invention, the grid cell information includes values relating to a roadway height and / or an occupancy state.

Gemäß einer bevorzugten Weiterbildung des Fahrerassistenzsystems umfassen die Metainformationen einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklasse zu den Gitterzelleninformationen der jeweiligen Gitterzelle. According to a preferred refinement of the driver assistance system, the meta information comprises a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell.

Gemäß einer bevorzugten Weiterbildung des Fahrerassistenzsystems umfassen die Metainformationen Erfassungszeitinformationen und/oder Eigendiagnoseinformationen der Fahrzeugsensoren der Fahrzeugsensortypklasse. According to a preferred embodiment of the driver assistance system include the Meta information acquisition time information and / or self-diagnosis information of the vehicle sensor class vehicle sensors.

Gemäß einer bevorzugten Weiterbildung ist das Fahrerassistenzsystem weiter dazu ausgelegt, anhand der Gitterzelleninformationen eine Objekterkennung durchzuführen und durch Auswertung der Metainformationen eine Erkennungsgenauigkeit der erkannten Objekte zu berechnen. According to a preferred refinement, the driver assistance system is further designed to perform object recognition on the basis of the grid cell information and to calculate a recognition accuracy of the detected objects by evaluating the meta information.

Gemäß einer bevorzugten Weiterbildung des Fahrzeugs umfassen die Fahrzeugsensoren Radarsensoren und/oder Fahrzeugkameras und/oder Lasersensor und/oder Ultraschallsensoren und/oder Lidarsensoren. According to a preferred development of the vehicle, the vehicle sensors include radar sensors and / or vehicle cameras and / or laser sensor and / or ultrasound sensors and / or lidar sensors.

Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. The present invention will be explained in more detail with reference to the exemplary embodiments indicated in the schematic figures of the drawings.

Es zeigen: Show it:

1 ein Flussdiagramm zur Erläuterung eines erfindungsgemäßen Verfahrens zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem; 1 a flowchart for explaining a method according to the invention for controlling vehicle functions by a driver assistance system;

2 ein beispielhaftes Belegungsgitter gemäß einer Ausführungsform der Erfindung; 2 an exemplary occupancy grid according to an embodiment of the invention;

3 bis 5 beispielhafte Ebenen eines Belegungsgitters gemäß einer Ausführungsform der Erfindung; 3 to 5 exemplary levels of an occupancy grid according to an embodiment of the invention;

6 ein Blockschaltbild eines erfindungsgemäßen Fahrerassistenzsystems; und 6 a block diagram of a driver assistance system according to the invention; and

7 ein Blockschaltbild eines erfindungsgemäßen Fahrzeugs. 7 a block diagram of a vehicle according to the invention.

1 zeigt ein Flussdiagramm zur Erläuterung eines Verfahrens zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem eines Fahrzeugs gemäß einer ersten Ausführungsform der Erfindung. 1 shows a flowchart for explaining a method for controlling vehicle functions by a driver assistance system of a vehicle according to a first embodiment of the invention.

Unter Fahrzeug ist hierbei ein Kraftfahrzeug, beispielsweise ein Personenkraftfahrzeug oder ein Lastkraftfahrzeug, ein Wasserfahrzeug oder ein Flugzeug zu verstehen. Under vehicle here is a motor vehicle, such as a passenger car or a truck, a watercraft or an aircraft to understand.

Fahrzeugfunktionen umfassen aktive Fahrzeugfunktionen, beispielsweise das Lenken, das Beschleunigen oder das Abbremsen des Fahrzeugs, sowie passive Fahrzeugfunktionen, wie das Aktivieren von Aktoren des Fahrzeugs, das Anzeigen von Informationen oder Bildern in einer Schnittstelle des Fahrzeugs oder das drahtlose Aussenden von Informationen an weitere Verkehrsteilnehmer oder eine Verkehrszentrale. Vehicle functions include active vehicle functions, such as steering, accelerating, or braking the vehicle, and passive vehicle functions, such as activating actuators of the vehicle, displaying information or images in an interface of the vehicle, or wirelessly broadcasting information to other road users or a traffic center.

In einem ersten Verfahrensschritt S1 werden Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs durch eine Vielzahl von Fahrzeugsensoren des Fahrzeugs bereitgestellt. Fahrzeugsensoren umfassen beispielsweise Radarsensoren und/oder Fahrzeugkameras und/oder Lasersensoren, insbesondere Laserscanner, und/oder Ultraschallsensoren und/oder Lidarsensoren. In a first method step S1, sensor data regarding a vehicle environment of the vehicle are provided by a plurality of vehicle sensors of the vehicle. Vehicle sensors include, for example, radar sensors and / or vehicle cameras and / or laser sensors, in particular laser scanners, and / or ultrasound sensors and / or lidar sensors.

In einem zweiten Verfahrensschritt S2 werden die Fahrzeugsensoren in verschiedene Fahrzeugsensortypklassen klassifiziert bzw. eingeteilt. Weist das Fahrzeug beispielsweise vier Radarsensoren, fünf Fahrzeugkameras, drei Lasersensor, sechs Ultraschallsensoren und zwei Lidarsensoren auf, so werden die Radarsensoren in eine Radarsensorklasse, die Fahrzeugkameras in eine Fahrzeugkamerasensorklasse, die Lasersensor in eine Lasersensorsensorklasse, die Ultraschallsensoren in eine Ultraschallsensorklasse und die Lidarsensoren in eine Lidarsensorklasse eingeteilt. In a second method step S2, the vehicle sensors are classified or classified into different vehicle sensor type classes. For example, if the vehicle has four radar sensors, five vehicle cameras, three laser sensors, six ultrasonic sensors, and two lidar sensors, the radar sensors become a radar sensor class, the vehicle cameras into a vehicle camera sensor class, the laser sensor into a laser sensor sensor class, the ultrasonic sensors into an ultrasonic sensor class, and the lidar sensors into one Divided Lidarsensorklasse.

Gemäß weiteren Ausführungsformen kann eine detaillierte Klassifizierung der Fahrzeugsensoren durchgeführt werden. Beispielsweise können die Radarsensoren des Fahrzeugs in eine Fernfeldradarsensorklasse, eine Nahfeldradarsensorklasse und eine Rest-Radarsensorklasse klassifiziert werden. Gemäß weiterer Ausführungsformen können die Fahrzeugsensoren auch in eine kleinere Anzahl von Fahrzeugsensortypklassen eingruppiert werden, beispielsweise können die Fahrzeugsensortypklassen eine optische Fahrzeugsensortypklasse umfassen, wobei Fahrzeugkameras und Lasersensor in die optische Fahrzeugsensortypklasse klassifiziert werden. According to other embodiments, a detailed classification of the vehicle sensors may be performed. For example, the radar sensors of the vehicle may be classified into a far field radar sensor class, a near field radar sensor class, and a residual radar sensor class. According to further embodiments, the vehicle sensors may also be grouped into a smaller number of vehicle sensor type classes, for example, the vehicle sensor type classes may include an optical vehicle sensor class, wherein vehicle cameras and laser sensor are classified into the optical vehicle sensor class.

Gemäß weiteren Ausführungsformen können die Fahrzeugsensortypklassen unabhängig von einem physikalischen Sensormessprinzip gewählt werden. So können beispielsweise Fahrzeugsensoren, welche zu einem Tiefen- bzw. Distanzbild beitragen, etwa Stereokameras, Lasersensoren oder Ultraschallsensoren, in eine eigene Fahrzeugsensortypklasse, etwa eine Tiefenbildsensortypklasse, Tiefenbildtypklassen Tiefenbildtypklassen eingeteilt werden. Insbesondere können Fahrzeugtypklassen anhand von bereits aufbereiteten bzw. vorbearbeiteten Sensordaten ausgewählt und die Fahrzeugsensoren entsprechend klassifiziert werden. According to further embodiments, the vehicle sensor type classes may be selected independently of a physical sensor measurement principle. For example, vehicle sensors that contribute to a depth or distance image, such as stereo cameras, laser sensors or ultrasound sensors, can be classified into a separate vehicle sensor class, such as a depth image sensor class, depth image type classes, depth image type classes. In particular, vehicle type classes can be selected on the basis of already prepared or preprocessed sensor data and the vehicle sensors can be classified accordingly.

Die Fahrzeugsensortypklassen können gemäß einer Ausführungsform anhand der physikalischen Messprinzipien klassifiziert werden. Beispielsweise können die Fahrzeugsensortypklassen eine optische Fahrzeugsensortypklasse und eine Radarsensortypklasse umfassen. Weiter können die Sensoren nach der Qualität der Sensordaten klassifiziert werden, so können die Fahrzeugsensortypklassen beispielsweise eine Grobdaten-Fahrzeugsensortypklasse und eine Präzisionsdaten-Fahrzeugsensortypklasse umfassen. Weiter können die Fahrzeugsensoren anhand einer Reichweite der Sensoren klassifiziert werden, beispielsweise können die Fahrzeugsensortypklassen eine Nahfeldradarsensortypklasse und eine Fernfeldradarsensortypklasse umfassen. The vehicle sensor type classes may be classified according to one embodiment by physical measurement principles. For example, the vehicle sensor type classes may include an optical vehicle sensor type class and a radar sensor type class. Furthermore, the sensors can be classified according to the quality of the sensor data For example, the vehicle sensor type classes may include a rough data vehicle sensor type class and a precision data vehicle sensor type class, for example. Further, the vehicle sensors may be classified based on a range of the sensors, for example, the vehicle sensor type classes may include a near field radar sensor type class and a far field radar sensor class class.

In einem weiteren Verfahrensschritt S3 wird ein Belegungsgitter 1 erstellt, welches das Fahrzeugumfeld des Fahrzeugs repräsentiert, wie in 2 dargestellt. Das Belegungsgitter 1 umfasst hierbei eine Vielzahl von Gitterzellen 6, wobei Gitterzellen 6 des Belegungsgitters 1 anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet werden. Die Gitterzelleninformationen können hierbei in einer Vielzahl von Gitterzelleninformationenebenen 2, 3, 4 eingetragen werden. So kann beispielsweise in eine erste Gitterzelleninformationenebene 2 die Fahrbahnhöhe des der jeweiligen Gitterzelle 6 entsprechenden Bereichs des Fahrzeugumfelds des Fahrzeugs 7 eingetragen werden, in eine zweite Gitterzelleninformationenebene 3 kann eine Information eingetragen werden, falls ein der jeweiligen Gitterzelle 6 entsprechender Bereich des Fahrzeugumfelds des Fahrzeugs 7 frei, das heißt für das Fahrzeug 7 überfahrbar ist, und in eine dritte Gitterzelleninformationenebene 4 kann eine Information eingetragen werden, falls ein der jeweiligen Gitterzelle 6 entsprechender Bereich des Fahrzeugumfelds des Fahrzeugs 7 belegt, das heißt für das Fahrzeug 7 nicht überfahrbar ist. Sind keine Sensordaten vorhanden, so werden vorzugsweise keine Gitterzelleninformationen eingetragen. In a further method step S3, an allocation grid 1 created, which represents the vehicle environment of the vehicle, as in 2 shown. The allocation grid 1 in this case comprises a plurality of grid cells 6 , where grid cells 6 of the allocation grid 1 Grid information is assigned based on the provided sensor data. The grid cell information may hereby level in a plurality of grid cell information 2 . 3 . 4 be registered. For example, in a first grid cell information level 2 the roadway height of the respective grid cell 6 corresponding area of the vehicle environment of the vehicle 7 be entered in a second grid cell information level 3 an information can be entered if one of the respective grid cell 6 corresponding area of the vehicle environment of the vehicle 7 free, that is for the vehicle 7 is traversable, and in a third grid cell information level 4 an information can be entered if one of the respective grid cell 6 corresponding area of the vehicle environment of the vehicle 7 occupied, that is for the vehicle 7 is not traversable. If there are no sensor data, preferably no grid cell information is entered.

Weiter werden Gitterzellen 6 des Belegungsgitters 1 anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren 21, deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle 6 verwendet werden, Metainformationen zugeordnet. Die Metainformationen werden in eine Metainformationenebene 5 des Belegungsgitters 1 eingetragen. Next are grid cells 6 of the allocation grid 1 based on the vehicle sensor type classes of those vehicle sensors 21 , their sensor data for creating the grid cell information of the respective grid cell 6 used to map meta-information. The meta-information is put into a meta-information-level 5 of the allocation grid 1 entered.

Gemäß einer Ausführungsform umfassen die Metainformationen einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklasse zu den Gitterzelleninformationen der jeweiligen Gitterzelle. According to one embodiment, the meta information includes a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell.

In einem weiteren Verfahrensschritt S4 werden Fahrzeugfunktionen des Fahrzeugs durch das Fahrerassistenzsystem unter Verwendung des erstellten Belegungsgitters 1 gesteuert. Beispielsweise kann das Fahrerassistenzsystem als Spurhalteassistent das Fahrzeug basierend auf den Gitterzelleninformationen und Metainformationen steuern. In a further method step S4, vehicle functions of the vehicle are adjusted by the driver assistance system using the created occupancy grid 1 controlled. For example, the driver assistance system as a lane departure warning system can control the vehicle based on the grid cell information and meta information.

In 3 ist die dritte Gitterzelleninformationenebene 4 des Belegungsgitters 1 für ein beispielhaftes Szenario illustriert. Das Fahrzeug 7 umfasst hierbei beispielsweise drei Radarsensoren sowie vier Fahrzeugkameras. Die drei Radarsensoren werden in eine Radarsensortypklasse klassifiziert und die vier Fahrzeugkameras werden in eine Fahrzeugkamerasensorklasse klassifiziert. In 3 is the third grid cell information plane 4 of the allocation grid 1 illustrated for an exemplary scenario. The vehicle 7 This includes, for example, three radar sensors and four vehicle cameras. The three radar sensors are classified into a radar sensor class and the four vehicle cameras are classified into a vehicle camera sensor class.

Auf Basis der Sensordaten der Fahrzeugsensoren der Radarsensorklasse wird ein erster Gitterzellenbereich 8 als „belegt“ in die dritte Gitterzelleninformationenebene 4 eingetragen. Auf Basis der Sensordaten der Fahrzeugsensoren der Fahrzeugkamerasensorklasse erstellten Gitterinformationen wird ein zweiter Gitterzellenbereich 9 als „belegt“ in die dritte Gitterzelleninformationenebene 4 eingetragen. Weiter wird ein dritter Gitterzellenbereich 10 sowohl auf Basis der Sensordaten der Fahrzeugsensoren der Fahrzeugkamerasensorklasse als auch auf Basis der Sensordaten der Fahrzeugsensoren der Radarsensorklasse als „belegt“ in die Objektebene 30 eingetragen. Der prozentuale Beitrag der Fahrzeugsensoren der Radarsensorklasse zur Erkennung, dass der dem dritten Gitterzellenbereich 10 entsprechende Bereich des Fahrzeugumfelds des Fahrzeugs 7 belegt ist, beträgt hierbei 20 % und der prozentuale Beitrag der Fahrzeugkamerasensorklasse beträgt 80 %. Diese prozentuale Aufteilung wird als Metainformation in die Metainformationenebene 5 in die entsprechenden Gitterzellen eingetragen. Auf Basis der Metainformationen wird von dem Fahrerassistenzsystem erkannt, dass der dritte Gitterzellenbereich 10 auf Basis von Sensordaten von zwei verschiedenen Fahrzeugsensortypklassen als „belegt“ eingetragen wurde. Somit wird für den dritten Gitterzellenbereich 10 eine höhere Erkennungsgenauigkeit berechnet als für den ersten Gitterzellenbereich 8 und den zweiten Gitterzellenbereich 9. On the basis of the sensor data of the vehicle sensors of the radar sensor class becomes a first grid cell area 8th as "busy" in the third grid cell information plane 4 entered. Grid information created based on the sensor data of the vehicle sensors of the vehicle camera sensor class becomes a second grid cell area 9 as "busy" in the third grid cell information plane 4 entered. Next becomes a third grid cell area 10 based on the sensor data of the vehicle sensors of the vehicle camera sensor class as well as on the basis of the sensor data of the vehicle sensors of the radar sensor class as "occupied" in the object plane 30 entered. The percentage contribution of the vehicle sensors of the radar sensor class to the detection that the third grid cell area 10 corresponding area of the vehicle environment of the vehicle 7 is 20% and the percentage contribution of the vehicle camera sensor class is 80%. This percentage breakdown is called meta-information in the meta-information level 5 entered in the corresponding grid cells. Based on the meta-information, the driver assistance system recognizes that the third grid cell area 10 was entered as "occupied" based on sensor data from two different vehicle sensor class categories. Thus, for the third grid cell area 10 calculates a higher recognition accuracy than for the first grid cell area 8th and the second grid cell area 9 ,

Gemäß weiteren Ausführungsformen kann die Erkennungsgenauigkeit anhand der prozentualen Beiträge der jeweiligen Fahrzeugsensortypklassen und/oder anhand von Eigenschaften der jeweiligen Fahrzeugsensortypklassen berechnet werden. According to further embodiments, the recognition accuracy can be calculated on the basis of the percentage contributions of the respective vehicle sensor class categories and / or on the basis of properties of the respective vehicle sensor class categories.

Gemäß einer weiteren Ausführungsform umfassen die Metainformationen zusätzlich eine Erfassungszeitinformation und eine Eigendiagnoseinformation der Fahrzeugsensoren der Fahrzeugsensortypklasse. Wird anhand der Erfassungszeitinformationen der Fahrzeugsensoren erkannt, dass das Fahrzeug bereits nach Einbruch der Dunkelheit unterwegs ist, so kann den Gitterzelleninformationen, welche anhand von Fahrzeugsensoren der Fahrzeugkamerasensorklasse erstellt werden, eine geringere Genauigkeit zugeordnet werden. Somit kann für den zweiten Gitterzellenbereich 9 eine geringere Erkennungsgenauigkeit berechnet werden als für den ersten Gitterzellenbereich 8. According to another embodiment, the meta information additionally includes detection time information and self-diagnosis information of the vehicle sensor type class vehicle sensors. If it is detected on the basis of the detection time information of the vehicle sensors that the vehicle is already traveling after dark, the grid cell information that is created using vehicle sensors of the vehicle camera sensor class can be assigned a lower accuracy. Thus, for the second grid cell area 9 a lower recognition accuracy can be calculated than for the first grid cell area 8th ,

4 zeigt eine zusätzliche Objektebene 30 des Belegungsgitter 1 gemäß einer weiteren Ausführungsform. Das Fahrzeug 7 umfasst hierbei drei Lasersensor und zwei Ultraschallsensoren. Die Lasersensor werden in eine Lasersensorsensorklasse klassifiziert und die Ultraschallsensoren in eine Ultraschallsensorklasse. Anhand von Sensordaten der Fahrzeugsensoren des Fahrzeugs werden Gitterzelleninformationen erstellt, welche einen Belegungszustand der Gitterzelle umfassen. Anhand der Gitterzelleninformationen führt das Fahrerassistenzsystem eine Objekterkennung durch. Anhand von Gitterzelleninformationen, welche auf Basis von Sensordaten von Fahrzeugsensoren der Lasersensorsensorklasse erstellt wurden, werden ein erstes Objekt 11 sowie eine erste Fahrbahnbegrenzung 13 erkannt und in der Objektebene 30 eingetragen. Weiter werden anhand von Gitterzelleninformationen, welche auf Basis von Sensordaten von Fahrzeugsensoren der Ultraschallsensorklasse erstellt wurden, ein zweites Objekt 12 sowie eine zweite Fahrbahnbegrenzung 14 erkannt und in der Objektebene 30 eingetragen. Weiter erkennt das Fahrerassistenzsystem, dass die erste Fahrbahnbegrenzung 13 und die zweite Fahrbahnbegrenzung 14 räumlich benachbart sind, da beispielsweise ein maximaler Abstand zwischen erster Fahrbahnbegrenzung 13 und zweiter Fahrbahnbegrenzung 14 unter einem vorgegebenen Schwellenwert liegt. Weiter erkennt das Fahrerassistenzsystem, dass die erste Fahrbahnbegrenzung 13 und die zweite Fahrbahnbegrenzung 14 aufgrund von Gitterzelleninformationen erkannt wurden, welche auf Basis von Fahrzeugsensoren der Lasersensorsensorklasse bzw. Ultraschallsensorklasse, das heißt von verschiedenen Fahrzeugsensortypklassen, erstellt wurden. Das Fahrerassistenzsystem vereinigt daher die erste Fahrbahnbegrenzung 13 und die zweite Fahrbahnbegrenzung 14 zu einer einzigen Fahrbahnbegrenzung. Beispielsweise wird die zweite Fahrbahnbegrenzung 14 aus der Objektebene 30 entfernt und nur die erste Fahrbahnbegrenzung 13 weiter gespeichert. 4 shows an additional object plane 30 of the allocation grid 1 according to a further embodiment. The vehicle 7 includes three laser sensor and two ultrasonic sensors. The laser sensors are classified into a laser sensor sensor class and the ultrasonic sensors into an ultrasonic sensor class. On the basis of sensor data of the vehicle sensors of the vehicle, grid cell information is created, which includes an occupancy state of the grid cell. Based on the grid cell information, the driver assistance system performs an object recognition. On the basis of grid cell information, which was created on the basis of sensor data from vehicle sensors of the laser sensor sensor class, becomes a first object 11 and a first lane boundary 13 detected and in the object plane 30 entered. Furthermore, based on grid cell information, which were created on the basis of sensor data from vehicle sensors of the ultrasonic sensor class, a second object 12 and a second lane boundary 14 detected and in the object plane 30 entered. Next recognizes the driver assistance system that the first lane boundary 13 and the second lane boundary 14 spatially adjacent, since, for example, a maximum distance between the first lane boundary 13 and second lane boundary 14 is below a predetermined threshold. Next recognizes the driver assistance system that the first lane boundary 13 and the second lane boundary 14 were detected based on grid cell information based on vehicle sensors of the laser sensor sensor class or ultrasound sensor class, that is to say of different vehicle sensor class categories. The driver assistance system therefore combines the first road boundary 13 and the second lane boundary 14 to a single lane boundary. For example, the second lane boundary becomes 14 from the object level 30 removed and only the first lane boundary 13 saved further.

Anhand der einzigen Fahrbahnbegrenzung kann das Fahrzeug als Spurhalteassistent aktive Fahrfunktionen des Fahrzeugs steuern, beispielsweise das Fahrzeug lenken, abbremsen oder beschleunigen. Based on the single lane boundary, the vehicle can control active driving functions of the vehicle as lane departure warning, for example steer, decelerate or accelerate the vehicle.

In 5 ist die Objektebene 30 des Belegungsgitter 1 für ein weiteres beispielhaftes Szenario illustriert. Das Fahrzeug 7 umfasst hierbei zwei Fernfeldradarsensoren, welche in eine Fernfeldradarsensortypklasse klassifiziert werden, sowie vier Fahrzeugkameras, welche in eine Fahrzeugkamerasensortypklasse klassifiziert werden. Anhand von Gitterzelleninformationen, welche auf Basis von Sensordaten von Fahrzeugsensoren der Fernfeldradarsensortypklasse erstellt wurden, werden dritte Objekte 18, vierte Objekte 15 und fünfte Objekte 16 erkannt und in der Objektebene 30 eingetragen. Weiter werden anhand von Gitterzelleninformationen, welche auf Basis von Sensordaten von Fahrzeugsensoren der Fahrzeugkamerasensortypklasse erstellt wurden, sechste Objekte 19 und siebte Objekte 17 erkannt und in die Objektebene 30 eingetragen. Durch Berechnung eines Abstandes wird erkannt, dass die dritten Objekte 18 und die sechsten Objekte 19 sowie die fünften Objekte 16 und die siebten Objekte räumlich benachbart sind und diese werden jeweils miteinander identifiziert. Anhand der Metainformationen wird weiter erkannt, dass die derart miteinander identifizierten Objekte anhand von Gitterzelleninformationen erkannt wurden, welche auf Basis von Sensordaten von Fahrzeugsensoren zweier verschiedener Fahrzeugsensortypklassen erstellt wurden. Daher wird für die miteinander identifizierten Objekte eine hohe Erkennungsgenauigkeit berechnet. Weiter wird erkannt, dass das vierte Objekt 15 lediglich anhand von Gitterzelleninformationen erkannt wurden, welche auf Basis von Sensordaten von Fahrzeugsensoren einer einzigen Fahrzeugsensortypklasse erstellt wurden. Weiter wird erkannt, dass die entsprechende Fahrzeugsensortypklasse der Fernfeldradarsensorklasse entspricht. Zusätzlich wird erkannt, dass ein Abstand des vierten Objekts 15 von dem Fahrzeug 7 unter einem vorgegebenen Schwellenwert liegt. Für einen Abstand unterhalb dieses Schwellenwerts wird für das vierte Objekt 15 daher anhand der Metainformationen eine geringe Erkennungsgenauigkeit berechnet. Liegt die Erkennungsgenauigkeit unter einem einstellbaren vorgegebenen Schwellenwert, so kann das erkannte Objekt als fehlerhaft verworfen werden. In dem in 5 gezeigten Szenario wird das vierte Objekt 15 als fehlerhaft verworfen und aus der Objektebene 15 gelöscht. In 5 is the object plane 30 of the allocation grid 1 illustrated for another exemplary scenario. The vehicle 7 This includes two far-field radar sensors, which are classified into a far field radar sensor class, and four vehicle cameras, which are classified into a vehicle camera sensor class. Lattice cell information, which was generated based on sensor data from vehicle sensors of the far field radar sensor class, becomes third objects 18 , fourth objects 15 and fifth objects 16 detected and in the object plane 30 entered. Further, based on grid cell information which has been created based on sensor data of vehicle sensors of the vehicle camera type class, sixth objects become 19 and seventh objects 17 detected and in the object plane 30 entered. By calculating a distance, it is recognized that the third objects 18 and the sixth objects 19 as well as the fifth objects 16 and the seventh objects are spatially adjacent and these are each identified with each other. Based on the meta-information, it is further recognized that the objects thus identified with each other were detected on the basis of grid cell information, which was created on the basis of sensor data from vehicle sensors of two different vehicle sensor type classes. Therefore, a high recognition accuracy is calculated for the objects identified with each other. Next it is recognized that the fourth object 15 were detected only on the basis of grid cell information, which was created on the basis of sensor data from vehicle sensors of a single vehicle sensor class. It will further be appreciated that the corresponding vehicle sensor type class corresponds to the far field radar sensor class. Additionally it is recognized that a distance of the fourth object 15 from the vehicle 7 is below a predetermined threshold. For a distance below this threshold is for the fourth object 15 therefore calculates a low recognition accuracy based on the meta-information. If the recognition accuracy is below an adjustable predetermined threshold value, then the detected object can be rejected as faulty. In the in 5 The scenario shown becomes the fourth object 15 rejected as faulty and out of the object plane 15 deleted.

In 6 ist ein Fahrerassistenzsystem 20 für ein Fahrzeug 7 illustriert, welches dazu ausgelegt ist, von einer Vielzahl von Fahrzeugsensoren 21 des Fahrzeugs 7 bereitgestellte Sensordaten bezüglich eines Fahrzeugumfelds zu empfangen. Das Fahrerassistenzsystem 20 ist vorzugsweise dazu ausgelegt, eines der oben beschriebenen Verfahren zum Steuern von Fahrzeugfunktionen des Fahrzeugs 7 durchzuführen. Die Fahrzeugsensoren können Radarsensoren, Fahrzeugkameras, Lasersensor, Ultraschallsensoren und/oder Lidarsensoren umfassen. Weiter ist das Fahrerassistenzsystem 20 dazu ausgebildet, die Fahrzeugsensoren 21 und verschiedene Fahrzeugsensortypklassen zu klassifizieren, und ein Belegungsgitter 1 zu erstellen, welches das Fahrzeugumfeld des Fahrzeugs 7 repräsentiert. Gitterzellen 6 des Belegungsgitters 1 werden anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet. Weiter werden Gitterzellen 6 des Belegungsgitters 1 anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren 21, deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle 6 verwendet werden, Metainformationen zugeordnet. Weiter ist das Fahrerassistenzsystem 20 dazu ausgebildet, Fahrzeugfunktionen des Fahrzeugs 7 unter Verwendung des erstellten Belegungsgitters 1 zu steuern. Das Fahrerassistenzsystem 20 kann hierzu einen Mikrocontroller aufweisen, welcher zum Klassifizieren der Fahrzeugsensoren und zum Erstellen des Belegungsgitters 1 ausgebildet ist. Das Belegungsgitter 1 kann weiter in einer Speichervorrichtung des Fahrerassistenzsystems 20 gespeichert werden. In 6 is a driver assistance system 20 for a vehicle 7 illustrated, which is adapted to a variety of vehicle sensors 21 of the vehicle 7 provided sensor data regarding a vehicle environment to receive. The driver assistance system 20 is preferably adapted to one of the above-described methods for controlling vehicle functions of the vehicle 7 perform. The vehicle sensors may include radar sensors, vehicle cameras, laser sensor, ultrasound sensors and / or lidar sensors. Next is the driver assistance system 20 designed to be the vehicle sensors 21 and classify various vehicle sensor type classes, and an occupancy grid 1 to create what the vehicle environment of the vehicle 7 represents. grid cells 6 of the allocation grid 1 are assigned grid cell information based on the provided sensor data. Next are grid cells 6 of the allocation grid 1 based on the vehicle sensor type classes of those vehicle sensors 21 , their sensor data for creating the grid cell information of the respective grid cell 6 be used, Associated with meta-information. Next is the driver assistance system 20 adapted to vehicle functions of the vehicle 7 using the created allocation grid 1 to control. The driver assistance system 20 may for this purpose have a microcontroller, which for classifying the vehicle sensors and for creating the occupancy grid 1 is trained. The allocation grid 1 can continue in a memory device of the driver assistance system 20 get saved.

Weiter kann das Fahrerassistenzsystem dazu ausgelegt sein, anhand der Gitterzelleninformationen eine Objekterkennung durchzuführen und durch Auswertung der Metainformationen eine Erkennungsgenauigkeit der erkannten Objekte zu berechnen. Furthermore, the driver assistance system can be designed to perform an object recognition on the basis of the grid cell information and to calculate a recognition accuracy of the detected objects by evaluating the meta information.

Weiter ist das Fahrerassistenzsystem 20 dazu ausgebildet, Fahrzeugfunktionen des Fahrzeugs 7 unter Verwendung des erstellten Belegungsgitters 1 zu steuern. Beispielsweise kann das Fahrerassistenzsystem Abstandsmessungen zu erkannten Objekten durchführen, kann als Spurhalteassistent das Fahrzeug halbautonom oder vollautonom lenken, wobei erkannte Objekte bzw. in dem Belegungsgitter 1 als belegt gekennzeichnete Bereiche umfahren werden. Die Gitterzelleninformationen können insbesondere Werte bezüglich einer Fahrbahnhöhe und/oder eines Belegungszustandes umfassen. Die Metainformationen können einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklassen zu den Gitterzelleninformationen der jeweiligen Gitterzelle umfassen. Weiter können die Metainformationen Erfassungszeitinformationen und/oder Eigendiagnoseinformationen der Fahrzeugsensoren der jeweiligen Fahrzeugsensortypklasse umfassen. Next is the driver assistance system 20 adapted to vehicle functions of the vehicle 7 using the created allocation grid 1 to control. For example, the driver assistance system can perform distance measurements on detected objects, can steer the vehicle semi-autonomously or fully autonomously as a lane departure warning system, with detected objects or in the occupancy grid 1 areas marked as occupied are bypassed. In particular, the grid cell information may include values relating to a roadway height and / or occupancy state. The meta information may include a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell. Further, the meta-information may include acquisition time information and / or self-diagnostic information of the vehicle sensors of the respective vehicle sensor type class.

In 7 ist ein Blockschaltbild eines Fahrzeugs 7 gemäß einer Ausführungsform der vorliegenden Erfindung illustriert. Das Fahrzeug 7 umfasst hierbei eine Vielzahl von Fahrzeugsensoren 21, beispielsweise Radarsensoren und/oder Fahrzeugkameras und/oder Lasersensor und/oder Ultraschallsensoren und/oder Lidarsensoren. Das Fahrzeug 7 umfasst weiter ein Fahrerassistenzsystem 20 gemäß einer der oben beschriebenen Ausführungsformen. In 7 is a block diagram of a vehicle 7 illustrated in accordance with an embodiment of the present invention. The vehicle 7 includes a variety of vehicle sensors 21 , For example, radar sensors and / or vehicle cameras and / or laser sensor and / or ultrasonic sensors and / or Lidarsensoren. The vehicle 7 further includes a driver assistance system 20 according to one of the embodiments described above.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102012109377 A1 [0003] DE 102012109377 A1 [0003]
  • DE 102013217488 A1 [0004] DE 102013217488 A1 [0004]

Claims (15)

Verfahren zum Steuern von Fahrzeugfunktionen durch ein Fahrerassistenzsystem (20) eines Fahrzeugs (7), mit den Schritten: Bereitstellen (S1) von Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs (7) durch eine Vielzahl von Fahrzeugsensoren (21) des Fahrzeugs (7); Klassifizieren (S2) der Fahrzeugsensoren (21) in verschiedene Fahrzeugsensortypklassen; Erstellen (S3) eines Belegungsgitters (1), welches das Fahrzeugumfeld des Fahrzeugs (7) repräsentiert, wobei Gitterzellen (6) des Belegungsgitters (1) anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet werden, und wobei Gitterzellen (6) des Belegungsgitters (1) anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren (21), deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle (6) verwendet werden, Metainformationen zugeordnet werden; und Steuern (S4) von Fahrzeugfunktionen des Fahrzeugs (7) durch das Fahrerassistenzsystem (20) unter Verwendung des erstellten Belegungsgitters (1). Method for controlling vehicle functions by a driver assistance system ( 20 ) of a vehicle ( 7 ), comprising the steps of providing (S1) sensor data relating to a vehicle environment of the vehicle ( 7 ) by a plurality of vehicle sensors ( 21 ) of the vehicle ( 7 ); Classifying (S2) the vehicle sensors (S2) 21 in different vehicle sensor type classes; Create (S3) an occupancy grid ( 1 ), which the vehicle environment of the vehicle ( 7 ), where grid cells ( 6 ) of the assignment grid ( 1 ) are assigned grid cell information based on the provided sensor data, and wherein grid cells ( 6 ) of the assignment grid ( 1 ) based on the vehicle sensor type classes of those vehicle sensors ( 21 ), the sensor data for creating the grid cell information of the respective grid cell ( 6 ) are used to map meta-information; and controlling (S4) vehicle functions of the vehicle (S4) 7 ) by the driver assistance system ( 20 ) using the created occupancy grid ( 1 ). Verfahren nach Anspruch 1, wobei die Gitterzelleninformationen Werte bezüglich einer Fahrbahnhöhe und/oder eines Belegungszustandes umfassen. The method of claim 1, wherein the grid cell information includes values regarding a roadway height and / or occupancy state. Verfahren nach einem der Ansprüche 1 oder 2, wobei die Metainformationen einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklasse zu den Gitterzelleninformationen der jeweiligen Gitterzelle (6) umfassen. Method according to one of claims 1 or 2, wherein the meta-information contains a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell ( 6 ). Verfahren nach einem der vorangehenden Ansprüche, wobei die Metainformationen Erfassungszeitinformationen und/oder Eigendiagnoseinformationen der Fahrzeugsensoren (21) der Fahrzeugsensortypklasse umfassen. Method according to one of the preceding claims, wherein the meta-information acquisition time information and / or self-diagnosis information of the vehicle sensors ( 21 ) of the vehicle sensor type class. Verfahren nach einem der vorangehenden Ansprüche, wobei die Fahrzeugsensortypklassen Radarsensorklassen und/oder Fahrzeugkamerasensorklassen und/oder Lasersensorsensorklassen und/oder Ultraschallsensorklassen und/oder Lidarsensorklassen und/oder Tiefenbildsensortypklassen umfassen. Method according to one of the preceding claims, wherein the vehicle sensor type classes radar sensor and / or Fahrzeugkamerasensorklass and / or laser sensor sensor and / or ultrasound sensor classes and / or Lidarsensorklassen and / or Tiefenbildsensortypklassen include. Verfahren nach einem der vorangehenden Ansprüche, wobei anhand der Gitterzelleninformationen eine Objekterkennung durchgeführt wird, und wobei durch Auswertung der Metainformationen eine Erkennungsgenauigkeit der erkannten Objekte (11 bis 14; 15 bis 19) berechnet wird. Method according to one of the preceding claims, wherein based on the grid cell information, an object recognition is performed, and wherein by evaluation of the meta-information a recognition accuracy of the detected objects ( 11 to 14 ; 15 to 19 ) is calculated. Verfahren nach Anspruch 6, wobei erkannte Objekte (15) als fehlerhaft erkannte Objekte verworfen werden, falls die Erkennungsgenauigkeit unter einem einstellbaren vorgegebenen Schwellenwert liegt. Method according to claim 6, wherein recognized objects ( 15 ) are rejected as erroneously recognized objects if the recognition accuracy is below an adjustable predetermined threshold. Verfahren nach einem der vorangehenden Ansprüche, wobei anhand der Gitterzelleninformationen eine Fahrbahnbegrenzungserkennung durchgeführt wird, wobei räumlich benachbarte erkannte Fahrbahnbegrenzungen (13, 14) zu einer einzigen Fahrbahnbegrenzung vereinigt werden, falls anhand der Metainformationen erkannt wird, dass die räumlich benachbarten erkannten Fahrbahnbegrenzungen (13, 14) anhand von Sensordaten von verschiedenen Fahrzeugsensortypklassen erfasst wurden. Method according to one of the preceding claims, wherein based on the grid cell information, a lane boundary detection is carried out, wherein spatially adjacent recognized lane boundaries ( 13 . 14 ) are combined to a single lane boundary, if it is detected on the basis of the meta-information that the spatially adjacent recognized lane boundaries ( 13 . 14 ) were collected from sensor data of different vehicle sensor type classes. Fahrerassistenzsystem (20) für ein Fahrzeug (7), welches dazu ausgelegt ist, von einer Vielzahl von Fahrzeugsensoren (21) des Fahrzeugs (7) bereitgestellte Sensordaten bezüglich eines Fahrzeugumfelds des Fahrzeugs (7) zu empfangen; wobei das Fahrerassistenzsystem (20) weiter dazu ausgebildet ist, die Fahrzeugsensoren (21) in verschiedene Fahrzeugsensortypklassen zu klassifizieren, und ein Belegungsgitter (1) zu erstellen, welches das Fahrzeugumfeld des Fahrzeugs (7) repräsentiert, wobei Gitterzellen (6) des Belegungsgitters (1) anhand der bereitgestellten Sensordaten Gitterzelleninformationen zugeordnet werden, und wobei Gitterzellen (6) des Belegungsgitters (1) anhand der Fahrzeugsensortypklassen derjenigen Fahrzeugsensoren (21), deren Sensordaten zum Erstellen der Gitterzelleninformationen der jeweiligen Gitterzelle (6) verwendet werden, Metainformationen zugeordnet werden; und wobei das Fahrerassistenzsystem (20) weiter dazu ausgebildet ist, Fahrzeugfunktionen des Fahrzeugs (7) unter Verwendung des erstellten Belegungsgitters (1) zu steuern. Driver assistance system ( 20 ) for a vehicle ( 7 ), which is designed to be used by a plurality of vehicle sensors ( 21 ) of the vehicle ( 7 ) provided sensor data relating to a vehicle environment of the vehicle ( 7 ) to recieve; the driver assistance system ( 20 ) is further adapted to the vehicle sensors ( 21 ) into different vehicle sensor type classes, and an occupancy grid ( 1 ), which defines the vehicle environment of the vehicle ( 7 ), where grid cells ( 6 ) of the assignment grid ( 1 ) are assigned grid cell information based on the provided sensor data, and wherein grid cells ( 6 ) of the assignment grid ( 1 ) based on the vehicle sensor type classes of those vehicle sensors ( 21 ), the sensor data for creating the grid cell information of the respective grid cell ( 6 ) are used to map meta-information; and wherein the driver assistance system ( 20 ) is further adapted to vehicle functions of the vehicle ( 7 ) using the created occupancy grid ( 1 ) to control. Fahrerassistenzsystem (20) nach Anspruch 9, wobei die Gitterzelleninformationen Werte bezüglich einer Fahrbahnhöhe und/oder eines Belegungszustandes umfassen. Driver assistance system ( 20 ) according to claim 9, wherein the grid cell information comprises values relating to a roadway height and / or an occupancy state. Fahrerassistenzsystem (20) nach einem der Ansprüche 9 oder 10, wobei die Metainformationen einen prozentualen Beitrag der jeweiligen Fahrzeugsensortypklasse zu den Gitterzelleninformationen der jeweiligen Gitterzelle (6) umfassen. Driver assistance system ( 20 ) according to one of claims 9 or 10, wherein the meta-information comprises a percentage contribution of the respective vehicle sensor type class to the grid cell information of the respective grid cell ( 6 ). Fahrerassistenzsystem (20) nach einem der Ansprüche 9 bis 11, wobei die Metainformationen Erfassungszeitinformationen und/oder Eigendiagnoseinformationen der Fahrzeugsensoren (21) der Fahrzeugsensortypklasse umfassen. Driver assistance system ( 20 ) according to one of claims 9 to 11, wherein the meta-information acquisition time information and / or self-diagnosis information of the vehicle sensors ( 21 ) of the vehicle sensor type class. Fahrerassistenzsystem (20) nach einem der Ansprüche 9 bis 12, welches weiter dazu ausgelegt ist, anhand der Gitterzelleninformationen eine Objekterkennung durchzuführen und durch Auswertung der Metainformationen eine Erkennungsgenauigkeit der erkannten Objekte (11 bis 14; 15 bis 19) zu berechnen. Driver assistance system ( 20 ) according to one of claims 9 to 12, which is further adapted to carry out an object recognition on the basis of the grid cell information and by evaluation the metainformation a recognition accuracy of the detected objects ( 11 to 14 ; 15 to 19 ) to calculate. Fahrzeug (7) mit einer Vielzahl von Fahrzeugsensoren (21) und einem Fahrerassistenzsystem (20) nach einem der Ansprüche 9 bis 13. Vehicle ( 7 ) with a plurality of vehicle sensors ( 21 ) and a driver assistance system ( 20 ) according to one of claims 9 to 13. Fahrzeug (7) nach Anspruch 14, wobei die Fahrzeugsensoren (21) Radarsensoren und/oder Fahrzeugkameras und/oder Lasersensor und/oder Ultraschallsensoren und Lidarsensoren umfassen. Vehicle ( 7 ) according to claim 14, wherein the vehicle sensors ( 21 ) Radar sensors and / or vehicle cameras and / or laser sensor and / or ultrasonic sensors and Lidarsensoren.
DE102016202317.9A 2016-02-16 2016-02-16 METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE Pending DE102016202317A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016202317.9A DE102016202317A1 (en) 2016-02-16 2016-02-16 METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016202317.9A DE102016202317A1 (en) 2016-02-16 2016-02-16 METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Publications (1)

Publication Number Publication Date
DE102016202317A1 true DE102016202317A1 (en) 2017-08-17

Family

ID=59410596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016202317.9A Pending DE102016202317A1 (en) 2016-02-16 2016-02-16 METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Country Status (1)

Country Link
DE (1) DE102016202317A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753629A (en) * 2019-03-27 2020-10-09 伊莱比特汽车有限责任公司 Environmental data processing of a vehicle environment
DE102020125142A1 (en) 2020-09-25 2022-03-31 Bayerische Motoren Werke Aktiengesellschaft control of a vehicle
DE102022211487A1 (en) 2022-10-28 2024-05-08 Continental Autonomous Mobility Germany GmbH Procedure for creating and providing an extended environment map

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012109377A1 (en) 2012-10-02 2014-04-03 Continental Teves Ag & Co. Ohg Method for representation of surrounding structures in occupancy grid for driver assistance system, involves placing value of criticality of environment allocation structure in grid and controlling function of driver assistance system
DE102013215115A1 (en) * 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Design system and method for designing a driver assistance system
DE102013217488A1 (en) 2013-09-03 2015-03-05 Continental Teves Ag & Co. Ohg Occupancy grid with compact grid levels
DE102014002821A1 (en) * 2014-02-26 2015-08-27 Audi Ag Method and system for locating a mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012109377A1 (en) 2012-10-02 2014-04-03 Continental Teves Ag & Co. Ohg Method for representation of surrounding structures in occupancy grid for driver assistance system, involves placing value of criticality of environment allocation structure in grid and controlling function of driver assistance system
DE102013215115A1 (en) * 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Design system and method for designing a driver assistance system
DE102013217488A1 (en) 2013-09-03 2015-03-05 Continental Teves Ag & Co. Ohg Occupancy grid with compact grid levels
DE102014002821A1 (en) * 2014-02-26 2015-08-27 Audi Ag Method and system for locating a mobile device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753629A (en) * 2019-03-27 2020-10-09 伊莱比特汽车有限责任公司 Environmental data processing of a vehicle environment
DE102020125142A1 (en) 2020-09-25 2022-03-31 Bayerische Motoren Werke Aktiengesellschaft control of a vehicle
DE102020125142B4 (en) 2020-09-25 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Controlling a vehicle
DE102022211487A1 (en) 2022-10-28 2024-05-08 Continental Autonomous Mobility Germany GmbH Procedure for creating and providing an extended environment map

Similar Documents

Publication Publication Date Title
EP3526095B1 (en) Categorization of vehicles in the environment of a motor vehicle
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE102008001409A1 (en) Method for determining free areas in the environment of a motor vehicle, which is particularly relevant for vehicle guidance
DE102009006113A1 (en) Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects
DE102018220024B3 (en) Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors
DE102015201706A1 (en) Processing of sensor measurements of a vehicle environment with low transverse resolution
DE102019008093A1 (en) Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system
DE102015213558A1 (en) Device and method for merging two obstacle cards for environment detection
EP3024709A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102017118156A1 (en) Method for monitoring an environmental region of a motor vehicle, sensor control device, driver assistance system and motor vehicle
DE102020118629A1 (en) Computer-implemented method for determining the validity of an estimated position of a vehicle
DE102016012345A1 (en) Method for recognizing objects
DE102016202317A1 (en) METHOD FOR CONTROLLING VEHICLE FUNCTIONS THROUGH A DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE SYSTEM AND VEHICLE
EP3667359A1 (en) Method for determining the misalignment of at least one sensor within a set of sensors
DE102017206344A1 (en) Driver assistance system for a vehicle
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
DE102015104940A1 (en) A method for providing height information of an object in an environmental area of a motor vehicle at a communication interface, sensor device, processing device and motor vehicle
DE102017207441A1 (en) Method for checking a digital environment map for a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102019218078B4 (en) Determination of a situation in the environment of a motor vehicle
DE102019211006B4 (en) Evaluation of sensor data from a vehicle
DE102020006036A1 (en) Method for generating a release for using a hard shoulder by means of a monitoring system, and monitoring system
DE102018211734A1 (en) Method and device for selecting a preferred parking space from a plurality of available parking spaces
DE102019210129A1 (en) Method for checking a calibration of several sensors and a motor vehicle with several sensors
DE102019008079A1 (en) Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device
DE102020125142B4 (en) Controlling a vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNERS: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE; CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE

R012 Request for examination validly filed