EP3332351A1 - Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug - Google Patents

Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug

Info

Publication number
EP3332351A1
EP3332351A1 EP16731835.1A EP16731835A EP3332351A1 EP 3332351 A1 EP3332351 A1 EP 3332351A1 EP 16731835 A EP16731835 A EP 16731835A EP 3332351 A1 EP3332351 A1 EP 3332351A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
traffic
traffic scenario
detection algorithm
driver assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP16731835.1A
Other languages
English (en)
French (fr)
Inventor
Jan Rohde
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3332351A1 publication Critical patent/EP3332351A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the invention is based on a device or a method according to the preamble of the independent claims.
  • the subject of the present invention is also a computer program.
  • Modern driver assistance systems English advanced driver assistance systems or ADAS for short, as well as highly automated vehicle systems for automated driving in urban environments, English urban automated driving or UAD for short, provide detailed knowledge of a vehicle environment and a particular traffic situation in which the vehicle is currently running is, ahead.
  • sensor measurement data are usually used. From these, objects can be extracted by means of so-called detector algorithms, with which the vehicle environment can be described and analyzed.
  • Modern sensors like
  • Stereo video cameras or laser scanners make it possible to capture a wealth of information from the vehicle environment. Due to the high
  • Information content is the information processing usually associated with high demands on the hardware resources.
  • a method for operating a driver assistance system of a vehicle comprising the following steps:
  • Reading a read-in or recognition signal the one by means of a
  • Envelope reading device of the vehicle read or recognized
  • a driver assistance system can be understood to mean an electronic system for assisting a driver, in particular in certain driving situations, to increase driving safety or to increase driving comfort.
  • the driver assistance system may be coupled to an environment read-in device for detecting or reading in an environment of the vehicle by means of various sensors. These sensors can be used, for example, as a camera, lidar. Radar and / or ultrasonic sensor be configured. So can the
  • an environment reading device is used to detect a traffic scenario in which the vehicle is located or to recognize it by sensors
  • Import traffic scenario Under a traffic scenario, i.a. one by certain landmarks, d. H. static, reliably detectable entities, such. Infrastructure elements or abstract features
  • a "drive in a closed town", a “drive on a highway” or a “drive on a highway” may be defined by a set of predefined detected objects or Infrastructure elements are identified in an image representing the environment of the vehicle.
  • an amount of predefined detected objects for the traffic scenario "driving in a closed locality” may be formed by existing lanterns, traffic light systems (such as traffic lights or hazard warning lights on pedestrian crossings), curbs and / or the like which in an image indicate that the surroundings of the Vehicles are represented, pictured, or expected when the vehicle is traveling through a closed locality, such as objects such as regular or tree-like trees or bushes, delineators, missing lanterns, large yellow signposts, warning signs in front of narrow streets Curves, roadside warning signs and / or the like on the roadside may be used as a set of objects to detect the traffic scenario "overland road travel”.
  • the information about the current traffic scenario can also be found in the
  • Vehicle pose ie the orientation and location of the vehicle, for example on the road
  • map information is obtained and therefore does not necessarily require an environment detection in the true sense.
  • a detection algorithm also called a detector, a rule for
  • the detection algorithm can be used to detect lane markings when the vehicle is driving on a correspondingly marked roadway.
  • a detection algorithm corresponding to the detected traffic scenario can be activated.
  • Detection algorithm is thus an algorithm whose
  • a scenario-dependent prioritization can be understood to mean, for example, that a first algorithm in a first traffic scenario recognizes a first of the objects with a higher urgency and thus more detailed than a second object, while a second algorithm in a second traffic scenario the second object with a higher priority recognizes as the first object.
  • the first algorithm may detect a pedestrian as the first object with a higher urgency than a curve of the road with a small curve radius
  • the second algorithm in a traffic scenario “driving over the highway", in which usually pedestrians are not expected, the recognition of the first objects (ie the pedestrian) need not recognize with such a high urgency, as the second objects (ie here the curves with a small radius of curvature, which in a high speed motorway driving significantly more safety-critical are, as very unlikely on the highway occurring pedestrians).
  • Detection algorithm can then be detected in the step of detecting, for example, only those objects that are suitable for a localization of
  • Driver assistance system can be configured such that depending on a detected traffic situation, one or more detectors for
  • trajectory are actually relevant within the respective traffic situation.
  • the localization of the vehicle can be carried out with significantly lower computing power.
  • a traffic light detection is usually high
  • the localization of the vehicle system plays a central role.
  • the implementation of the localization may be based, for example, on a comparison of sensor measurements with an already known map of the vehicle environment. From the
  • Sensor measurements can be used to form object hypotheses using detectors become.
  • On the nature and arrangement of the objects in turn can be closed on a pose, ie a position and orientation of the vehicle system in the map.
  • Landmark detector algorithms for performing a
  • Driver assistance system which may consist of several driver assistance functions or a functional bundle, or even a relatively inexpensive highly automated vehicle system.
  • Detection algorithm to be activated.
  • step of detecting using the first detection algorithm, at least one object of a first object type assigned to the traffic scenario for laterally locating the vehicle can be detected.
  • step of detecting using the second detection algorithm additionally or alternatively, at least one object of a second object type assigned to the traffic scenario for longitudinal localization of the vehicle can be detected.
  • a longitudinal localization can be understood to be the determination of the position of the vehicle in the direction of travel, for example a distance of the vehicle to an imminent crossing or an object located in front of the vehicle.
  • Vehicle can be localized precisely and reliably with relatively little computational effort.
  • the object types for lateral and longitudinal localization can be identical, so that in the minimal case exactly one
  • Lane marking, a traffic sign, a traffic light system, a street lamp, at least one other road user or a combination of a plurality of said objects is detected.
  • Such objects offer the advantage of good visibility.
  • the method may include a step of locating the vehicle using at least one object detected in the step of detecting. Additionally or alternatively, in a step of controlling, at least one function of the driver assistance system may be controlled in response to a location performed in the step of locating.
  • the vehicle is further localized using map data relating to an environment of the vehicle.
  • the map data may be around in one
  • the map data can increase the reliability of locating the vehicle.
  • Detection algorithm is activated to change an accuracy in locating the vehicle depending on the traffic scenario. For example, the accuracy may be varied depending on a speed of the vehicle, a number of other road users or a lane course. This embodiment also makes possible the most efficient utilization of available computing power.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • the approach presented here also provides a control unit which is designed to implement the steps of a variant of a method presented here
  • a control device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the control unit may have an interface, which may be formed in hardware and / or software. In a hardware training, the interfaces may for example be part of a so-called system ASICs, the various functions of the
  • Control unit includes. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the
  • Interfaces software modules that are available for example on a microcontroller in addition to other software modules.
  • a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for the implementation, implementation and / or Triggering the steps of the method according to one of the above
  • Fig. 1 is a schematic representation of a vehicle according to a
  • FIG. 2 shows a schematic representation of an overall system with three different detection algorithms for activation by means of a control device according to an exemplary embodiment
  • FIG. 3 is a flowchart of a method according to a
  • FIG. 1 shows a schematic representation of a vehicle 100 according to a
  • the vehicle 100 is exemplarily on a main road 102 and approaches an intersection 104. Das
  • Traffic scenario which is shown in FIG. 1, can thus be understood, for example, as “driving in a closed locality", wherein the
  • Subdivision un two sub-scenarios is possible, as in this case the driving on a main road 102 and the approach to an intersection 104.
  • the two (sub) traffic scenarios in the form of the main road 102 and the intersection 104 are detected by a meeteinlese worn 106 of the vehicle 100 and in Form of a corresponding detection signal 108 to a control unit 110 for controlling a driver assistance system of the vehicle 100 transfer.
  • the control unit 110 is configured to use the detection signal 108 to activate one or more detection algorithms corresponding to the (sub) traffic scenarios for detecting objects of one or more object types assigned to the traffic scenarios.
  • such a detection algorithm makes it possible to detect lane markings 112 defining a lane 111 of the vehicle 100, a stop line 113, a lighting system 114, here a traffic light, a
  • Traffic Sign 116 or street lights 117 are the same.
  • Object types in the form of the lane markings 112 and the street lamps 117 are assigned to the traffic scenario of the main road 102, while the object types in the form of the stop line 113, the lighting system 114 and the
  • Traffic sign 116 are associated with the traffic scenario of the intersection 104.
  • the controller 110 is optionally configured to use the vehicle 100 by means of the corresponding one
  • the vehicle 100 is traveling on a cross-country road (that is, for example, outside a closed highway)
  • Locality is located.
  • objects in an image of the current environment of the vehicle 100, as objects, bushes or trees, mountain flanks, traffic signs for indicating debris, or traffic signs for warning against tight-radius turns may be recognized by the high-priority detection algorithm, whereas, for example, objects such as
  • Stop line or a lighting system as shown in Figure 1 for the traffic scenario "driving in a closed locality” need to be recognized with a lower priority
  • the traffic scenario "drive over an overland road” is detected by the detection signal 108 and the appropriate matching detection algorithm for the
  • Detection algorithm will now attempt to recognize objects such as the above-mentioned bushes or trees, traffic signs for indicating game change or warning of curves with curve radius with high priority, whereas Objects such as a stop line or a traffic light system, which is usually less when driving over a highway
  • Occurrence probability have been tried only to recognize with a lower priority.
  • computing power can be saved in the object detection by prioritizing the respective traffic scenario and the objects that are likely to occur therein when recognizing objects in the current vehicle environment of the vehicle 100.
  • a traffic scenario a "ride on a highway" be signaled by a detection signal 108, in which case, for example, a recognition of blue traffic signs or a structural separation of the individual lanes as infrastructure elements or objects in a picture about the current environment of the vehicle 100 as Reference to the existence of such a traffic scenario "driving on a motorway".
  • a detection signal 108 in which case, for example, a recognition of blue traffic signs or a structural separation of the individual lanes as infrastructure elements or objects in a picture about the current environment of the vehicle 100 as Reference to the existence of such a traffic scenario "driving on a motorway".
  • Case for example, a detection algorithm in the control unit or a corresponding (detection) device in the control unit 118 are loaded, which recognizes, for example, a lane boundary line or recorded on the road direction arrow as an object with high priority and forwards, for example, to a driver assistance system.
  • a detection algorithm in the control unit or a corresponding (detection) device in the control unit 118 are loaded, which recognizes, for example, a lane boundary line or recorded on the road direction arrow as an object with high priority and forwards, for example, to a driver assistance system.
  • Driver assistance system can then, for example, on the basis of the detected objects to perform an automatic vehicle guidance of the vehicle 100 via the highway and thereby the ride comfort for the or
  • FIG. 2 shows a schematic representation of an overall system 200 with three different detection algorithms for triggering by means of a
  • the overall system 200 may, for example, be controlled by a control unit as described above with reference to FIG. 1.
  • the detection algorithms are realized by way of example as three detector units 202, 204, 206.
  • the overall system 200 includes a sensor in the form of the field reader 106, which transmits the detection signal 108 to a control module 208 for function switching.
  • the control module 208 is configured to operate using the detection signal 108 as appropriate detected traffic scenario, a switch signal 209 for driving a first detector switch 210 in a Popeeinlese réelle 106 and the first detector unit 202 interconnecting signal line, a second detector switch 212 in the thoroughlyeinlese stimulating 106 and the second detector unit 204 interconnecting signal line or a third
  • the detector switches 210, 212, 214 Depending on the position of the detector switches 210, 212, 214, one or more of the three detector units 202, 204, 206 transmits information 216 about relevant objects relating to the traffic scenario to a processing unit
  • the processing unit 218 which processes the information 216 using a suitable environment model.
  • the processing unit 218 in turn is connected to an analysis unit 220, which serves the situation analysis, among other things about the location of the vehicle in the traffic scenario.
  • an analysis unit 220 which serves the situation analysis, among other things about the location of the vehicle in the traffic scenario.
  • a control unit 222 connected to the analysis unit 220, the functions of the driver assistance system are controlled as a function of the situation analysis performed by the analysis unit 220. For this is the
  • Control unit 222 for example, connected to an actuator 223 or a human-machine interface 224 of the vehicle.
  • a signal flow in the overall system 200 is marked by thick arrowheads.
  • a control flow in the overall system 200 is marked with small arrowheads.
  • Algorithms for detecting a specific object type such as a traffic sign In such a scenario, it is about driving on an intersection or a major road.
  • Example application for such a system is considered below the location of a vehicle.
  • an application to other areas of automated driving is possible.
  • To design the system 200 localization accuracy requirements are formulated. On the basis of these requirements then for several
  • Traffic scenarios landmarks identified in the respective Traffic scenario to be detected in order to meet the localization requirements.
  • the required computing power of the control unit for the object detection can be significantly reduced by running only detectors for scene-related objects.
  • the system 200 exerts a favorable influence on the overall vehicle system, since the algorithms required for the detection of static objects are executed only in relevant cases. This may prove advantageous, especially in the context of highly automated vehicle systems for automated urban driving, UAD for short.
  • Stereo video system with a range of 50 m and an opening angle of 45 ° when aligned in the direction of travel, for example, the following requirements:
  • Lane markings are suitable for this purpose.
  • street lights are detected at a distance of about 50 m in order to detect a longitudinal localization, i. H. a localization in
  • Driving direction to make This requirement is based on the assumption that in each time step along the direction of travel a longitudinal localization object should be present with an accuracy of approximately 5 m. This corresponds approximately to the distance from street lamps to major roads. If the vehicle is located at an intersection without lane markings, the detection of traffic lights, traffic signs or lanterns takes place.
  • the requirement is based on the assumption that an intersection scenario requires a higher accuracy in the localization in order to be able to perform a lane-exact relative localization for other road users and to be able to follow a given trajectory through the intersection.
  • the lateral or longitudinal accuracy is for example 0.3 m.
  • a maximum orientation error is for example at 0.2 °.
  • the advantages of the system 200 are therefore on the one hand in the reduction of a required computing power for driver assistance systems or highly automated vehicle systems.
  • the detector algorithms are selected scenario-appropriate, so that only the relevant landmarks are detected in each scenario, on the other hand, the number of total detectable objects can be increased significantly with the same system requirements.
  • the System 200 is particularly suitable for use in partially or more automated assistance systems on parking facilities or urban areas
  • Traffic routes that, for example, build on information from a digital map.
  • d. H. for determining its position and orientation, a localization method described in more detail below with reference to FIG. 3 is used.
  • FIG. 3 shows a flow chart of a method 300 for operating a driver assistance system of a vehicle according to one exemplary embodiment.
  • the method 300 may be performed in conjunction with a vehicle or controller described with reference to FIG. 1.
  • a detection signal is read in, which is a detected by means of a passereinlese Rhein the vehicle Traffic scenario.
  • at least one detection algorithm of the driver assistance system is activated using the detection signal.
  • at least one object of an object type associated with the traffic scenario is detected using the detection algorithm to locate the vehicle in the traffic scenario.
  • the method 300 includes an optional step 340 in which the vehicle is located using the at least one object detected in step 330 in the traffic scenario.
  • step 350 at least one function of the
  • an exemplary embodiment comprises an "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs (100). In dem Verfahren wird zunächst ein Erkennungssignal (108) eingelesen, das ein mittels einer Umfeldeinleseeinrichtung(106) des Fahrzeugs (100) erkanntes Verkehrsszenario (102, 104) repräsentiert. In einem weiteren Schritt wird zumindest ein Detektionsalgorithmus des Fahrerassistenzsystemsunter Verwendung des Erkennungssignals (108) aktiviert. Schließlich wird unter Verwendung des Detektionsalgorithmus zumindest ein Objekt (112, 113, 114, 116, 117) eines dem Verkehrsszenario (102, 104) zugeordneten Objekttyps detektiert, um das Fahrzeug (100) in dem Verkehrsszenario (102, 104) zu lokalisieren.

Description

Beschreibung Titel
Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
Stand der Technik
Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
Moderne Fahrerassistenzsysteme, englisch advanced driver assistance Systems oder kurz ADAS genannt, sowie hoch automatisierte Fahrzeugsysteme für automatisiertes Fahren im Urbanen Umfeld, englisch urban automated driving oder kurz UAD genannt, setzen detaillierte Kenntnisse über ein Fahrzeugumfeld und eine jeweilige Verkehrssituation, in der sich das Fahrzeug gerade befindet, voraus. Als Grundlage für die Wahrnehmung des Fahrzeugumfelds werden in der Regel Sensormessdaten verwendet. Aus diesen lassen sich mithilfe sogenannter Detektoralgorithmen Objekte extrahieren, anhand derer das Fahrzeugumfeld beschrieben und analysiert werden kann. Moderne Sensoren wie
Stereovideokameras oder Laserscanner ermöglichen das Erfassen zahlreicher Informationen aus dem Fahrzeugumfeld. Aufgrund des hohen
Informationsgehaltes ist die Informationsverarbeitung in aller Regel mit hohen Anforderungen an die Hardwareressourcen verbunden.
Offenbarung der Erfindung
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, weiterhin ein Steuergerät, das dieses Verfahren verwendet, ein Fahrzeug sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen
Anspruch angegebenen Vorrichtung möglich.
Es wird ein Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs vorgestellt, wobei das Verfahren folgende Schritte umfasst:
Einlesen eines Einlese- oder Erkennungssignals, das ein mittels einer
Umfeldeinleseeinrichtung des Fahrzeugs eingelesenes oder erkanntes
Verkehrsszenario repräsentiert; und
Aktivieren zumindest eines Detektionsalgorithmus des Fahrerassistenzsystems unter Verwendung des Erkennungssignals; und
Detektieren zumindest eines Objekts eines dem Verkehrsszenario zugeordneten Objekttyps unter Verwendung des Detektionsalgorithmus, um das Fahrzeug in dem Verkehrsszenario zu lokalisieren.
Unter einem Fahrerassistenzsystem kann ein elektronisches System zur Unterstützung eines Fahrers insbesondere in bestimmten Fahrsituationen zur Steigerung der Fahrsicherheit oder zur Steigerung des Fahrkomforts verstanden werden. Das Fahrerassistenzsystem kann mit einer Umfeldeinleseeinrichtung zum Erfassen oder Einlesen eines Umfelds des Fahrzeugs mittels verschiedener Sensoren gekoppelt sein. Diese Sensoren können beispielsweise als Kamera, Lidar-. Radar und/oder Ultraschallsensor ausgestaltet sein. So kann die
Umfeldeinleseeinrichtung etwa zur Erkennung eines Verkehrsszenarios, in dem sich das Fahrzeug befindet, dienen bzw. dieses von Sensoren erkannte
Verkehrsszenario einlesen. Unter einem Verkehrsszenario kann u.a. eine durch bestimmte Landmarken, d. h. statische, zuverlässig detektierbare Entitäten, wie z. B. Infrastrukturelemente oder abstrakte Features, charakterisierte
Fahrsituation verstanden werden. Ein solches Verkehrsszenario, das
beispielsweise eine„Fahrt in einer geschlossenen Ortschaft", eine„Fahrt auf einer Überlandstraße" oder eine„Fahrt auf einer Autobahn" sein kann, kann durch eine Menge von vordefinierten erkannten Objekten oder Infrastrukturelementen in einem das Umfeld des Fahrzeugs repräsentierenden Bildes identifiziert werden. Beispielsweise kann eine solche Menge von vordefinierten erkannten Objekten für das Verkehrsszenario„Fahrt in einer geschlossenen Ortschaft" durch vorhandene Laternen, Lichtzeichenanlagen (wie Ampeln oder Warnblinkleuchten an Fußgängerüberwegen), Bordsteinkanten und/oder dergleichen gebildet sein, die in einem Bild, dass die Umgebung des Fahrzeugs repräsentiert, abgebildet sind oder zu erwarten sind, wenn sich das Fahrzeug auf einer Fahrt durch eine geschlossene Ortschaft befindet. Analog können beispielsweise Objekte wie regelmäßig oder Allee-artig angeordnete Bäume oder Büsche, Leitpfosten, fehlende Laternen, große gelbe Wegweiser, Warntafeln vor engen Kurven, Warntafeln vor Wildwechseln und/oder dergleichen am Straßenrand als eine Menge von Objekten verwendet werden, um das Verkehrsszenario„Fahrt auf einer Überlandstraße" zu erkennen. Bei einer Fahrt auf einer Autobahn können beispielsweise blaue Verkehrszeichen, bauliche Fahrbahntrennungseinrichtungen wie Mittelleitplanken oder seitliche Leitplanken aus dem Bild als Objekte erkannt werden, die als Menge zusammen eine Erkennung des aktuellen Verkehrsszenarios„Fahrt auf einer Autobahn" zulassen. Als Objekte können dabei nicht nur Infrastruktureinrichtungen wie Verkehrszeichen, Lichtzeichenanlagen, Leitplanken, Bordsteinkanten (d. h. von Menschen zur sicheren und komfortablen Verkehrsführung errichtete Objekte) verstanden werden, sondern auch natürliche Objekte wie Bäume, Büsche oder andere botanische Objekte oder Felsbrocken, Berghänge oder andere geologische Objekte die sich im Seitenbereich der Fahrbahn befinden. Es brauchen jedoch nicht alle Objekte in den das Fahrzeugumfeld abbildenden Bildern zur Erkennung des vorliegenden Verkehrsszenarios erkannt werden; vielmehr kann durch eine grobe Auswertung der Bilder, beispielsweise in der Form von einer Auswertung der Silhouetten und einer hierauf ansprechenden Groberkennung der Objekte in Zusammenhang mit anderen aufgetretenen oder erkannten Objekten eine grobe Wahrscheinlichkeit für das Vorliegen eines bestimmten Verkehrsszenarios bestimmt werden. Das Verkehrsszenario mit der größten Wahrscheinlichkeit kann dann als vorliegendes Verkehrsszenario bestimmt werden.
Die Information über das aktuelle Verkehrsszenario kann auch aus der
Fahrzeugpose (d. h. der Orientierung und Lage des Fahrzeugs beispielsweise auf der Fahrbahn) und/oder Karteninformationen gewonnen werden und bedarf daher nicht unbedingt einer Umfelderfassung im eigentlichen Sinne. Unter einem Detektionsalgorithmus, auch Detektor genannt, kann eine Vorschrift zum
Detektieren von Objekten eines bestimmten, einem jeweils erkannten
Verkehrsszenario zugeordneten Objekttyps verstanden werden. Beispielsweise kann der Detektionsalgorithmus dazu dienen, Fahrspurmarkierungen zu erfassen, wenn das Fahrzeug eine entsprechend markierte Fahrbahn befährt. Mittels des Erkennungssignals kann ein dem erkannten Verkehrsszenario entsprechender Detektionsalgorithmus aktiviert werden. Bei dem
Detektionsalgorithmus handelt es sich somit um einen Algorithmus, dessen
Ausführung eine szenarioabhängige Priorisierung aufweist. Unter einer szenarioabhängige Priorisierung kann verstanden werden, dass beispielsweise ein erster Algorithmus in einem ersten Verkehrsszenario ein erstes der Objekte mit einer höheren Dringlichkeit und somit detailgenauer erkennt, als ein zweites Objekt, während ein zweiter Algorithmus in einem zweiten Verkehrsszenario das zweite Objekt mit einer höheren Dringlichkeit erkennt, als das erste Objekt.
Beispielsweise kann der erste Algorithmus in einem Verkehrsszenario„Fahrt in einer geschlossenen Ortschaft" einen Fußgänger als erstes Objekt mit einer höheren Dringlichkeit erkennen, als eine Kurve der Fahrbahn mit einem kleinen Kurvenradius, wogegen der zweite Algorithmus in einem Verkehrsszenario„Fahrt über die Autobahn", in dem üblicherweise keine Fußgänger zu erwarten sind, die Erkennung der ersten Objekte (d. h. der Fußgänger) nicht mit einer so hohen Dringlichkeit erkennen braucht, wie die zweiten Objekte (d. h. hier die Kurven mit kleinem Kurvenradius, die bei einer Autobahnfahrt mit hoher Geschwindigkeit deutlich sicherheitskritischer sind, als sehr unwahrscheinlich auf der Autobahn auftretende Fußgänger). Dies bedeutet, dass bei dem Entwurf der
entsprechenden (Detektions-) Algorithmen, je nachdem welches Szenario sie auszuwerten haben, ein Schwerpunkt (d. h. eine höhere Priorisierung) auf die Erkennung von bestimmten, in diesem Verkehrsszenario öfter als in anderen Verkehrsszenarien auftretenden Objekten gelegt wurde. Unter Verwendung des
Detektionsalgorithmus können dann im Schritt des Detektierens beispielsweise nur diejenigen Objekte detektiert werden, die für eine Lokalisierung des
Fahrzeugs im jeweiligen Verkehrsszenario relevant sind. Auf diese Weise kann die Erkennung von Objekten, die in einem Verkehrsszenario recht
unwahrscheinlich ist, mit einer niedrigeren Priorität erfolgen, was numerische oder schaltungstechnische Ressourcen einspart und somit eine Verbesserung gegenüber dem Stand der Technik darstellt, in dem keine Auswahl von je nach aktuell vom Fahrzeug durchfahrenem Verkehrsszenario zu erwartenden
Objekten erfolgt.
Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass ein
Fahrerassistenzsystem derart konfiguriert werden kann, dass in Abhängigkeit von einer erkannten Verkehrssituation ein oder mehrere Detektoren zum
Detektieren von Objekten eines bestimmten, der jeweiligen Verkehrssituation zugeordneten Typs aktiviert werden. Dies hat den Vorteil, dass je nach
Verkehrssituation nur diejenigen Objekte detektiert und analysiert werden können, die für die zuverlässige Ermittlung einer Fahrzeugposition oder
-trajektorie innerhalb der jeweiligen Verkehrssituation tatsächlich relevant sind. Dadurch kann die Lokalisierung des Fahrzeugs mit einer deutlich geringeren Rechenleistung durchgeführt werden.
Eine Vielzahl moderner Fahrerassistenzsysteme erfordert die Detektion spezieller Objekte im Umfeld des Fahrzeugs. Dazu gehören unter anderem Verkehrszeichen, etwa um den Fahrer über eine maximal zulässige
Geschwindigkeit zu informieren. Spurhalteassistenten sind auf eine zuverlässige
Detektion und eine fahrzeugrelative Verortung von Fahrspurmarkierungen angewiesen. Eine Ampelerkennung ist üblicherweise mit hohen
Hardwareanforderungen bezüglich der Objektdetektionsalgorithmen verbunden. Insbesondere im Bereich des automatisierten Fahrens im Urbanen Umfeld kommen viele dieser Anforderungen zusammen. Hierzu ist die Detektion einer
Vielzahl von Objekten im Umfeld des Fahrzeugs erforderlich, was zu hohen Hardwareanforderungen bezüglich der Ausführung der Detektionsalgorithmen führen kann. Nicht alle Objekte sind jedoch in allen Szenarien vorhanden oder relevant.
Im Zusammenhang mit automatisiertem Fahren im Urbanen Umfeld spielt die Lokalisierung des Fahrzeugsystems eine zentrale Rolle. Die Durchführung der Lokalisierung kann beispielsweise auf einem Abgleich von Sensormessungen mit einer bereits bekannten Karte des Fahrzeugumfelds basieren. Aus den
Sensormessungen können mithilfe von Detektoren Objekthypothesen gebildet werden. Über die Art und Anordnung der Objekte kann wiederum auf eine Pose, d. h. eine Position und Orientierung des Fahrzeugsystems in der Karte geschlossen werden.
Gemäß dem hier vorgestellten Ansatz kann nun zwischen Verkehrsszenarien wie etwa einer Kreuzung und einer Hauptverkehrsstraße unterschieden werden und in Abhängigkeit davon bereits vor Beginn einer Systemlaufzeit eine
Relevanzanalyse auf Ebene von Objekttypen durchgeführt werden.
Ein entsprechendes Verfahren zur szenariogerechten Auswahl von
Detektoralgorithmen für Landmarken zur Durchführung einer
anforderungsgerechten Lokalisierung eines Fahrzeugs gemäß dem hier beschriebenen Ansatz bietet den Vorteil, dass die zur Lokalisierung
erforderlichen Hardwareressourcen deutlich reduziert werden können. Dies ermöglicht die Realisierung eines verhältnismäßig kostengünstigen
Fahrerassistenzsystems, das etwa aus mehreren Fahrerassistenzfunktionen oder einem Funktionsbündel bestehen kann, oder auch eines verhältnismäßig kostengünstigen hoch automatisierten Fahrzeugsystems. Mittels des hier beschriebenen Ansatzes zur szenarioangepassten Auswahl eines
Objektdetektors kann aufgrund der daraus resultierenden Einsparung an
Rechenleistung beispielsweise auch auf einer begrenzt leistungsfähigen
Hardware eine Vielzahl von Objektdetektoren zur Durchführung einer anforderungsgerechten Lokalisierung des Fahrzeugsystems realisiert werden.
Gemäß einer Ausführungsform kann im Schritt des Aktivierens zumindest ein erster Detektionsalgorithmus und, zusätzlich oder alternativ, ein zweiter
Detektionsalgorithmus aktiviert werden. Im Schritt des Detektierens kann unter Verwendung des ersten Detektionsalgorithmus zumindest ein Objekt eines dem Verkehrsszenario zugeordneten ersten Objekttyps zum lateralen Lokalisieren des Fahrzeugs detektiert werden. In entsprechender Weise kann im Schritt des Detektierens unter Verwendung des zweiten Detektionsalgorithmus zusätzlich oder alternativ zumindest ein Objekt eines dem Verkehrsszenario zugeordneten zweiten Objekttyps zum longitudinalen Lokalisieren des Fahrzeugs detektiert werden. Unter einer lateralen Lokalisierung kann die Ermittlung einer Position des Fahrzeugs quer zur Fahrtrichtung, etwa zwischen zwei Fahrbahnmarkierungen oder -begrenzungen, verstanden werden. Entsprechend kann unter einer longitudinalen Lokalisierung die Ermittlung der Position des Fahrzeugs in Fahrtrichtung verstanden werden, beispielsweise ein Abstand des Fahrzeugs zu einer bevorstehenden Kreuzung oder einem im Vorfeld des Fahrzeugs befindlichen Objekt. Durch diese Ausführungsform kann das
Fahrzeug mit verhältnismäßig geringem Rechenaufwand präzise und zuverlässig lokalisiert werden. Die Objekttypen zur lateralen und longitudinalen Lokalisierung können identisch sein, sodass im minimalen Falle genau ein
Detektionsalgorithmus ausgeführt wird.
Es ist ferner vorteilhaft, wenn im Schritt des Detektierens eine
Fahrspurmarkierung, ein Verkehrszeichen, eine Lichtzeichenanlage, eine Straßenlaterne, zumindest ein weiterer Verkehrsteilnehmer oder auch eine Kombination aus mehreren der genannten Objekte detektiert wird. Derartige Objekte bieten den Vorteil einer guten Erkennbarkeit.
Des Weiteren kann das Verfahren einen Schritt des Lokalisierens des Fahrzeugs mithilfe zumindest eines im Schritt des Detektierens detektierten Objekts umfassen. Zusätzlich oder alternativ kann in einem Schritt des Steuerns zumindest eine Funktion des Fahrerassistenzsystems in Abhängigkeit von einer im Schritt des Lokalisierens durchgeführten Lokalisierung gesteuert werden. Durch diese Ausführungsform wird auch bei Verwendung von weniger leistungsfähiger Hardware eine effiziente Ansteuerung des
Fahrerassistenzsystems ermöglicht.
Hierbei ist es von Vorteil, wenn im Schritt des Lokalisierens das Fahrzeug ferner unter Verwendung von Kartendaten bezüglich eines Umfelds des Fahrzeugs lokalisiert wird. Bei den Kartendaten kann es sich etwa um in einem
entsprechenden Kartenspeicher hinterlegte oder im Bedarfsfall über eine Funkverbindung abrufbare Daten handeln. Mithilfe der Kartendaten kann die Zuverlässigkeit bei der Lokalisierung des Fahrzeugs erhöht werden.
Es ist zudem vorteilhaft, wenn im Schritt des Aktivierens der
Detektionsalgorithmus aktiviert wird, um eine Genauigkeit beim Lokalisieren des Fahrzeugs in Abhängigkeit von dem Verkehrsszenario zu ändern. Beispielsweise kann die Genauigkeit in Abhängigkeit von einer Geschwindigkeit des Fahrzeugs, einer Anzahl weiterer Verkehrsteilnehmer oder eines Fahrbahnverlaufs variiert werden. Auch diese Ausführungsform ermöglicht eine möglichst effiziente Ausnutzung einer zur Verfügung stehenden Rechenleistung.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein. Der hier vorgestellte Ansatz schafft ferner ein Steuergerät, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in
entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Steuergeräts kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des
Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die
Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
Darüber hinaus schafft der hier vorgeschlagene Ansatz ein Fahrzeug mit einem Steuergerät gemäß einer vorstehenden Ausführungsform.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
Fig. 1 eine schematische Darstellung eines Fahrzeugs gemäß einem
Ausführungsbeispiel;
Fig. 2 eine schematische Darstellung eines Gesamtsystems mit drei verschiedenen Detektionsalgorithmen zur Aktivierung mittels eines Steuergeräts gemäß einem Ausführungsbeispiel; und
Fig. 3 ein Ablaufdiagramm eines Verfahrens gemäß einem
Ausführungsbeispiel.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. Fig. 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 gemäß einem
Ausführungsbeispiel. Das Fahrzeug 100 befindet sich beispielhaft auf einer Hauptverkehrsstraße 102 und nähert sich einer Kreuzung 104. Das
Verkehrsszenario, das in der Fig. 1 dargestellt ist, kann somit beispielsweise als „Fahrt in einer geschlossenen Ortschaft" verstanden werden, wobei die
Unterteilung un zwei Unterszenarien möglich ist, wie vorliegend die Fahr auf einer Hauptverkehrsstraße 102 und die Annäherung an eine Kreuzung 104. Die beiden (Unter-) Verkehrsszenarien in Form der Hauptverkehrsstraße 102 und der Kreuzung 104 werden durch eine Umfeldeinleseeinrichtung 106 des Fahrzeugs 100 erkannt und in Form eines entsprechenden Erkennungssignals 108 an ein Steuergerät 110 zum Steuern eines Fahrerassistenzsystems des Fahrzeugs 100 übertragen. Das Steuergerät 110 ist ausgebildet, um unter Verwendung des Erkennungssignals 108 einen oder mehrere den (Unter-) Verkehrsszenarien entsprechende Detektionsalgorithmen zum Detektieren von Objekten einer oder mehrerer den Verkehrsszenarien zugeordneter Objekttypen zu aktivieren.
Beispielsweise ermöglicht ein derartiger Detektionsalgorithmus die Detektion von eine Fahrspur 111 des Fahrzeugs 100 begrenzenden Fahrspurmarkierungen 112, einer Haltelinie 113, einer Lichtanlage 114, hier einer Ampel, eines
Verkehrszeichens 116 oder von Straßenlaternen 117. Hierbei sind die
Objekttypen in Form der Fahrspurmarkierungen 112 und der Straßenlaternen 117 dem Verkehrsszenario der Hauptverkehrsstraße 102 zugeordnet, während die Objekttypen in Form der Haltelinie 113, der Lichtanlage 114 und des
Verkehrszeichens 116 dem Verkehrsszenario der Kreuzung 104 zugeordnet sind. Je nach Ausführungsform ist das Steuergerät 110 optional ausgebildet, um das Fahrzeug 100 unter Verwendung der mittels des entsprechenden
Detektionsalgorithmus erfassten Objekte in den beiden Verkehrsszenarien 102,
104 zu lokalisieren oder auch das Fahrerassistenzsystem entsprechend dieser Lokalisierung anzusteuern.
Denkbar ist jedoch auch, dass das Fahrzeug 100 sich auf einer Fahrt über eine Überlandstraße (das heißt beispielsweise außerhalb einer geschlossenen
Ortschaft) befindet. In diesem Fall können in einem Bild über die aktuelle Umgebung des Fahrzeugs 100 als Objekte Büsche oder Bäume, Bergflanken, Verkehrszeichen zur Anzeige von Wildwechsel oder Verkehrszeichen zur Warnung vor Kurven mit engem Kurvenradius vom Detektionsalgorithmus mit hoher Priorität erkannt werden, wogegen beispielsweise Objekte wie eine
Haltelinie oder eine Lichtanlage wie aus der Figur 1 für das Verkehrsszenario „Fahrt in einer geschlossenen Ortschaft" dargestellt, mit einer niedrigeren Priorität erkannt werden brauchen. In diesem Fall wird dann vorzugsweise das Verkehrsszenario„Fahrt über eine Überlandstraße" durch das Erkennungssignal 108 erkannt und der entsprechend passende Detektionsalgorithmus für das
Verkehrsszenario„Fahrt über eine Überlandstraße" in eine entsprechende (Detektions-) Einrichtung im Steuergerät 110 geladen. Dieser
Detektionsalgorithmus wird nun mit hoher Priorität Objekte wie die vorstehend genannten Büsche oder Bäume, Verkehrszeichen zur Anzeige von Wildwechsel oder Warnung vor Kurven mit Kurvenradius zu erkennen versuchen, wogegen Objekte wie eine Haltelinie oder eine Lichtzeichenanlage, die üblicherweise bei einer Fahrt über eine Überlandstraße eine geringere
Auftretenswahrscheinlichkeit haben lediglich mit einer geringeren Priorität zu erkennen versucht werden. Auf diese Weise kann Rechenleistung bei der Objektdetektion eingespart werden, indem bei der Erkennung von Objekten im aktuellen Fahrzeugumfeld des Fahrzeugs 100 das jeweilige Verkehrsszenario und die darin mit großer Wahrscheinlichkeit auftretenden Objekte priorisierend mitberücksichtigt werden. Analog kann natürlich auch als Verkehrsszenario eine„Fahrt auf einer Autobahn" durch ein Erkennungssignal 108 signalisiert werden, wobei hier beispielsweise eine Erkennung von blauen Verkehrszeichen oder eine bauliche Trennung der einzelnen Fahrspuren als Infrastrukturelemente oder Objekte in einem Bild über die aktuelle Umgebung des Fahrzeugs 100 als Hinweis auf das Vorliegen eines solchen Verkehrsszenarios„Fahrt auf einer Autobahn" dienen kann. In diesem
Fall kann beispielsweise ein Detektionsalgorithmus in das Steuergerät bzw. eine entsprechende (Detektions-) Einrichtung im Steuergerät 118 geladen werden, der mit hoher Priorität beispielsweise eine Fahrspurbegrenzungslinie oder einen auf die Fahrbahn aufgezeichneten Richtungspfeil als Objekt erkennt und beispielsweise an ein Fahrerassistenzsystem weiterleitet. Dieses
Fahrerassistenzsystem kann dann beispielsweise auf der Basis der erkannten Objekte eine automatische Fahrzeugführung des Fahrzeugs 100 über die Autobahn vornehmen und hierdurch den Fahrtkomfort für den oder die
Fahrzeuginsassen erhöhen.
Fig. 2 zeigt eine schematische Darstellung eines Gesamtsystems 200 mit drei verschiedenen Detektionsalgorithmen zur Ansteuerung mittels eines
Steuergeräts gemäß einem Ausführungsbeispiel. Das Gesamtsystem 200 kann beispielsweise von einem Steuergerät, wie es vorangehend anhand von Fig. 1 beschrieben ist, angesteuert werden. Die Detektionsalgorithmen sind beispielhaft als drei Detektoreinheiten 202, 204, 206 realisiert. Das Gesamtsystem 200 umfasst eine Sensorik in Form der Umfeldeinleseeinrichtung 106, die das Erkennungssignal 108 an ein Steuermodul 208 zur Funktionsumschaltung überträgt. Gemäß diesem Ausführungsbeispiel ist das Steuermodul 208 ausgebildet, um unter Verwendung des Erkennungssignals 108 je nach erkanntem Verkehrsszenario ein Schaltersignal 209 zum Ansteuern eines ersten Detektorschalters 210 in einer die Umfeldeinleseeinrichtung 106 und die erste Detektoreinheit 202 miteinander verbindenden Signalleitung, eines zweiten Detektorschalters 212 in einer die Umfeldeinleseeinrichtung 106 und die zweite Detektoreinheit 204 miteinander verbindenden Signalleitung oder eines dritten
Detektorschalters 214 in einer die Umfeldeinleseeinrichtung 106 und die dritte Detektoreinheit 206 miteinander verbindenden Signalleitung anzusteuern. Je nach Stellung der Detektorschalter 210, 212, 214 werden von einem oder mehreren der drei Detektoreinheiten 202, 204, 206 Informationen 216 über relevante Objekte bezüglich des Verkehrsszenarios an eine Verarbeitungseinheit
218 weitergeleitet, die die Informationen 216 unter Verwendung eines geeigneten Umfeldmodells verarbeitet. Die Verarbeitungseinheit 218 ist ihrerseits mit einer Analyseeinheit 220 verbunden, die der Situationsanalyse dient, unter anderem etwa der Lokalisierung des Fahrzeugs im Verkehrsszenario. In einer an die Analyseeinheit 220 angeschlossenen Steuereinheit 222 erfolgt die Steuerung von Funktionen des Fahrerassistenzsystems in Abhängigkeit von der durch die Analyseeinheit 220 durchgeführten Situationsanalyse. Hierzu ist die
Steuereinheit 222 beispielsweise mit einer Aktorik 223 oder einer Mensch- Maschinen-Schnittstelle 224 des Fahrzeugs verbunden.
Ein Signalfluss im Gesamtsystem 200 ist durch dicke Pfeilspitzen markiert. Ein Kontrollfluss im Gesamtsystem 200 ist hingegen mit kleinen Pfeilspitzen markiert.
Ein derartiges System ermöglicht eine Reduzierung der benötigten
Rechenleistung durch eine szenariogerechte Auswahl und Ausführung einer bestimmten Menge relevanter Detektoralgorithmen, d. h. spezialisierter
Algorithmen zur Detektion eines bestimmten Objekttyps wie beispielsweise eines Verkehrszeichens. Bei einem solchen Szenario handelt es sich etwa um das Befahren einer Kreuzung oder einer Hauptverkehrsstraße. Als
Beispielanwendung für ein solches System wird im Folgenden die Lokalisierung eines Fahrzeugs betrachtet. Neben der Lokalisierung ist auch eine Anwendung auf andere Bereiche des automatisierten Fahrens möglich. Zur Auslegung des Systems 200 werden Anforderungen an eine Lokalisierungsgenauigkeit formuliert. Auf Basis dieser Anforderungen werden dann für mehrere
Verkehrsszenarien Landmarken identifiziert, die in dem jeweiligen Verkehrsszenario detektiert werden sollen, um die Lokalisierungsanforderungen erfüllen zu können.
Beispielsweise kann in einer empirischen Analyse ermittelt werden, in welchem Verkehrsszenario welche und wie viele Landmarken benötigt werden.
Durch das System 200 kann die benötigte Rechenleistung des Steuergeräts für die Objektdetektion deutlich verringert werden, indem ausschließlich Detektoren für szenariorelevante Objekte ausgeführt werden. Auf diese Weise übt das System 200 einen vorteilhaften Einfluss auf das Gesamtfahrzeugsystem aus, denn die zur Detektion statischer Objekte benötigten Algorithmen werden nur in relevanten Fällen ausgeführt. Dies kann sich insbesondere im Kontext hoch automatisierter Fahrzeugsysteme für das automatisierte Fahren im Urbanen Umfeld, kurz UAD, als vorteilhaft erweisen.
Als Beispiel für die Anwendbarkeit des Systems 200 sei der Übergang von einer Hauptverkehrsstraße in eine Kreuzung genannt, wie beispielhaft in Fig. 1 gezeigt. Hierbei können an die zu detektierenden Landmarken bei einem
Stereovideosystem mit einer Reichweite von 50 m und einem Öffnungswinkel von 45° bei Ausrichtung in Fahrtrichtung beispielsweise folgende Anforderungen gestellt werden:
Befindet sich das Fahrzeug auf der Hauptverkehrsstraße, so erfolgt die Detektion von Fahrbahnmarkierungen zur lateralen, fahrspurrelativen Lokalisierung. Diese Anforderung basiert auf der Annahme, dass das Fahrzeugsystem eine fahrspurgenaue Lokalisierung durchführen sollte. Zu diesem Zweck eignen sich Fahrspurmarkierungen.
Ferner werden hierbei Straßenlaternen mit einem Abstand von etwa 50 m detektiert, um eine longitudinale Lokalisierung, d. h. eine Lokalisierung in
Fahrtrichtung, vorzunehmen. Diese Anforderung basiert auf der Annahme, dass in jedem Zeitschritt entlang der Fahrtrichtung ein Objekt zur longitudinalen Lokalisierung mit einer Genauigkeit von etwa 5 m vorhanden sein sollte. Dem entspricht in etwa der Abstand von Straßenlaternen an Hauptverkehrsstraßen. Befindet sich das Fahrzeug an einer Kreuzung ohne Fahrspurmarkierungen, so erfolgt die Detektion von Ampeln, Verkehrszeichen oder Laternen. Diese
Anforderung basiert auf der Annahme, dass ein Kreuzungsszenario eine höhere Genauigkeit bei der Lokalisierung erfordert, um für andere Verkehrsteilnehmer eine fahrspurgenaue relative Lokalisierung durchführen und einer vorgegebenen Trajektorie durch die Kreuzung folgen zu können. Die laterale oder longitudinale Genauigkeit beträgt beispielsweise 0,3 m. Ein maximaler Orientierungsfehler liegt beispielsweise bei 0,2°. Zu diesem Zweck wird eine höhere Dichte an
Landmarken benötigt, beispielsweise an Objekten wie Ampeln, Verkehrszeichen oder Straßenlaternen, die hier in der Regel in ausreichender Anzahl vorhanden sind.
Die Vorteile des Systems 200 liegen somit zum einen in der Reduzierung einer benötigten Rechenleistung für Fahrerassistenzsysteme oder hoch automatisierte Fahrzeugsysteme.
Dadurch, dass einzelne Detektoralgorithmen nur in speziellen Szenarien eingesetzt werden, d. h. die Detektoralgorithmen szenariogerecht ausgewählt werden, sodass in jedem Szenario nur die jeweils relevanten Landmarken detektiert werden, kann zum anderen die Anzahl der insgesamt detektierbaren Objekte bei gleichbleibenden Systemanforderungen erheblich gesteigert werden.
Das System 200 eignet sich insbesondere zur Verwendung in teil- oder höher automatisierten Assistenzsystemen auf Parkieranlagen oder Urbanen
Verkehrswegen, die beispielsweise auf Informationen einer digitalen Karte aufbauen. Zur Verortung des Fahrzeugs im Kontext der digitalen Karte, d. h. zur Ermittlung dessen Position und Orientierung, wird etwa ein nachfolgend anhand von Fig. 3 näher beschriebenes Lokalisierungsverfahren eingesetzt.
Fig. 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs gemäß einem Ausführungsbeispiel. Das Verfahren 300 kann beispielsweise im Zusammenhang mit einem anhand von Fig. 1 beschriebenen Fahrzeug oder Steuergerät durchgeführt werden.
Hierbei wird in einem Schritt 310 zunächst ein Erkennungssignal eingelesen, das ein mittels einer Umfeldeinleseeinrichtung des Fahrzeugs erkanntes Verkehrsszenario repräsentiert. In einem weiteren Schritt 320 wird zumindest ein Detektionsalgorithmus des Fahrerassistenzsystems unter Verwendung des Erkennungssignals aktiviert. Schließlich wird in einem Schritt 330 zumindest ein Objekt eines dem Verkehrsszenario zugeordneten Objekttyps unter Verwendung des Detektionsalgorithmus detektiert, um das Fahrzeug in dem Verkehrsszenario zu lokalisieren.
Gemäß einem Ausführungsbeispiel umfasst das Verfahren 300 einen optionalen Schritt 340, in dem das Fahrzeug mithilfe des zumindest einen im Schritt 330 detektierten Objekts in dem Verkehrsszenario lokalisiert wird.
In Abhängigkeit von der im Schritt 340 durchgeführten Lokalisierung kann in einem weiteren optionalen Schritt 350 zumindest eine Funktion des
Fahrerassistenzsystems entsprechend gesteuert werden.
Umfasst ein Ausführungsbeispiel eine„und/oder"- Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Ansprüche
1. Verfahren (300) zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs (100), wobei das Verfahren (300) zumindest folgende Schritte umfasst:
Einlesen (310) eines Erkennungssignals (108), das ein mittels einer Umfeldeinleseeinrichtung (106) des Fahrzeugs (100) eingelesenes oder erkanntes Verkehrsszenario (102, 104) repräsentiert;
Aktivieren (320) zumindest eines Detektionsalgorithmus (202, 204, 206) des Fahrerassistenzsystems unter Verwendung des Erkennungssignals (108); und
Detektieren (330) zumindest eines Objekts (112, 113, 114, 116, 117) eines dem Verkehrsszenario (102, 104) zugeordneten Objekttyps unter Verwendung des Detektionsalgorithmus (202, 204, 206), um das Fahrzeug (100) in dem Verkehrsszenario (102, 104) zu lokalisieren.
2. Verfahren (300) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Aktivierens (320) zumindest ein erster Detektionsalgorithmus (202) und/oder ein zweiter Detektionsalgorithmus (204) aktiviert wird, wobei im Schritt des Detektierens (330) unter Verwendung des ersten Detektionsalgorithmus (202) zumindest ein Objekt (112) eines dem Verkehrsszenario (102, 104) zugeordneten ersten Objekttyps zum lateralen Lokalisieren des Fahrzeugs (100) und/oder unter Verwendung des zweiten Detektionsalgorithmus (204) zumindest ein Objekt (113, 114, 116, 117) eines dem Verkehrsszenario (102, 104) zugeordneten zweiten Objekttyps zum longitudinalen Lokalisieren des Fahrzeugs (100) detektiert wird. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Detektierens (330) eine Fahrspurmarkierung (112) und/oder ein Verkehrszeichen (116) und/oder eine Lichtzeichenanlage (114) und/oder eine Straßenlaterne (117) und/oder zumindest ein weiterer Verkehrsteilnehmer detektiert wird.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet durch einen Schritt des Lokalisierens (340) des
Fahrzeugs (100) mithilfe zumindest eines im Schritt des Detektierens (330) detektierten Objekts (112, 113, 114, 116, 117) und/oder einen Schritt des Steuerns (350) zumindest einer Funktion des
Fahrerassistenzsystems in Abhängigkeit von einer im Schritt des Lokalisierens (340) durchgeführten Lokalisierung.
Verfahren (300) gemäß Anspruch 4, dadurch gekennzeichnet, dass im Schritt des Lokalisierens (340) das Fahrzeug (100) ferner unter
Verwendung von Kartendaten bezüglich eines Umfelds des Fahrzeugs (100) lokalisiert wird.
Verfahren (300) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Aktivierens (320) der Detektionsalgorithmus (202, 204, 206) aktiviert wird, um eine
Genauigkeit beim Lokalisieren des Fahrzeugs (100) in Abhängigkeit von dem Verkehrsszenario (102, 104) zu ändern.
Steuergerät (110), das ausgebildet ist, um das Verfahren (300) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.
Fahrzeug (100) mit einem Steuergerät (110) gemäß Anspruch 7.
Computerprogramm, das ausgebildet ist, um das Verfahren (300) gemäß einem der Ansprüche 1 bis 6 auszuführen und/oder anzusteuern. Maschinenlesbares Speichermedium, auf dem das Computerprog nach Anspruch 9 gespeichert ist.
EP16731835.1A 2015-08-07 2016-06-15 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug Withdrawn EP3332351A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015215105 2015-08-07
DE102015216979.0A DE102015216979A1 (de) 2015-08-07 2015-09-04 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
PCT/EP2016/063768 WO2017025226A1 (de) 2015-08-07 2016-06-15 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug

Publications (1)

Publication Number Publication Date
EP3332351A1 true EP3332351A1 (de) 2018-06-13

Family

ID=57853469

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16731835.1A Withdrawn EP3332351A1 (de) 2015-08-07 2016-06-15 Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug

Country Status (3)

Country Link
EP (1) EP3332351A1 (de)
DE (1) DE102015216979A1 (de)
WO (1) WO2017025226A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9898008B2 (en) * 2016-03-22 2018-02-20 Delphi Technologies, Inc. Scenario aware perception system for an automated vehicle
DE102017220139A1 (de) * 2017-11-13 2019-05-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen einer Position wenigstens eines Objekts
DE102019205481A1 (de) * 2019-04-16 2020-10-22 Zf Friedrichshafen Ag Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich
DE102021128785A1 (de) * 2021-11-05 2023-05-11 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung der Entfernung eines Lichtsignalgebers

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150153184A1 (en) * 2013-12-04 2015-06-04 GM Global Technology Operations LLC System and method for dynamically focusing vehicle sensors

Also Published As

Publication number Publication date
DE102015216979A1 (de) 2017-02-09
WO2017025226A1 (de) 2017-02-16

Similar Documents

Publication Publication Date Title
EP2562039B1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
EP2583263B1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
DE102017221407A1 (de) Fahrassistenzsystem, das navigationsinformation verwendet, und dessen betriebsverfahren
DE112016007376T5 (de) Vorrichtung zur Bestimmung von Peripherie-Informationen und Verfahren zur Bestimmung von Peripherie-Informationen
DE102014117751A1 (de) System und Verfahren zum dynamischen Fokussieren von Fahrzeugsensoren
DE102018211941B4 (de) Verfahren zum Ermitteln einer Kreuzungstopologie einer Straßenkreuzung
EP2562038A1 (de) Verfahren und Steuergerät zum Hervorheben eines erwarteten Bewegungspfads eines Fahrzeugs
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE102005018697A1 (de) Verfahren und Vorrichtung zur Warnung eines Fahrers im Falle eines Verlassens der Fahrspur
EP3649519B1 (de) Verfahren zur verifizierung einer digitalen karte eines höher automatisierten fahrzeugs, entsprechende vorrichtung und computerprogramm
DE102009036433A1 (de) Verfahren und Vorrichtung zum Betrieb eines Fahrerassistenzsystems
DE112020004949T5 (de) Fahrzeugbordvorrichtung und fahrunterstzützungsverfahren
DE102016219503A1 (de) Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur
DE102012025067A1 (de) Fahrerassistenzeinrichtung mit kombinierter Verkehrszeichenerfassung und Markierungserfassung für ein Kraftfahrzeug und entsprechendes Verfahren
DE102018105163A1 (de) System zum automatisierten Fahren
EP3332351A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug
WO2019233777A1 (de) Fahrassistenzsystem
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
WO2009149960A1 (de) Verfahren zur kombinierten ausgabe eines bildes und einer lokalinformation, sowie kraftfahrzeug hierfür
DE102019208176A1 (de) Fahrzeug-fahrassistenz-system
DE10311241B4 (de) Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
DE102015200059A1 (de) Fahrer-Intentions-Vorhersage-Vorrichtung und Verfahren und Fahrzeug umfassend solch eine Vorrichtung
DE102007007540A1 (de) Fahrstreifenkontrollierte Erkennung von Fahrzeugen beim Spurenwechsel
EP3440433B1 (de) Verfahren zur bestimmung einer pose eines wenigstens teilautomatisiert fahrenden fahrzeugs mittels speziell ausgewählter und von einem backend- server übertragener landmarken
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20180307

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ROBERT BOSCH GMBH

17Q First examination report despatched

Effective date: 20200804

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20201126