WO2023237421A1 - Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems - Google Patents

Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems Download PDF

Info

Publication number
WO2023237421A1
WO2023237421A1 PCT/EP2023/064769 EP2023064769W WO2023237421A1 WO 2023237421 A1 WO2023237421 A1 WO 2023237421A1 EP 2023064769 W EP2023064769 W EP 2023064769W WO 2023237421 A1 WO2023237421 A1 WO 2023237421A1
Authority
WO
WIPO (PCT)
Prior art keywords
motor vehicle
assistance system
driving assistance
lane marking
image data
Prior art date
Application number
PCT/EP2023/064769
Other languages
English (en)
French (fr)
Inventor
Christoph Resch
Ivo Nikolov
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Publication of WO2023237421A1 publication Critical patent/WO2023237421A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0095Automatic control mode change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Definitions

  • the present disclosure relates to a method for setting an operating state of a driving assistance system that is designed to control lateral guidance of a motor vehicle based on image data recorded with a camera of the motor vehicle.
  • a data processing device is provided which is designed to at least partially carry out the method.
  • a motor vehicle that at least partially includes the data processing device is provided.
  • a computer program is provided which includes commands which, when the program is executed by a computer, cause it to at least partially carry out the method.
  • a computer-readable medium is provided which includes instructions which, when the instructions are executed by a computer, cause it to at least partially carry out the method.
  • DE4124654A1 describes a method for continuous and automatic vehicle orientation on a road with an image-generating system and a computerized image evaluation for generating vehicle control data, the image data of a last monocularly generated image of a continuous image sequence being oriented with the aid of a program controlling an electronic computer on spatial-geometric and temporal-dynamic aspects of a scene, in order to then use them using recursive estimation methods to determine the road parameters, especially the horizontal and vertical curvature in the preview area as well as the width and the own road-related situation.
  • the recognition quality of the front camera is sometimes significantly reduced in bad weather (e.g. fog, low sun, snow, rain, etc.).
  • the bad weather is detected in two ways via one and the same front camera, whose data is also used as input variables for the lateral guidance.
  • the bad weather is detected from the image data itself.
  • the bad weather is detected from the length of the recognized lane markings, which can serve as input data for the lateral guidance.
  • the detection of bad weather from the image data itself can lead to detection of bad weather conditions too early or too late because the detection takes a certain amount of time.
  • incorrect recognition can occur due to incorrect image data/incorrect image interpretations.
  • Detecting bad weather from the length of the detected lane markings can have the disadvantage that the running length can be limited even in good weather because the lane markings are poorly visible. In these cases, the function is switched off incorrectly.
  • the task of the present disclosure is to specify a device and a method, which are each suitable for at least enriching the above-mentioned state of the art.
  • the task is then solved by a method for setting an operating state of a driving assistance system, which is designed to control lateral guidance of a motor vehicle based on image data recorded with a camera of the motor vehicle.
  • the method can be a computer-implemented method, i.e. one, several or all steps of the method can be carried out using a computer or a data processing device.
  • the driving assistance system is an automated driving function, which can be understood as a function of the motor vehicle that is designed to take over certain parts of the or the entire driving task, if necessary together with other automated driving functions, at least temporarily.
  • the driving assistance system is a system having hardware and/or software components that receive the image data and/or information generated based on the image data as input data, process them in a predetermined manner and thus generate a control signal that is sent to the motor vehicle is output to control the lateral guidance.
  • controlling the lateral guidance can include active and/or passive interventions in the lateral guidance of the motor vehicle by means of the driving assistance system.
  • the motor vehicle can also be designed to control longitudinal guidance of the motor vehicle by means of the and/or another driving assistance system. This can also be done based on the image data.
  • the method includes determining weather conditions in the area surrounding the motor vehicle based on the image data.
  • the weather conditions can be understood as the weather, and/or optionally its change, in the environment or an environment of predetermined size of the motor vehicle.
  • weather conditions include brightness (e.g. caused by the sun and/or oncoming vehicles, etc.) and/or precipitation (e.g. rain, snow and/or fog, etc.).
  • the method includes recognizing a lane marking based on the image data and determining a length of the recognized lane marking.
  • Lane marking can also be referred to as road marking. This is usually a color marking (e.g. white or yellow) on a surface of road traffic areas, i.e. the road on which the motor vehicle is located at the time the procedure is carried out.
  • road marking usually a color marking (e.g. white or yellow) on a surface of road traffic areas, i.e. the road on which the motor vehicle is located at the time the procedure is carried out.
  • longitudinal markings can be used here. Longitudinal markings are arranged longitudinally to or along a direction of travel. They largely take over the visual guidance of the road user.
  • An object detection algorithm can be used to detect the lane marking.
  • the method includes setting the operating state of the driving assistance system based on the specific weather conditions and the specific length of the detected lane marking.
  • Setting the operating state can also be referred to as controlling the operating state and can include issuing a control signal to the driving assistance system.
  • Setting the operating state of the driving assistance system can include deactivating or preventing activation of the driving assistance system.
  • the driving assistance system can either be activated or remain active, or the driving assistance system can either be deactivated or cannot be activated .
  • Active means that the driving assistance system controls the lateral guidance. Deactivated, however, means that the driving assistance system does not control the lateral guidance
  • the driving assistance system can be deactivated or prevented from being activated if the specific length of the detected lane marking falls below a predetermined threshold value and the determined weather conditions meet a predetermined criterion of poor weather conditions (e.g. precipitation exceeds a predetermined limit value).
  • the method can include controlling the lateral guidance of the motor vehicle by means of the driving assistance system based on the image data depending on the set operating state of the driving assistance system.
  • the lateral guidance of the motor vehicle can be controlled based on a course of the recognized lane marking. Interventions in the transverse guidance can be carried out in such a way that the motor vehicle follows a trajectory that runs essentially parallel to the lane marking.
  • a trajectory can be understood as a path along which the motor vehicle should travel (so-called target trajectory) or actually travels (so-called actual trajectory).
  • the trajectory can also have a temporal component, i.e. when should or is the motor vehicle where.
  • Determining the weather conditions and/or recognizing and/or determining the length of the lane marking can be carried out by the camera. This means that the camera cannot, for example, process the image data itself output, but rather the type or category of weather conditions (e.g. “bad weather”), the course of the lane marking and/or a course of a lane center determined based on this, and/or a length of the course of the lane marking. These can then be used as input data for the process. However, it is also conceivable, additionally or alternatively, for the camera itself to carry out the entire process.
  • the type or category of weather conditions e.g. “bad weather”
  • the two detection principles mentioned at the beginning can be combined so that the bad weather is detected from the image data itself and the bad weather is detected from the length of the detected lane markings (which can serve as input data for the lateral guidance).
  • the lateral guidance system can be switched off.
  • a device for data processing which includes means for carrying out the method described above.
  • the data processing device can also be referred to as a data processing system or a data processing device. More specifically, the data processing system has a camera and a control device connected to the camera.
  • the data processing system can be designed to be at least partially installed in and/or on an automated motor vehicle and/or to be at least partially part of a cloud.
  • the data processing system can be part of the driving assistance system or an automated driving function or can represent and/or execute it.
  • the data processing system can have an electronic control unit (ECU).
  • the data processing device can have an intelligent processor-controlled unit, which can communicate with other modules, for example via a central gateway (CGW) and, if necessary, via field buses, such as the CAN bus, LIN bus, MOST bus and FlexRay or via automotive -Ethernet, e.g. together with telematics control devices, can form the vehicle on-board network.
  • CGW central gateway
  • field buses such as the CAN bus, LIN bus, MOST bus and FlexRay or via automotive -Ethernet, e.g. together with telematics control devices, can form the vehicle on-board network.
  • the control unit controls functions relevant to the driving behavior of the motor vehicle, such as the engine control, the power transmission, the braking system and/or the tire pressure monitoring system.
  • driver assistance systems such as a parking assistant, an adapted cruise control (ACC), a lane keeping assistant, a lane change assistant, a traffic sign recognition, a light signal recognition, a starting assistant, a night vision assistant, an emergency braking assistant and / or an intersection assistant, can be used by the Control unit can be controlled.
  • the data processing system controls automated driving of the automated motor vehicle at least partially and/or temporarily based on an output of an environment model.
  • an automated motor vehicle can be provided that has the data processing system described above.
  • the motor vehicle can be a passenger car, in particular an automobile.
  • the automated motor vehicle can be designed to provide longitudinal guidance and/or transverse guidance during automated driving of the motor vehicle at least partially and/or at least temporarily by means of the automated driving function.
  • the automated driving can be controlled at least partially and/or temporarily by the data processing device using the automated driving function.
  • Automated driving can be carried out in such a way that the movement of the motor vehicle is (largely) autonomous.
  • the motor vehicle can be a motor vehicle with autonomy level 0, i.e. the driver takes over the dynamic driving task, even if supporting systems (e.g. ABS or ESP) are present.
  • supporting systems e.g. ABS or ESP
  • the motor vehicle can be a motor vehicle with autonomy level 1, i.e. have certain driver assistance systems that support the driver in operating the vehicle, such as adaptive cruise control (ACC).
  • ACC adaptive cruise control
  • the motor vehicle can be a motor vehicle of autonomy level 2, i.e. be partially automated so that functions such as automatic parking, lane keeping or lateral guidance, general longitudinal guidance, acceleration and/or braking are taken over by driver assistance systems.
  • the motor vehicle can be a motor vehicle of autonomy level 3, ie conditionally automated so that the driver does not have to continuously monitor the vehicle system.
  • the motor vehicle independently carries out functions such as triggering the turn signal, changing lanes and/or keeping in lane. The driver can turn his attention to other things, but if necessary the system will ask him to take over within a warning period.
  • the motor vehicle can be a motor vehicle of autonomy level 4, ie so highly automated that the vehicle system permanently takes over control of the vehicle. If the system can no longer handle the driving tasks, the driver can be asked to take over the lead.
  • the motor vehicle can be a motor vehicle with autonomy level 5, i.e. so fully automated that the driver is not required to complete the driving task. No human intervention is required other than setting the target and starting the system.
  • a computer program is also provided.
  • the computer program is characterized in that it includes commands which, when the program is executed by a computer, cause it to at least partially carry out the method described.
  • a program code of the computer program can be in any code, in particular in a code that is suitable for motor vehicle controls.
  • a computer-readable medium in particular a computer-readable storage medium, is provided.
  • the computer-readable medium is characterized in that it includes instructions which, when the program is executed by a computer, cause it to at least partially carry out the method described above.
  • a computer-readable medium may be provided that includes a computer program as defined above.
  • the computer-readable medium can be any digital data storage device, such as a USB flash drive, hard drive, CD-ROM, SD card, or SSD card.
  • the computer program does not necessarily have to be in such a computer-readable format Storage medium can be stored in order to be made available to the motor vehicle, but can also be obtained externally via the Internet or otherwise.
  • Fig. 1 shows schematically a motor vehicle in a top view, which is designed to carry out a method for setting an operating state of a driving assistance system
  • Fig. 2 shows a schematic flowchart of the method.
  • the motor vehicle 1 shown in Figure 1 has a surroundings camera 2, here a front camera, which is connected to a control unit 3. Together, the (surrounding) camera 2 and the control unit 3 form at least part of a data processing system that is designed to carry out the method for setting the operating state of the driving assistance system, the flowchart of which is shown in Figure 2.
  • the control unit 3 itself is at least part of the driving assistance system and is designed to control lateral guidance of the motor vehicle 1 based on image data recorded with the camera 2 of the motor vehicle 1.
  • the method essentially comprises six steps S1 - S6.
  • a step S1 of the method the camera is used to determine weather conditions in the area surrounding the motor vehicle based on the image data recorded by the camera 2 in an optional initial step of the method, which is not shown in FIG.
  • a second step S2 of the method a lane marking 4 is detected in the surroundings of the motor vehicle 1 and a course thereof is determined based on the image data using the camera 2, wherein the first and second steps S1, S2 can run at least partially/temporally in parallel .
  • the camera 2 recognizes, for example, "heavy rain” as bad weather conditions using a weather algorithm.
  • the same camera 2 outputs the course of the lane marking 4, for example in the form of a polynomial or in the form of a polyline (or a spline).
  • a third step S3 of the method the specific weather conditions, i.e. in the present case either good or bad weather conditions, as well as the specific course of the lane marking 4 are output from the camera 2 to the control unit 3.
  • control unit 3 determines a length L of the recognized lane marking 4 based on the course of the lane marking 4.
  • a fifth step S5 of the method the operating state of the driving assistance system is set by means of the control unit 3 based on the specific weather conditions and the specific length L of the recognized lane marking 4.
  • Setting the operating state of the driving assistance system includes deactivating or preventing activation of the driving assistance system , when the specific length L of the recognized lane marking 4 falls below a predetermined threshold and there are bad weather conditions.
  • a scenario is conceivable, for example, in which, in good weather and clearly visible lane markings, a running length L of the lane marking 4 (and thus the distance or length L up to which the camera 2 detects the lane markings) is, for example, 80m. However, in bad weather and/or with poor lane markings, the length L of the lane marking 4 can only be 20m, for example.
  • An early one Deactivation of the automated lateral guidance can then take place, for example, according to the following table:
  • the lateral guidance of the motor vehicle 1 is controlled by means of the driving assistance system by the control unit 3 based on the image data, the lateral guidance of the motor vehicle 1 being controlled in particular based on the course of the recognized lane marking 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Bereitgestellt wird ein Verfahren zum Einstellen eines Betriebszustands eines Fahrassistenzsystems, das ausgestaltet ist, um eine Querführung eines Kraftfahrzeugs (1) basierend auf mit einer Kamera (2) des Kraftfahrzeugs (1) aufgenommenen Bilddaten zu steuern. Das Verfahren umfasst ein Bestimmen (S1) von Witterungsverhältnissen im Umfeld des Kraftfahrzeugs (1) basierend auf den Bilddaten, ein Erkennen (S2) einer Spurmarkierung (4) basierend auf den Bilddaten, ein Bestimmen (S4) einer Länge (L) der erkannten Spurmarkierung (4), und das Einstellen (S5) des Betriebszustands des Fahrassistenzsystems basierend auf den bestimmten Witterungsverhältnissen und der bestimmten Länge (L) der erkannten Spurmarkierung (4).

Description

VERFAHREN UND VORRICHTUNG ZUM EINSTELLEN EINES BETRIEBSZUSTANDS EINES FAHRASSISTENZSYSTEMS
Die vorliegende Offenbarung betrifft ein Verfahren zum Einstellen eines Betriebszustands eines Fahrassistenzsystems, das ausgestaltet ist, um eine Querführung eines Kraftfahrzeugs basierend auf mit einer Kamera des Kraftfahrzeugs aufgenommenen Bilddaten zu steuern. Zusätzlich oder alternativ wird eine Datenverarbeitungsvorrichtung bereitgestellt, die ausgestaltet ist, um das Verfahren zumindest teilweise auszuführen. Zusätzlich oder alternativ wird ein Kraftfahrzeug, das die Datenverarbeitungsvorrichtung zumindest teilweise umfasst, bereitgestellt. Zusätzlich oder alternativ wird ein Computerprogramm bereitgestellt, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren zumindest teilweise auszuführen. Zusätzlich oder alternativ wird ein computerlesbares Medium bereitgestellt, das Befehle umfasst, die bei der Ausführung der Befehle durch einen Computer diesen veranlassen, das Verfahren zumindest teilweise auszuführen.
Aktuelle Querführungssysteme basieren vor allem auf Spurinformationen, die basierend auf Sensordaten einer Frontkamera des Kraftfahrzeugs aufgenommen werden.
Die DE4124654A1 beschreibt in diesem Zusammenhang ein Verfahren zur kontinuierlichen und automatischen Fahrzeugorientierung auf einer Fahrbahn mit einem bilderzeugenden System und einer computerisierten Bildauswertung zur Erzeugung von Fahrzeugsteuerdaten, wobei die Bilddaten eines letzten monokular erzeugten Bildes einer fortlaufenden Bildfolge mit Hilfe eines einen elektronischen Rechner steuernden Programms, orientiert an räumlich-geometrischen und zeitlichdynamischen Aspekten einer Szene, modelliert werden, um sie dann mittels rekursiver Schätzverfahren zur Bestimmung der Straßenparamter, speziell des horizontalen und des vertikalen Krümmungsverlaufs im Vorausschaubereich sowie der Breite und der eigenen straßenbezogenen Situation heranzuziehen. Eine Erkennungsgüte der Frontkamera verringert sich jedoch bei schlechter Witterung (z.B. bei Nebel, tiefstehende Sonne, Schnee, Regen, etc.) zum Teil erheblich.
Um Fehlern in der Querführung vorzubeugen, wird daher versucht eine schlechte Witterung zu erkennen und das Querführungssystem frühzeitig abzuschalten. Dies ist vor allem bei sog. Hands-Off-Systemen (bei denen der Fahrer die Hände zumindest nicht dauerhaft am Lenkrad haben muss) erforderlich, weil gerade dort die Anforderungen an die Performance der Querführung vielfach höher sind als bei sog. Hands-On-Systemen (bei denen der Fahrer die Hände zumindest nicht dauerhaft am Lenkrad haben muss).
Die schlechte Witterung wird dabei auf zwei Wegen über ein und dieselbe Frontkamera erkannt, deren Daten auch als Eingangsgrößen für die Querführung verwendet werden. Zum einen erfolgt eine Erkennung der schlechten Witterung aus den Bilddaten selbst. Alternativ erfolgt eine Erkennung der schlechten Witterung aus der Lauflänge der erkannten Spurmarkierungen, die als Eingangsdaten für die Querführung dienen können.
Aktuelle Systeme nutzen nur ein einziges der oben genannten Erkennungsverfahren, wobei jedes Verfahren seine Nachteile hat.
Die Erkennung der schlechten Witterung aus den Bilddaten selbst kann zu einer zu frühen oder zu späten Erkennung von schlechten Witterungsbedingungen führen, da die Erkennung eine gewisse Zeit in Anspruch nimmt. Zudem kann eine fehlerhafte Erkennung aufgrund falscher Bilddaten/falsche Bildinterpretationen erfolgen.
Die Erkennung der schlechten Witterung aus der Lauflänge der erkannten Spurmarkierungen kann den Nachteil aufweisen, dass die Lauflänge auch bei guter Witterung eingeschränkt sein kann, weil die Spurmarkierungen schlecht sichtbar sind. In diesen Fällen kommt es zu einem fehlerhaften Abschalten der Funktion.
Vor dem Hintergrund dieses Standes der Technik besteht die Aufgabe der vorliegenden Offenbarung darin, eine Vorrichtung und ein Verfahren anzugeben, welche jeweils geeignet sind, zumindest den oben genannten Stand der Technik zu bereichern.
Gelöst wird die Aufgabe durch die Merkmale des unabhängigen Anspruchs. Die Unteransprüche haben bevorzugte Weiterbildungen der Erfindung zum Inhalt.
Danach wird die Aufgabe durch ein Verfahren zum Einstellen eines Betriebszustands eines Fahrassistenzsystems, das ausgestaltet ist, um eine Querführung eines Kraftfahrzeugs basierend auf mit einer Kamera des Kraftfahrzeugs aufgenommenen Bilddaten zu steuern, gelöst.
Bei dem Verfahren kann es sich um ein computer-implementiertes Verfahren handeln, d.h. einer, mehrere oder alle Schritte des Verfahrens können mittels eines Computers bzw. einer Datenverarbeitungsvorrichtung ausgeführt werden.
Bei dem Fahrassistenzsystem handelt es sich um eine automatisierten Fahrfunktion, unter der eine Funktion des Kraftfahrzeugs verstanden werden kann, die ausgestaltet ist, um bestimmte Teile der oder die gesamte Fahraufgabe ggf. zusammen mit weiteren automatisierten Fahrfunktionen zumindest zeitweise zu übernehmen.
Bei dem Fahrassistenzsystem handelt es sich um ein System aufweisend Hardware- und/oder Software-Komponenten, die als Eingangsdaten die Bilddaten und/oder basierend auf den Bilddaten erzeugte Informationen erhalten, diese in vorbestimmter Weise verarbeiten und so ein Steuersignal erzeugen, das an das Kraftfahrzeug ausgeben wird, um die Querführung zu steuern.
Je nach Automatisierungsgrad des Kraftfahrzeugs kann das Steuern der Querführung aktive und/oder passive Eingriffe in die Querführung des Kraftfahrzeugs mittels dem Fahrassistenzsystem umfassen. Dabei kann das Kraftfahrzeug auch ausgestaltet sein, um eine Längsführung des Kraftfahrzeugs mittels dem und/oder einem weiteren Fahrassistenzsystem zu steuern. Dies kann auch basierend auf den Bilddaten erfolgen. Das Verfahren umfasst ein Bestimmen von Witterungsverhältnissen im Umfeld des Kraftfahrzeugs basierend auf den Bilddaten.
Die Witterungsverhältnisse können als das Wetter, und/oder optional dessen Veränderung, in dem Umfeld bzw. einer Umgebung vorbestimmter Größe des Kraftfahrzeugs verstanden werden. Beispiele für Witterungsverhältnisse umfassen eine Helligkeit (z.B. verursacht durch die Sonne und/oder entgegenkommende Fahrzeuge usw.) und/oder einen Niederschlag (z.B. Regen, Schnee und/oder Nebel usw.).
Das Verfahren umfasst ein Erkennen einer Spurmarkierung basierend auf den Bilddaten und ein Bestimmen einer Länge der erkannten Spurmarkierung.
Die Spurmarkierung kann auch als Fahrbahnmarkierung bezeichnet werden. Dabei handelt es sich meist um eine farbliche Kennzeichnung (z.B. weiß oder gelb) auf einer Oberfläche von Verkehrsflächen des Straßenverkehrs, d.h. der Straße, auf der sich das Kraftfahrzeug zum Zeitpunkt der Ausführung des Verfahrens befindet. Vorliegend können insbesondere sog. Längsmarkierungen herangezogen werden. Längsmarkierungen sind längs zur bzw. entlang einer Fahrtrichtung angeordnet. Sie übernehmen weitgehend die optische Führung des Verkehrsteilnehmers.
Zum Erkennen der Spurmarkierung kann ein Objekterkennungsalgorithmus verwendet werden.
Das Verfahren umfasst das Einstellen des Betriebszustands des Fahrassistenzsystems basierend auf den bestimmten Witterungsverhältnissen und der bestimmten Länge der erkannten Spurmarkierung.
Das Einstellen des Betriebszustands kann auch als Steuern des Betriebszustands bezeichnet werden und kann die Ausgabe eines Steuersignals an das Fahrassistenzsystem umfassen.
Nachfolgend werden mögliche Weiterbildungen des Verfahrens im Detail beschrieben. Das Einstellen des Betriebszustands des Fahrassistenzsystems kann ein Deaktivieren oder ein Verhindern eines Aktivierens des Fahrassistenzsystems umfassen. Mit anderen Worten, in Abhängigkeit davon, ob das Fahrassistenzsystem zum Zeitpunkt des Einstellens des Betriebszustands, der basierend auf den Bilddaten bestimmt wurde, aktiv ist oder nicht kann das Fahrassistenzsystem entweder aktivierbar sein oder aktiv bleiben oder das Fahrassistenzsystem kann entweder deaktiviert werden oder nicht aktivierbar sein. Aktiv bedeutet dabei, dass das Fahrassistenzsystem die Querführung steuert. Deaktiviert bedeutet hingegen, dass das Fahrassistenzsystem nicht die Querführung steuert
Das Deaktivieren oder das Verhindern des Aktivierens des Fahrassistenzsystems kann erfolgen, wenn die bestimmte Länge der erkannten Spurmarkierung einen vorbestimmten Schwellwert unterschreitet und die bestimmten Witterungsverhältnisse ein vorbestimmtes Kriterium schlechter Witterungsverhältnisse (z.B. Niederschlag überschreitet einen vorbestimmten Grenzwert) erfüllen.
Das Verfahren kann ein Steuern der Querführung des Kraftfahrzeugs mittels dem Fahrassistenzsystem basierend auf den Bilddaten in Abhängigkeit des eingestellten Betriebszustands des Fahrassistenzsystems umfassen.
Das Steuern der Querführung des Kraftfahrzeugs kann basierend auf einem Verlauf der erkannten Spurmarkierung erfolgen. Es können Eingriffe in die Querführung so erfolgen, dass das Kraftfahrzeug einer Trajektorie folgt, die im Wesentlichen parallel zu der Spurmarkierung verläuft. Unter einer Trajektorie kann ein Pfad verstanden werden, entlang welchem das Kraftfahrzeug fahren soll (sog. Soll-Trajektorie) oder tatsächlich fährt (sog. Ist-Trajektorie). Neben Positionsangaben kann die Trajektorie auch eine zeitliche Komponente aufweisen, d.h. wann soll bzw. ist das Kraftfahrzeug wo.
Das Bestimmen der Witterungsverhältnisse und/oder das Erkennen und/oder Bestimmen der Länge der Spurmarkierung kann von der Kamera durchgeführt werden. Das heißt, die Kamera kann beispielsweise nicht die Bilddaten selbst ausgeben, sondern die Art bzw. Kategorie der Witterungsverhältnisse (z.B. „schlechte Witterung“), den Verlauf der Spurmarkierung und/oder einem basierend darauf bestimmten Verlauf einer Fahrbahnmitte, und/oder eine Länge des Verlaufs der Spurmarkierung. Diese können dann als Eingangsdaten für das Verfahren verwendet werden. Denkbar ist aber auch, zusätzlich oder alternativ, dass die Kamera selbst das komplette Verfahren ausführt.
Das oben Beschriebene lässt sich mit anderen Worten und auf eine konkrete Ausgestaltung bezogen, die nachfolgend als für die Offenbarung nicht limitierend beschrieben ist, wie nachfolgend dargelegt zusammenfassen.
Die beiden eingangs genannten Erkennungsprinzipien können kombiniert werden, sodass eine Erkennung der schlechten Witterung aus den Bilddaten selbst und eine Erkennung der schlechten Witterung aus der Lauflänge der erkannten Spurmarkierungen (welche als Eingangsdaten für die Querführung dienen können) erfolgt.
Es kann eine schlechte Witterung erkannt werden, wenn beide oben genannten Bedingungen gleichzeitig erfüllt sind.
Bei Erkennung der schlechten Witterung über dieses Verfahren kann das Querführungssystem abgeschaltet werden.
Dadurch ergibt sich eine zuverlässigere Erkennung von schlechter Witterung und es kommt zu selteneren unberechtigten Abschaltungen der Querführungsfunktion.
Ferner wird eine Vorrichtung zur Datenverarbeitung bereitgestellt, die Mittel zur Ausführung des oben beschriebenen Verfahrens umfasst. Die Vorrichtung zur Datenverarbeitung kann auch als System zur Datenverarbeitung oder als Datenverarbeitungsvorrichtung bezeichnet werden. Genauer gesagt weist das System zur Datenverarbeitung eine Kamera und eine zu der Kamera verbundene Steuervorrichtung auf. Das System zur Datenverarbeitung kann ausgestaltet sein, um zumindest teilweise in und/oder an einem automatisierten Kraftfahrzeug verbaut zu sein und/oder zumindest teilweise Teil einer Cloud zu sein.
Das System zur Datenverarbeitung kann Teil des Fahrassistenzsystems bzw. einer automatisierten Fahrfunktion sein oder dieses darstellen und/oder ausführen. Das System zur Datenverarbeitung kann eine elektronische Steuereinheit (engl. ECU = electronic control unit) aufweisen. Die Datenverarbeitungsvorrichtung kann eine intelligente prozessor-gesteuerte Einheit aufweisen, die z.B. über ein Central Gateway (CGW) mit anderen Modulen kommunizieren kann und die ggf. über Feldbusse, wie den CAN-Bus, LIN-Bus, MOST-Bus und FlexRay oder über Automotive-Ethernet, z.B. zusammen mit Telematiksteuergeräten, das Fahrzeugbordnetz bilden kann. Denkbar ist, dass das Steuergerät für das Fahrverhalten des Kraftfahrzeugs relevante Funktionen, wie die Motorsteuerung, die Kraftübertragung, das Bremssystem und/oder das Reifendruck-Kontrollsystem, steuert. Außerdem können Fahrerassistenzsysteme, wie beispielsweise ein Parkassistent, eine angepasste Geschwindigkeitsregelung (ACC, engl. adaptive cruise control), ein Spurhalteassistent, ein Spurwechselassistent, eine Verkehrszeichenerkennung, eine Lichtsignalerkennung, ein Anfahrassistent, ein Nachtsichtassistent, ein Notbremsassistenten und/oder ein Kreuzungsassistent, von dem Steuergerät gesteuert werden.
Denkbar ist, dass das System zur Datenverarbeitung basierend auf einer Ausgabe eines Umfeldmodells ein automatisiertes Fahren des automatisierten Kraftfahrzeugs zumindest teilweise und/oder zeitweise steuert.
Das oben mit Bezug zu den Verfahren Beschriebene gilt analog auch für das System zur Datenverarbeitung und umgekehrt.
Ferner kann ein automatisiertes Kraftfahrzeug bereitgestellt werden, das das oben beschriebene System zur Datenverarbeitung aufweist. Bei dem Kraftfahrzeug kann es sich um einen Personenkraftwagen, insbesondere ein Automobil, handeln.
Das automatisierte Kraftfahrzeug kann ausgestaltet sein, um eine Längsführung und/oder eine Querführung bei einem automatisierten Fahren des Kraftfahrzeugs zumindest teilweise und/oder zumindest zeitweise mittels der automatisierten Fahrfunktion zu übernehmen. Das automatisierte Fahren kann zumindest teilweise und/oder zeitweise durch die Datenverarbeitungsvorrichtung mittels der automatisierten Fahrfunktion gesteuert werden.
Das automatisierte Fahren kann so erfolgen, dass die Fortbewegung des Kraftfahrzeugs (weitgehend) autonom erfolgt.
Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 0 sein, d.h. der Fahrer übernimmt die dynamische Fahraufgabe, auch wenn unterstützende Systeme (z. B. ABS oder ESP) vorhanden sind.
Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 1 sein, d.h. bestimmte Fahrerassistenzsysteme aufweisen, die den Fahrer bei der Fahrzeugbedienung unterstützen, wie beispielsweise der Abstandsregeltempomat (ACC).
Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 2 sein, d.h. so teilautomatisiert sein, dass Funktionen wie automatisches Einparken, Spurhalten bzw. Querführung, allgemeine Längsführung, Beschleunigen und/oder Abbremsen von Fahrerassistenzsystemen übernommen werden.
Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 3 sein, d.h. so bedingungsautomatisiert, dass der Fahrer das System Fahrzeug nicht durchgehend überwachen muss. Das Kraftfahrzeug führt selbstständig Funktionen wie das Auslösen des Blinkers, Spurwechsel und/oder Spurhalten durch. Der Fahrer kann sich anderen Dingen zuwenden, wird aber bei Bedarf innerhalb einer Vorwarnzeit vom System aufgefordert die Führung zu übernehmen. Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 4 sein, d.h. so hochautomatisiert, dass die Führung des Fahrzeugs dauerhaft vom System Fahrzeug übernommen wird. Werden die Fahraufgaben vom System nicht mehr bewältigt, kann der Fahrer aufgefordert werden, die Führung zu übernehmen.
Das Kraftfahrzeug kann ein Kraftfahrzeug der Autonomiestufe 5 sein, d.h. so vollautomatisiert, dass der Fahrer zum Erfüllen der Fahraufgabe nicht erforderlich ist. Außer dem Festlegen des Ziels und dem Starten des Systems ist kein menschliches Eingreifen erforderlich.
Das oben mit Bezug zu den Verfahren und zum System zur Datenverarbeitung Beschriebene gilt jeweils analog auch für das Kraftfahrzeug und umgekehrt.
Ferner wird ein Computerprogramm bereitgestellt. Das Computerprogramm zeichnet sich dadurch aus, dass dieses Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das beschriebene Verfahren zumindest teilweise auszuführen.
Ein Programmcode des Computerprogramms kann in einem beliebigen Code vorliegen, insbesondere in einem Code, der für Steuerungen von Kraftfahrzeugen geeignet ist.
Ferner wird ein computerlesbares Medium, insbesondere ein computerlesbares Speichermedium, bereitgestellt. Das computerlesbare Medium zeichnet sich dadurch aus, dass dieses Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das oben beschriebene Verfahren zumindest teilweise auszuführen.
Das heißt, es kann ein computerlesbares Medium bereitgestellt werden, das ein oben definiertes Computerprogramm umfasst. Bei dem computerlesbaren Medium kann es sich um ein beliebiges digitales Datenspeichergerät handeln, wie zum Beispiel einen USB-Stick, eine Festplatte, eine CD-ROM, eine SD-Karte oder eine SSD-Karte. Das Computerprogramm muss nicht zwingend auf einem solchen computerlesbarem Speichermedium gespeichert sein, um dem Kraftfahrzeug zur Verfügung gestellt zu werden, sondern kann auch über das Internet oder anderweitig extern bezogen werden.
Das oben mit Bezug zu den Verfahren, zum System zur Datenverarbeitung und zum automatisierten Kraftfahrzeug Beschriebene gilt jeweils analog auch für das Computerprogramm sowie das computerlesbare Medium und umgekehrt.
Nachfolgend wird eine Ausführungsform mit Bezug zu Figuren 1 und 2 beschrieben.
Fig. 1 zeigt schematisch ein Kraftfahrzeug in einer Draufsicht, das ausgestaltet ist, um ein Verfahren zum Einstellen eines Betriebszustands eines Fahrassistenzsystems auszuführen, und
Fig. 2 zeigt schematisch ein Ablaufdiagramm des Verfahrens.
Das in Figur 1 dargestellte Kraftfahrzeug 1 weist eine Umfeldkamera 2, hier eine Frontkamera, auf, die zu einer Steuereinheit 3 verbunden ist. Zusammen bilden die (Umfeld-) Kamera 2 und die Steuereinheit 3 zumindest einen Teil eines Systems zur Datenverarbeitung, das ausgestaltet ist, um das Verfahren zum Einstellen des Betriebszustands des Fahrassistenzsystems auszuführen, dessen Ablaufdiagramm in Figur 2 dargestellt ist. Dabei ist die Steuereinheit 3 selbst zumindest Teil des Fahrassistenzsystems und ausgestaltet, um eine Querführung des Kraftfahrzeugs 1 basierend auf mit der Kamera 2 des Kraftfahrzeugs 1 aufgenommenen Bilddaten zu steuern.
Wie sich aus Figur 2 ergibt umfasst das Verfahren im Wesentlichen sechs Schritte S1 - S6.
In einem Schritt S1 des Verfahrens erfolgt mittels der Kamera ein Bestimmen von Witterungsverhältnissen im Umfeld des Kraftfahrzeugs basierend auf den Bilddaten, die einem optionalen initialen Schritt des Verfahrens, der in Figur 2 nicht dargestellt ist, von der Kamera 2 aufgezeichnet werden. In einem zweiten Schritt S2 des Verfahrens erfolgt ein Erkennen einer Spurmarkierung 4 im Umfeld des Kraftfahrzeugs 1 sowie ein Bestimmen eines Verlaufs davon basierend auf den Bilddaten mittels der Kamera 2, wobei der erste und der zweite Schritt S1 , S2 zumindest teilweise/zeitweise parallel ablaufen können.
Das heißt, in den Schritten S1 und S2 erkennt die Kamera 2 z.B. "starken Regen" über einen Wetteralgorithmus als schlechte Witterungsbedingungen. Gleichzeitig gibt dieselbe Kamera 2 den Verlauf der Spurmarkierung 4 aus, z.B. in Form eines Polynoms oder in Form einer Polyline (bzw. eines Splines).
In einem dritten Schritt S3 des Verfahrens werden die bestimmten Wetterverhältnisse, d.h. vorliegend entweder gute oder schlechte Wetterverhältnisse, sowie der bestimmte Verlauf der Spurmarkierung 4 von der Kamera 2 an die Steuereinheit 3 ausgegeben.
In einem vierten Schritt S4 des Verfahrens bestimmt die Steuereinheit 3 eine Länge L der erkannten Spurmarkierung 4 basierend auf dem Verlauf der Spurmarkierung 4.
In einem fünften Schritt S5 des Verfahrens erfolgt mittels der Steuereinheit 3 ein Einstellen des Betriebszustands des Fahrassistenzsystems basierend auf den bestimmten Witterungsverhältnissen und der bestimmten Länge L der erkannten Spurmarkierung 4. Dabei umfasst das Einstellen des Betriebszustands des Fahrassistenzsystems ein Deaktivieren oder ein Verhindern eines Aktivierens des Fahrassistenzsystems, wenn die bestimmte Länge L der erkannten Spurmarkierung 4 einen vorbestimmten Schwellwert unterschreitet und schlechte Witterungsverhältnisse vorliegen.
Denkbar ist dabei z.B. ein Szenario, bei dem bei guter Witterung und gut sichtbaren Spurmarkierungen eine Lauflänge L der Spurmarkierung 4 (und damit die Entfernung bzw. Länge L bis zu der die Kamera 2 die Spurmarkierungen erkennt) z.B. bei 80m liegt. Bei schlechter Witterung und/oder bei schlechten Spurmarkierungen kann die Lauflänge L der Spurmarkierung 4 hingegen z.B. nur 20m betragen. Eine frühzeitige Deaktivierung der automatisierten Querführung kann dann beispielsweise entsprechend der folgenden Tabelle stattfinden:
Figure imgf000013_0001
In den obigen Fällen 1 , 3 und 4 und bei aktivem Fahrassistenzsystem erfolgt in einem sechsten Schritt S6 des Verfahrens ein Steuern der Querführung des Kraftfahrzeugs 1 mittels dem Fahrassistenzsystem durchgeführt durch die Steuereinheit 3 basierend auf den Bilddaten, wobei das Steuern der Querführung des Kraftfahrzeugs 1 insbesondere basierend auf dem Verlauf der erkannten Spurmarkierung 4 erfolgt.
Bezugszeichenliste
1 Kraftfahrzeug
2 Kamera 3 Steuereinheit bzw. Steuervorrichtung
4 Spurmarkierung
L Länge
S1 - S6 Schritte des Verfahrens

Claims

Patentansprüche
1. Verfahren zum Einstellen eines Betriebszustands eines Fahrassistenzsystems, das ausgestaltet ist, um eine Querführung eines Kraftfahrzeugs (1 ) basierend auf mit einer Kamera (2) des Kraftfahrzeugs (1 ) aufgenommenen Bilddaten zu steuern, wobei das Verfahren umfasst:
- Bestimmen von Witterungsverhältnissen im Umfeld des Kraftfahrzeugs (1 ) basierend auf den Bilddaten,
- Erkennen einer Spurmarkierung (4) basierend auf den Bilddaten,
- Bestimmen einer Länge (L) der erkannten Spurmarkierung (4), und
- Einstellen des Betriebszustands des Fahrassistenzsystems basierend auf den bestimmten Witterungsverhältnissen und der bestimmten Länge (L) der erkannten Spurmarkierung (4).
2. Verfahren nach Anspruch 1 , wobei das Einstellen des Betriebszustands des Fahrassistenzsystems ein Deaktivieren oder ein Verhindern eines Aktivierens des Fahrassistenzsystems umfasst.
3. Verfahren nach Anspruch 2, wobei das Deaktivieren oder das Verhindern des Aktivierens des Fahrassistenzsystems erfolgt, wenn die bestimmte Länge (L) der erkannten Spurmarkierung (4) einen vorbestimmten Schwellwert unterschreitet und die bestimmten Witterungsverhältnisse ein vorbestimmtes Kriterium schlechter Witterungsverhältnisse erfüllen.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Verfahren ein Steuern der Querführung des Kraftfahrzeugs (1 ) mittels dem Fahrassistenzsystem basierend auf den Bilddaten in Abhängigkeit des eingestellten Betriebszustands des Fahrassistenzsystems umfasst.
5. Verfahren nach Anspruch 4, wobei das Steuern der Querführung des Kraftfahrzeugs (1 ) basierend auf einem Verlauf der erkannten Spurmarkierung (4) erfolgt.
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Bestimmen der Witterungsverhältnisse und/oder das Erkennen und/oder Bestimmen der Länge (L) der Spurmarkierung (4) von der Kamera (2) durchgeführt wird.
7. System zur Datenverarbeitung aufweisend eine Kamera (2) und eine zu der Kamera (2) verbundene Steuervorrichtung (3), wobei das System zur Datenverarbeitung ausgestaltet ist, um das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
8. Kraftfahrzeug (1 ) aufweisend das System zur Datenverarbeitung nach Anspruch 7, wobei das Kraftfahrzeug (1 ) ausgestaltet ist, um die Querführung des Kraftfahrzeugs (1 ) basierend auf der mit der Kamera (2) des Kraftfahrzeugs (1 ) aufgenommenen Bilddaten zu steuern.
9. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer bewirken, dass der Computer das Verfahren nach einem der Ansprüche 1 bis 6 ausführt.
10. Computerlesbares Medium, umfassend Befehle, die bei der Ausführung des der Befehle durch einen Computer bewirken, dass der Computer das Verfahren nach einem der Ansprüche 1 bis 6 ausführt.
PCT/EP2023/064769 2022-06-08 2023-06-02 Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems WO2023237421A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022114449.6A DE102022114449A1 (de) 2022-06-08 2022-06-08 Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems
DE102022114449.6 2022-06-08

Publications (1)

Publication Number Publication Date
WO2023237421A1 true WO2023237421A1 (de) 2023-12-14

Family

ID=86764465

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/064769 WO2023237421A1 (de) 2022-06-08 2023-06-02 Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems

Country Status (2)

Country Link
DE (1) DE102022114449A1 (de)
WO (1) WO2023237421A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4124654A1 (de) 1991-07-25 1993-01-28 Bundesrep Deutschland Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn
DE102011088134A1 (de) * 2011-12-09 2013-06-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung eines Abstandes zwischen einem Fahrzeug und einem Objekt
US20190351901A1 (en) * 2017-01-10 2019-11-21 Mitsubishi Electric Corporation Travel path recognition apparatus and travel path recognition method
US20200094837A1 (en) * 2018-09-26 2020-03-26 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014006923U1 (de) 2014-08-27 2015-11-30 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrassistenzsystem, Computerprogrammprodukt sowie Kraftfahrzeug
DE102018212506A1 (de) 2018-07-26 2020-01-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betrieb einer Fahrfunktion eines Fahrzeugs
DE102019134539A1 (de) 2019-12-16 2021-06-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung der Sichtweite einer Kamera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4124654A1 (de) 1991-07-25 1993-01-28 Bundesrep Deutschland Verfahren zur kontinuierlichen und automatischen fahrzeugorientierung auf einer fahrbahn
DE102011088134A1 (de) * 2011-12-09 2013-06-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung eines Abstandes zwischen einem Fahrzeug und einem Objekt
US20190351901A1 (en) * 2017-01-10 2019-11-21 Mitsubishi Electric Corporation Travel path recognition apparatus and travel path recognition method
US20200094837A1 (en) * 2018-09-26 2020-03-26 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium

Also Published As

Publication number Publication date
DE102022114449A1 (de) 2023-12-14

Similar Documents

Publication Publication Date Title
EP2904599A1 (de) Verfahren und vorrichtung zum unterstützen des zurückführens eines fahrzeugs nach dem verlassen einer fahrbahn
DE102015009849A1 (de) Radarsystem vom Typ für ein Fahrzeug und Verfahren zum Entfernen eines nicht interessierenden Ziels
DE102016222484A1 (de) Automatisiertes Steuern eines Fahrzeugs mit Lernfunktion
DE102019100318A1 (de) Vorrichtung und Verfahren zur Verbesserung von Assistenzsystemen für laterale Fahrzeugbewegungen
DE102018003130A1 (de) Erprobung eines Fahrzeugs mit simulierten Verkehrsteilnehmern
WO2021104804A1 (de) Verfahren und system zum erkennen eines abbiegenden objekts
DE102014209015A1 (de) Verfahren und Vorrichtung zur Abstandsregelung für ein Fahrzeug
WO2023237421A1 (de) Verfahren und vorrichtung zum einstellen eines betriebszustands eines fahrassistenzsystems
WO2023208735A1 (de) Verfahren zum einstellen eines sollabstands eines kraftfahrzeugs zu einem vorausfahrenden vorderfahrzeug, computerprogramm, steuergerät und kraftfahrzeug
DE102022118054A1 (de) Verfahren und vorrichtung zum betreiben eines kraftfahrzeugs
DE102022112377A1 (de) Verfahren zum Einstellen eines Sollabstands eines Kraftfahrzeugs zu einem vorausfahrenden Vorderfahrzeug, Computerprogramm, Steuergerät und Kraftfahrzeug
DE102022111731B3 (de) Verfahren für ein automatisiertes Kraftfahrzeug zum Ermitteln eines Autobahnknotenpunktes, Computerprogramm, Datenverarbeitungsvorrichtung und Kraftfahrzeug
DE102022110551A1 (de) Verfahren und vorrichtung zum betreiben einer hands-off-fahrunktion eines automatisierten kraftfahrzeugs
WO2023227328A1 (de) Trainingsverfahren für ein fahrassistenzsystem zur automatisierten querführung eines kraftfahrzeugs
WO2024046657A1 (de) Verfahren zum clustern von datenobjekten
DE102022117227A1 (de) Computer-implementiertes verfahren zum betreiben eines abstandsregeltempomaten eines kraftfahrzeugs
DE102022112745A1 (de) Verfahren und vorrichtung zum erkennen einer fehlfunktion eines umfeldmodells einer automatisierten fahrfunktion
DE102022122798A1 (de) Verfahren und vorrichtung zum betreiben eines automatisierten kraftfahrzeugs
DE102022121059A1 (de) Verfahren und vorrichtung zum ermitteln zumindest einer eine fahrbahnschwelle charakterisierenden information
DE102022104931A1 (de) Verfahren zum betreiben eines notbremsassistenten eines automatisierten kraftfahrzeugs
DE102022120241A1 (de) Steuervorrichtung für ein Kraftfahrzeug
DE102021133443A1 (de) Verfahren und vorrichtung zum feststellen eines vorliegens einer vorbestimmten fahrsituation bei einer fahrt mit einem aktiviertem fahrassistenzsystem
DE102022125379A1 (de) Verfahren und vorrichtung zum betreiben eines kraftfahrzeugs
DE102020126701A1 (de) Verfahren und Vorrichtung zur Ermittlung der Aufmerksamkeit eines Fahrers
DE102022104930A1 (de) Verfahren und vorrichtung zur geschwindigkeitssteuerung eines automatisierten kraftfahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23730478

Country of ref document: EP

Kind code of ref document: A1