DE102023003828A1 - Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug - Google Patents

Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug Download PDF

Info

Publication number
DE102023003828A1
DE102023003828A1 DE102023003828.8A DE102023003828A DE102023003828A1 DE 102023003828 A1 DE102023003828 A1 DE 102023003828A1 DE 102023003828 A DE102023003828 A DE 102023003828A DE 102023003828 A1 DE102023003828 A1 DE 102023003828A1
Authority
DE
Germany
Prior art keywords
vehicle
environmental
computing unit
person driving
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023003828.8A
Other languages
English (en)
Inventor
Christian Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023003828.8A priority Critical patent/DE102023003828A1/de
Publication of DE102023003828A1 publication Critical patent/DE102023003828A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/20
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60K35/23
    • B60K35/233
    • B60K35/234
    • B60K35/235
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems, wobei ein Fahrzeug (1) sein Umfeld mit Hilfe wenigstens eines Umgebungssensors (2) erfasst, vom Umgebungssensor (2) erzeugte Sensordaten zur Erkennung und Verortung von Umgebungsobjekten (3) von einer Recheneinheit (4) ausgewertet werden, die Blickrichtung (5) der fahrzeugführenden Person (6) mittels einer Blickrichtungserfassungsvorrichtung (7) nachverfolgt wird, und wobei die Recheneinheit (4) die Blickrichtung (5) der fahrzeugführenden Person (6) mit im Umfeld verorteten Umgebungsobjekten (3) abgleicht, um zu ermitteln welches Umgebungsobjekt (3) von der fahrzeugführenden Person (6) betrachtet wird. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass auf einer Anzeigevorrichtung (8) im Fahrzeug (1) eine virtuelle Nachbildung (9) des Umfelds dargestellt wird, in der von der Recheneinheit (4) erkannte und verortete Umgebungsobjekte (3) unter Berücksichtigung ihrer Relativposition gegenüber dem Fahrzeug (1) darstellbar sind, wobei nur solche Umgebungsobjekte (3) voll dargestellt werden, die innerhalb einer gleitenden und festlegbaren vergangenen Zeitdauer nicht von der fahrzeugführenden Person (6) in der Realität betrachtet wurden.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems nach der im Oberbegriff von Anspruch 1 näher definierten Art sowie ein Fahrzeug nach der im Oberbegriff von Anspruch 4 näher definierten Art.
  • Fahrzeuge wie Pkws sind bereits heutzutage dazu in der Lage ihr Umfeld mit Hilfe von Umgebungssensoren abzutasten und hierdurch die Anwesenheit von Umgebungsobjekten im Umfeld zu erkennen. Dabei können sowohl statische als auch dynamische Umgebungsobjekte erkannt werden. Unter Berücksichtigung von Tiefeninformationen können die detektierten Umgebungsobjekte auch relativ gegenüber dem Fahrzeug verortet werden. Das Gewinnen von Tiefeninformationen ist beispielsweise unter Verwendung von Radarsensoren, Ultraschallsensoren, LiDARen und/oder Stereokameras möglich.
  • Eine Information über im Umfeld erkannte Umgebungsobjekte kann vom Fahrzeug im Rahmen eines Fahrerassistenzsystems genutzt werden. So kann beispielsweise eine Warnmeldung ausgegeben werden, wenn das Fahrzeug nicht oder nur mäßig bremsend auf einen Vordermann auffährt und dabei ein kritischer Abstand unterschritten wird. Zudem können erkannte Umgebungsobjekte auf einer Anzeigevorrichtung im Fahrzeug dargestellt werden, um die fahrzeugführende Person über die Anwesenheit des jeweiligen Umgebungsobjekts zu informieren.
  • Hierzu offenbart beispielsweise die DE 10 2017 207 960 A1 ein entsprechendes Verfahren und eine Vorrichtung zur ortsaufgelösten Detektion von fahrzeugexternen Objekten mit Hilfe eines in einem Fahrzeug verbauten Sensors. Das Verfahren sieht das Erfassen der Blickrichtung der fahrzeugführenden Person vor, wobei in den mit der Blickrichtung zusammenfallenden Umfeldbereichen eine sogenannte Interessensregion gelegt wird. Die Sensitivität der Umfeldsensoren des Fahrzeugs kann im Bereich der Interessensregion erhöht werden, um Umgebungsobjekte zuverlässiger zu detektieren. Zudem kann die Interessensregion auf einer Anzeigevorrichtung im Fahrzeug hervorgehoben dargestellt werden, um die fahrzeugführende Person auf in der Interessensregion detektierte Umgebungsobjekte hinzuweisen. Von der fahrzeugführenden Person betrachte Umgebungsobjekte können für Fahrerassistenzfunktionen vom Fahrzeug priorisiert werden, gegenüber nicht betrachteten Umgebungsobjekten.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde ein verbessertes Verfahren zum Betrieb eines Fahrerassistenzsystems anzugeben, mit dessen Hilfe der Komfort für eine fahrzeugführende Person verbessert werden kann sowie die Sicherheit im Straßenverkehr erhöht werden kann.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zum Betrieb eines Fahrerassistenzsystems mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sowie ein entsprechendes Fahrzeug mit einem solchen Fahrerassistenzsystem ergeben sich aus den hiervon abhängigen Ansprüchen.
  • Ein gattungsgemäßes Verfahren zum Betrieb eines Fahrerassistenzsystems, wobei ein Fahrzeug sein Umfeld mit Hilfe wenigstens eines Umgebungssensors erfasst, vom Umgebungssensor erzeugte Sensordaten zur Erkennung und Verortung von Umgebungsobjekten von einer Recheneinheit ausgewertet werden, die Blickrichtung der fahrzeugführenden Person mittels einer Blickrichtungserfassungsvorrichtung nachverfolgt wird, und wobei die Recheneinheit die Blickrichtung der fahrzeugführenden Person mit im Umfeld verorteten Umgebungsobjekten abgleicht, um zu ermitteln welches Umgebungsobjekt von der fahrzeugführenden Person betrachtet wird, wird erfindungsgemäß dadurch weitergebildet, dass auf einer Anzeigevorrichtung im Fahrzeug eine virtuelle Nachbildung des Umfelds dargestellt wird, in der von der Recheneinheit erkannte und verortete Umgebungsobjekte unter Berücksichtigung ihrer Relativposition gegenüber dem Fahrzeug darstellbar sind, wobei nur solche Umgebungsobjekte voll dargestellt werden, die innerhalb einer gleitenden und festlegbaren vergangenen Zeitdauer nicht von der fahrzeugführenden Person in der Realität betrachtet wurden.
  • Mit Hilfe des entsprechend des erfindungsgemäßen Verfahrens betreibbaren Fahrerassistenzsystems, wird die virtuelle Nachbildung des Umfelds auf der Anzeigevorrichtung dargestellt. Diese Nachbildung dient zur Unterstützung der fahrzeugführenden Person. So besteht ein hohes Risiko, dass die fahrzeugführende Person in der Realität zumindest einige Umgebungsobjekte übersieht. Vom Fahrzeug mit Hilfe der Umgebungssensoren erfasste Umgebungsobjekte werden auf der Anzeigevorrichtung in der virtuellen Nachbildung des Umfelds entsprechend dargestellt, sodass die fahrzeugführende Person auch nachträglich ein übersehenes Umgebungsobjekt noch wahrnehmen kann. Dabei besteht das Risiko, dass die Darstellung der virtuellen Nachbildung des Umfelds auf der Anzeigevorrichtung überfrachtet wird. Je nach Fahrsituation kann die Anzahl der Umgebungsobjekte rapide zunehmen, beispielsweise auf einen Wert von 100, 200 oder noch mehr Umgebungsobjekte. Somit würde erneut das Risiko bestehen, dass die fahrzeugführende Person auch beim Betrachten der virtuellen Nachbildung des Umfelds ein relevantes Umgebungsobjekt übersehen würde.
  • Hier setzt das erfindungsgemäße Verfahren zum Betrieb des Fahrerassistenzsystems an, um den Inhalt der virtuellen Nachbildung des Umfelds auf der Anzeigevorrichtung nutzbringend einzuschränken. Der Erfindung liegt dabei die Idee zugrunde, bereits von der fahrzeugführenden Person in der Realität wahrgenommene Umgebungsobjekte in ihrer Darstellung zu verändern oder sogar gänzlich auszublenden, da die fahrzeugführende Person ja bereits über die Anwesenheit der entsprechenden Umgebungsobjekte im Umfeld des Fahrzeugs informiert ist. Hierzu gleicht die Recheneinheit die mit Hilfe der Blickrichtungserfassungsvorrichtung erfasste Blickrichtung der fahrzeugführenden Person mit den Lagepositionen der im Umfeld des Fahrzeugs detektierten Umgebungsobjekte ab. Es werden also nur solche Umgebungsobjekte voll dargestellt, die von der fahrzeugführenden Person in der Realität noch nicht betrachtet wurden, sodass die fahrzeugführende Person auch keine Information über ihre Anwesenheit im Fahrzeugumfeld verfügt. So ist die fahrzeugführende Person dazu in der Lage, auf der Anzeigevorrichtung dargestellte Umgebungsobjekte schneller und damit zuverlässiger zu erfassen und die entsprechenden Informationen kognitiv schneller zu verarbeiten. Dies verbessert zum einen den Komfort für die fahrzeugführende Person, da entsprechende Umgebungsobjekte leichter erkannt werden können, und erhöht zudem die Sicherheit im Straßenverkehr, da die fahrzeugführende Person somit ihr Fahrverhalten an die entsprechende Fahrsituation angemessen anpassen kann.
  • Das Fahrzeug kann die unterschiedlichsten Umgebungssensoren aufweisen, wie insbesondere Radarsensoren, Ultraschallsensoren, LiDARe, Mono- und/oder Stereokameras und dergleichen. Die Umgebungssensoren können an einer beliebigen Einbaustelle am Fahrzeug vorgesehen sein, insbesondere können die Umgebungssensoren um das Fahrzeug herum verteilt sein, sodass sämtliche Bereiche des Fahrzeugumfelds erfassbar sind. Bevorzugt werden die Sensordaten unterschiedlicher Sensorsysteme miteinander fusioniert. Unterschiedliche Sensorsysteme weisen bei unterschiedlichen Randbedingungen, beispielsweise bei unterschiedlichen Witterungsbedingungen, eine abweichende Erfassungsgüte auf. Somit ist es möglich ein von einem Umgebungssensor mit eingeschränkter Erfassungsfähigkeit erkanntes Umgebungsobjekt zu validieren.
  • Bei der Blickrichtungserfassungsvorrichtung kann es sich bevorzugt um ein im Fahrzeuginnenraum angeordnetes Kamerasystem, insbesondere unter Verwendung einer zur Detektion von Infrarotlicht eingerichteten Kamera, handeln. Dabei kann optional die Szenerie des Fahrzeuginnenraums mit Hilfe eines Infrarotlichtbeleuchtungsmittels ausgeleuchtet werden, um auch bei widrigen Sichtverhältnissen, wie beispielsweise bei Dunkelheit, die Augen der fahrzeugführenden Person erfassen zu können.
  • Die entsprechenden Umgebungssensoren sowie die Blickrichtungserfassungsvorrichtung können vor dem Einsatz kalibriert worden sein.
  • Zur Berechnung der Blickrichtung können bewährte Algorithmen verwendet werden, wie beispielsweise Purkinje.
  • Die Recheneinheit hält dabei ein Referenzkoordinatensystem vor, in welches die jeweilig detektierten Umgebungsobjekte und die erfasste Blickrichtung gemeinsam eingetragen werden. Dabei kann optional eine Projektion der dreidimensional in der Umgebung abgetasteten Umgebungsobjekte auf ein sogenanntes zweidimensionales „Range Image“ erfolgen. Der mit der Blickrichtung der fahrzeugführenden Person übereinstimmende Blickrichtungsvektor wird dann entsprechend auf die durch das Range Image ausgebildete zweidimensionale Ebene ausgerichtet. Die Recheneinheit kann dann einen Schnittpunkt zwischen dem Blickrichtungsvektor und der Bildebene ermitteln, um hierdurch festzustellen, auf welches Umgebungsobjekt die fahrzeugführende Person blickt.
  • Die Umgebungsobjekte können in der virtuellen Nachbildung des Umfelds auf der Anzeigevorrichtung unterschiedlich dargestellt werden. Von der fahrzeugführenden Person in der Realität nicht betrachtete Umgebungsobjekte werden dabei voll dargestellt. Dies meint, dass die Umgebungsobjekte bzw. ein ein jeweiliges Umgebungsobjekt repräsentierendes Grafikobjekt, vollständig opak dargestellt werden. Umgebungsobjekte, die innerhalb der gleitenden Zeitdauer von der fahrzeugführenden Person in der Realität betrachtet wurden, werden hingegen nicht voll dargestellt. Dies bedeutet, dass entweder die Transparenz eines entsprechenden Grafikobjekts auf der Anzeigevorrichtung erhöht werden kann, beispielsweise auf einen Wert von 50%, 80% oder Bruchteile oder Vielfache hiervon, oder aber das das jeweilige Umgebungsobjekt repräsentierende Grafikobjekt vollständig aus der virtuellen Nachbildung des Umfelds auf der Anzeigevorrichtung ausgeblendet wird.
  • Das Ausblenden der entsprechenden Umgebungsobjekte hat dabei den Vorteil, dass eine besonders übersichtliche Darstellung auf der Anzeigevorrichtung erhalten wird. So sind besonders wenige Umgebungsobjekte enthalten, was entsprechend die Erkennbarkeit verbessert. Entsprechende Umgebungsobjekte können jedoch auch nur teilweise dargestellt werden, also beispielsweise transparent, in einer helleren Farbe, weniger stark hervorgehoben, oder dergleichen. So können dennoch bereits in der Realität erfasste von nicht erfassten Umgebungsobjekten von der fahrzeugführenden Person unterschieden werden. Eine Darstellung von vermeintlich von der fahrzeugführenden Person bereits in der Realität erkannten Umgebungsobjekten hat den Vorteil, dass die fahrzeugführende Person beim Betrachten der Anzeigevorrichtung auch über Umgebungsobjekte informiert wird, von der die Recheneinheit ausgeht, dass sie bereits erkannt wurden. Es besteht jedoch das Risiko, dass die fahrzeugführende Person das entsprechende Umgebungsobjekt tatsächlich gar nicht in der Realität erfasst hat. Somit kann die fahrzeugführende Person das Umgebungsobjekt nachträglich beim Betrachten der Anzeigevorrichtung erfassen.
  • Ergänzend wäre es denkbar, eine Mindesterfassungsdauer für die fahrzeugführende Person festzulegen, ab der die Recheneinheit ein von der fahrzeugführenden Person betrachtetes Umgebungsobjekt als tatsächlich von der fahrzeugführenden Person betrachtet erachtet. So könnte die fahrzeugführende Person beim Blicken in die Umgebung ihren Blick schnell über den Horizont schweifen lassen. So könnten sämtliche Umgebungsobjekte von der Recheneinheit fälschlicherweise als „betrachtet“ erachtet werden. Jedoch ist ein gewisser kognitiver Aufwand erforderlich, um ein einmalig betrachtetes Umgebungsobjekt auch kognitiv zu erfassen. Diese Mindesterfassungszeitdauer kann vergleichsweise klein ausfallen und beispielsweise in der Größenordnung von einigen wenigen 100 ms wie beispielsweise 500 ms liegen. Hierdurch wird das Risiko gesenkt, dass die Recheneinheit Umgebungsobjekte von der fahrzeugführenden Person als betrachtet erachtet, obwohl die fahrzeugführende Person die entsprechenden Umgebungsobjekte tatsächlich gar nicht wahrgenommen hat.
  • Ein entsprechendes Umgebungsobjekt kann erneut in die virtuelle Nachbildung des Umfelds auf der Anzeigevorrichtung inkludiert werden, wenn die fahrzeugführende Person innerhalb der gleitenden festlegbaren vergangenen Zeitdauer nicht erneut auf das jeweilige Umgebungsobjekt blickt. So besteht nämlich das Risiko, dass die fahrzeugführende Person die Anwesenheit des entsprechenden Umgebungsobjekts nach einer gewissen Zeitdauer vergisst. Ist dies der Fall, so ist entsprechend das Umgebungsobjekt auf der Anzeigevorrichtung darzustellen, damit die fahrzeugführende Person sich die Anwesenheit des Umgebungsobjekts erneut ins Bewusstsein rufen kann. Die Zeitdauer wird dabei als gleitend bezeichnet, da die Zeitdauer rückwärts in die Vergangenheit gerichtet ist und zum aktuellen Moment beginnt. Die gleitende Zeitdauer kann beispielsweise den letzten vergangen 30 Sekunden, der letzten Minute oder auch Bruchteilen oder Vielfachen hiervon entsprechen.
  • Eine vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens sieht dabei vor, dass, sobald die fahrzeugführende Person in der Realität auf ein von der Recheneinheit erkanntes Umgebungsobjekt blickt, die Recheneinheit in einer die von der virtuellen Nachbildung des Umfelds auszuschließenden Umgebungsobjekte umfassenden Datenbank, insbesondere in Form einer Tabelle, einen Eintrag für das Umgebungsobjekt erzeugt und diesem einen Marker zuordnet, wobei der Marker mit einer Marker individuellen Verfallsdauer behaftet ist, und die Recheneinheit den Eintrag des Umgebungsobjekts beim Verfallen des Markers aus der Datenbank löscht, und wobei die Verfallsdauer beim erneuten Betrachten des Umgebungsobjekts in der Realität durch die fahrzeugführende Person zurückgesetzt wird. Dies beschreibt eine besonders robuste Implementierung der im vorigen angegebenen Verfahrensschritte.
  • Die Verfallsdauer des Markers entspricht dann der gleitenden und festlegbaren vergangenen Zeitdauer.
  • Entsprechend einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens ist die gleitende Zeitdauer abhängig ist von:
    • - der aktuellen Fortbewegungsgeschwindigkeit des Fahrzeugs;
    • - dem aktuell befahrenen Straßentyp;
    • - der Gesamtanzahl der von der Recheneinheit im Umfeld erkannten Umgebungsobjekte;
    • - einer manuellen Nutzervorgabe; und/oder
    • - der Merkfähigkeit der fahrzeugführenden Person.
  • Somit ist es möglich die Zeitdauer, wann ein einmal betrachtetes Umgebungsobjekt erneut in die virtuelle Nachbildung des Umfelds auf der Anzeigevorrichtung inkludiert werden soll, in Abhängigkeit der Fahrsituation auszugestalten. Handelt es sich um eine stressige Fahrsituation, so können entsprechende Umgebungsobjekte somit schneller wieder auf der Anzeigevorrichtung dargestellt werden, da hier das Risiko besonders hoch ist, dass die fahrzeugführende Person aufgrund der hohen Fahrgeschwindigkeit oder der schieren Anzahl der Umgebungsobjekte in der Realität entsprechende Umgebungsobjekte übersieht. Dazu kann auch der aktuell befahrene Straßentyp berücksichtigt werden, wie beispielsweise eine Spielstraße, eine Hauptstraße innerorts, oder eine Autobahn. Das Verkehrsgeschehen auf einer Spielstraße oder auf einer Autobahn ist im Vergleich zum hektischen Innenstandverkehr eher ruhig, sodass hier entsprechend die Umgebungsobjekte in der virtuellen Nachbildung des Umfelds auf der Anzeigevorrichtung länger ausgeblendet werden können.
  • Auch kann die fahrzeugführende Person eine manuelle Nutzervorgabe machen, um der Recheneinheit mitzuteilen, wie lange, insbesondere in Abhängigkeit der Fahrsituation, entsprechende Umgebungsobjekte ein- oder auszublenden sind. Die gleitende Zeitdauer kann die Recheneinheit auch automatisch in Abhängigkeit der Merkfähigkeit der fahrzeugführenden Person ermitteln. Bei Personen, die sich Dinge besonders gut merken können, kann also die gleitende Zeitdauer länger ausfallen. Um die Merkfähigkeit zu testen, kann beispielsweise im Fahrzeug ein entsprechender Gedächtnistest durchgeführt werden. Das Ergebnis des Gedächtnistests kann mit einem Nutzerkonto verknüpft werden. Die fahrzeugführende Person kann über dieses Nutzerkonto verfügen und sich beispielsweise mit einem persönlichen Namen und Passwort oder auch mittels biometrischer Merkmale an der Recheneinheit anmelden. Somit kann die jeweilige nutzerspezifische gleitende Zeitdauer erhoben und entsprechend den Nutzern zugeordnet werden.
  • Bei einem Fahrzeug, umfassend wenigstens einen Umgebungssensor, eine Blickrichtungserfassungsvorrichtung, eine Recheneinheit und eine Anzeigevorrichtung, sind erfindungsgemäß der wenigstens eine Umgebungssensor, die Blickrichtungserfassungsvorrichtung, die Recheneinheit und die Anzeigevorrichtung zur Ausführung eines im vorigen beschriebenen Verfahren eingerichtet. Bei dem Fahrzeug kann es sich um ein beliebiges Straßenfahrzeug wie einen Pkw, Lkw, Transporter, Bus oder dergleichen handeln. Generell könnte es sich auch um ein Wasserfahrzeug oder Luftfahrzeug handeln. Die Darstellung der virtuellen Nachbildung des Umfelds kann auf einer beliebigen Anzeigevorrichtung im Fahrzeug erfolgen. So kann beispielsweise das Display eines Kombiinstruments, der Headunit, ein dediziertes Beifahrerdisplay oder auch ein Headup-Display verwendet werden.
  • Die Gesamtheit aus Umgebungssensoren, Blickrichtungserfassungsvorrichtung, Recheneinheit und Anzeigevorrichtung bildet dann das entsprechende Fahrerassistenzsystem aus. Auf der Recheneinheit wird ein entsprechender Programmcode vorgehalten, dessen Ausführung durch eine Ausführungseinheit der Recheneinheit das Bereitstellen der entsprechenden Verfahrensschritte zum Betrieb des Fahrerassistenzsystems erlaubt. Entsprechend verfügt die Recheneinheit über ein computerlesbares Speichermedium, auf dem dieser Programmcode gespeichert ist.
  • Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens zum Betrieb des Fahrerassistenzsystems sowie des Fahrzeugs ergeben sich auch aus den Ausführungsbeispielen, welche nachfolgend unter Bezugnahme auf die Figuren näher beschrieben werden.
  • Dabei zeigen:
    • 1 eine schematische Draufsicht auf eine Verkehrssituation und eine Darstellung der Verkehrssituation auf einer fahrzeuginternen Anzeigevorrichtung; und
    • 2 eine als Tabelle schematisierte Darstellung einer Datenbank.
  • 1 zeigt ein auf einer Straße 14 mit mehreren Fahrspuren 15 fahrendes erfindungsgemäßes Fahrzeug 1. Im Umfeld des Fahrzeugs 1 befinden sich vielfältige Umgebungsobjekte 3 wie weitere Fahrzeuge und ein Verkehrszeichen zum Anzeigen des geltenden Tempolimits.
  • Das Fahrzeug 1 umfasst wenigstens einen Umgebungssensor 2, eine Blickrichtungserfassungsvorrichtung 7, eine Recheneinheit 4 und eine Anzeigevorrichtung 8, welche gemeinsam ein Fahrerassistenzsystem ausbilden bzw. zur Ausbildung eines Fahrerassistenzsystems dienen. Als Umgebungssensoren 2 kann das Fahrzeug 1 beispielsweise einen oder mehrere Radarsensoren, Ultraschallsensoren, LiDARe, und/oder Kameras aufweisen. Von den Umgebungssensoren 2 erzeugte Sensordaten werden von der Recheneinheit 4 ausgewertet. Hierdurch ist es möglich die jeweiligen Umgebungsobjekte 3 zu erkennen, zu klassifizieren und relativ gegenüber dem Fahrzeug 1 in der Umgebung zu verorten. Die Recheneinheit 4 dient ferner zum Ansteuern der Anzeigevorrichtung 8 und zur Darstellung einer virtuellen Nachbildung 9 des Umfelds. Das Fahrzeug 1 kann dabei beispielsweise durch das Wählen einer anderen Farbe hervorgehoben gegenüber den anderen Umgebungsobjekten 3 dargestellt werden, was in 1 durch eine Schraffur angedeutet ist. Die virtuelle Nachbildung 9 des Umfelds auf der Anzeigevorrichtung 8 dient zum Assistieren der fahrzeugführenden Person 6 des Fahrzeugs 1, um der fahrzeugführenden Person 6 das nachträgliche Erfassen übersehener Umgebungsobjekte 3 zu ermöglichen.
  • In Abhängigkeit der Verkehrssituation, kann die Darstellung auf der Anzeigevorrichtung 8 schnell überfrachtet wirken. So besteht erneut das Risiko, dass die fahrzeugführende Person 6, auch beim Blicken auf die Anzeigevorrichtung 8, relevante Informationen verpasst. Um dies zu vermeiden wird ein im Rahmen der Erfindung beschriebenes Verfahren zum Betrieb des Fahrerassistenzsystems vorgestellt.
  • Hierzu wird die Blickrichtung 5 der fahrzeugführenden Person 6 mittels der Blickrichtungserfassungsvorrichtung 7 erfasst und nachverfolgt. Die Recheneinheit 4 gleicht dann die Blickrichtung 5 mit den im Umfeld erkannten und verorteten Umgebungsobjekten 3 ab und ist hierdurch dazu in der Lage zu erkennen, wann und welches Umgebungsobjekt 3 von der fahrzeugführenden Person 6 betrachtet wird bzw. wurde. Umgebungsobjekte 3, welche innerhalb einer gleitenden und festlegbaren vergangenen Zeitdauer von der fahrzeugführenden Person 6 in der Realität betrachtet wurden, werden von der Darstellung der virtuellen Nachbildung 9 des Umfelds auf der Anzeigevorrichtung 8 ausgespart, was in 1 durch die im unteren Bereich dargestellte Anzeigevorrichtung 8 veranschaulicht wird. Dabei werden die jeweiligen auszublendenden Umgebungsobjekte 3 nicht voll dargestellt. Dies ist durch eine gestrichelte Darstellung der Umgebungsobjekte 3 auf der Anzeigevorrichtung 8 angedeutet. Die jeweiligen Umgebungsobjekte 3 könnten (teil)transparent dargestellt werden oder aber vollständig ausgeblendet werden.
  • So werden nur noch solche Umgebungsobjekte 3 auf der Anzeigevorrichtung 8 dargestellt, die von der fahrzeugführenden Person 6 innerhalb der gleitenden Zeitdauer nicht in der Realität betrachtet wurden. Dies trifft insbesondere bei dem in 1 gezeigten Ausführungsbeispiel auf ein sich im toten Winkel des Fahrzeugs 1 befindliches weiteres Fahrzeug zu. Die Recheneinheit 4 kann überprüfen, ob die fahrzeugführende Person 6 das entsprechende Objekt durch einen Blick in den Seitenspiegel, Rückspiegel und/oder einen Schulterblick wahrgenommen hat. Somit wird die Wahrscheinlichkeit erhöht, dass die fahrzeugführende Person 6 eine Information über die Anwesenheit des sich im toten Winkel befindlichen weiteren Fahrzeugs erhält, was letztendlich die Sicherheit im Straßenverkehr erhöht.
  • Die Recheneinheit 4 kann im Umfeld detektierte Umgebungsobjekte 3 in einer ersten Datenbank erfassen. Die Recheneinheit 4 kann eine zweite Datenbank bereitstellen, in der dann aus der virtuellen Nachbildung 9 des Umfelds auf der Anzeigevorrichtung 8 auszusparende bzw. nicht voll darzustellende Umgebungsobjekte 3 eingetragen werden. Durch einen Abgleich dieser beiden Datenbanken kann die Recheneinheit 4 dann ermitteln, welche Umgebungsobjekte 3 entsprechend auf der Anzeigevorrichtung 8 dargestellt werden sollen und welche nicht.
  • 2 zeigt dabei eine Ausführung dieser zweiten Datenbank in Form einer Tabelle 10. Die Recheneinheit 4 verfolgt für jedes Umgebungsobjekt 3 nach, ob es durch die fahrzeugführende Person 6 innerhalb der gleitenden Zeitdauer betrachtet wird. Ist dies der Fall, so trägt die Recheneinheit 4 in die Tabelle 10 einen entsprechenden Eintrag 11 für das jeweilige Umgebungsobjekt 3 ein. Beispielhaft ist in der ersten Spalte der Tabelle 10 eine eindeutige Identifikationsnummer wie eine Objekt-ID referenziert. Für jeden Eintrag 11 ordnet die Recheneinheit 4 dem jeweiligen Umgebungsobjekt 3 einen Marker 12 zu, wobei der Marker 12 mit einer Marker individuellen Verfallsdauer 13 behaftet ist. Beim Verfallen des Markers 12 löscht die Recheneinheit 4 den jeweiligen Eintrag 11 aus der zweiten Datenbank. Die Verfallsdauer 13 wird beim erneuten Betrachten des jeweiligen Umgebungsobjekts 3 durch die fahrzeugführende Person 6 in der Realität zurückgesetzt. Die entsprechende Verfallsdauer 13, also die gleitende Zeitdauer, kann in Abhängigkeit unterschiedlicher Größen für verschiedene Umgebungsobjekte 3 unterschiedlich hoch gewählt werden. In 2 sind einige Beispiele gezeigt, wobei die jeweiligen Verfallsdauern 13 rückwärts bis 0 Sekunden zählen, wobei beim Erreichen von 0 Sekunden der jeweilige Marker 12 verfällt.
  • Mit Hilfe des erfindungsgemäßen Verfahrens zum Betrieb des Fahrerassistenzsystems ist eine fahrerspezifische Anpassung an die Darstellung auf der Anzeigevorrichtung 8 möglich. Es erfolgt eine übersichtliche Visualisierung des Verkehrsgeschehens. Es werden ausschließlich relevante Inhalte dargestellt. Zum Detektieren und Verorten der Umgebungsobjekte 3 sowie zum Erfassen der Blickrichtung 5 der fahrzeugführenden Person 6 können bewährte Algorithmen eingesetzt werden. Somit ist keine Anpassung der Hardware des Fahrzeugs 1 erforderlich. Es muss lediglich ein entsprechender Programmcode in die Recheneinheit 4 eingebracht werden, dessen Ausführung die Bereitstellung der entsprechenden Verfahrensschritte erlaubt. Somit lässt sich das erfindungsgemäße Verfahren mit geringem Aufwand in Fahrzeuge 1 implementieren. Zudem ist eine situative Anpassung des darzustellenden Inhalts möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017207960 A1 [0004]

Claims (4)

  1. Verfahren zum Betrieb eines Fahrerassistenzsystems, wobei ein Fahrzeug (1) sein Umfeld mit Hilfe wenigstens eines Umgebungssensors (2) erfasst, vom Umgebungssensor (2) erzeugte Sensordaten zur Erkennung und Verortung von Umgebungsobjekten (3) von einer Recheneinheit (4) ausgewertet werden, die Blickrichtung (5) der fahrzeugführenden Person (6) mittels einer Blickrichtungserfassungsvorrichtung (7) nachverfolgt wird, und wobei die Recheneinheit (4) die Blickrichtung (5) der fahrzeugführenden Person (6) mit im Umfeld verorteten Umgebungsobjekten (3) abgleicht, um zu ermitteln welches Umgebungsobjekt (3) von der fahrzeugführenden Person (6) betrachtet wird, dadurch gekennzeichnet, dass auf einer Anzeigevorrichtung (8) im Fahrzeug (1) eine virtuelle Nachbildung (9) des Umfelds dargestellt wird, in der von der Recheneinheit (4) erkannte und verortete Umgebungsobjekte (3) unter Berücksichtigung ihrer Relativposition gegenüber dem Fahrzeug (1) darstellbar sind, wobei nur solche Umgebungsobjekte (3) voll dargestellt werden, die innerhalb einer gleitenden und festlegbaren vergangenen Zeitdauer nicht von der fahrzeugführenden Person (6) in der Realität betrachtet wurden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass sobald die fahrzeugführende Person (6) in der Realität auf ein von der Recheneinheit (4) erkanntes Umgebungsobjekt (3) blickt, die Recheneinheit (4) in einer die von der virtuellen Nachbildung (9) des Umfelds auszuschließenden Umgebungsobjekte (3) umfassenden Datenbank, insbesondere in Form einer Tabelle (10), einen Eintrag (11) für das Umgebungsobjekt (3) erzeugt und diesem einen Marker (12) zuordnet, wobei der Marker (12) mit einer Marker individuellen Verfallsdauer (13) behaftet ist, und die Recheneinheit (4) den Eintrag (11) des Umgebungsobjekts (3) beim Verfallen des Markers (12) aus der Datenbank löscht, und wobei die Verfallsdauer beim erneuten Betrachten des Umgebungsobjekts (3) in der Realität durch die fahrzeugführende Person (6) zurückgesetzt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die gleitende Zeitdauer abhängig ist von: - der aktuellen Fortbewegungsgeschwindigkeit des Fahrzeugs (1); - dem aktuell befahrenen Straßentyp; - der Gesamtanzahl der von der Recheneinheit (4) im Umfeld erkannten Umgebungsobjekte (3); - einer manuellen Nutzervorgabe; und/oder - der Merkfähigkeit der fahrzeugführenden Person (6).
  4. Fahrzeug (1), umfassend wenigstens einen Umgebungssensor (2), eine Blickrichtungserfassungsvorrichtung (7), eine Recheneinheit (4) und eine Anzeigevorrichtung (8), dadurch gekennzeichnet, dass der wenigstens eine Umgebungssensor (2), die Blickrichtungserfassungsvorrichtung (7), die Recheneinheit (4) und die Anzeigevorrichtung (8) zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 3 eingerichtet sind.
DE102023003828.8A 2023-09-21 2023-09-21 Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug Pending DE102023003828A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023003828.8A DE102023003828A1 (de) 2023-09-21 2023-09-21 Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023003828.8A DE102023003828A1 (de) 2023-09-21 2023-09-21 Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102023003828A1 true DE102023003828A1 (de) 2023-11-16

Family

ID=88510286

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023003828.8A Pending DE102023003828A1 (de) 2023-09-21 2023-09-21 Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug

Country Status (1)

Country Link
DE (1) DE102023003828A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017207960A1 (de) 2017-05-11 2018-11-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017207960A1 (de) 2017-05-11 2018-11-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors

Similar Documents

Publication Publication Date Title
DE102019208663B4 (de) Verfahren zur Unterstützung eines Fahrers hinsichtlich für eine Verkehrssituation relevanter Objekte und Kraftfahrzeug
EP1642770B1 (de) Verfahren zur Lenkung der Aufmerksamkeit eines Fahrers eines Fahrzeugs auf Objekte in einem Bild
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102018213230A1 (de) Verfahren und Steuervorrichtung zum Warnen eines Fahrers eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer derartigen Steuervorrichtung
DE102017213177A1 (de) Verfahren zum Betreiben eines Bildschirms eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102013210729A1 (de) Verfahren und Vorrichtung zum Signalisieren eines visuell zumindest teilweise verdeckten Verkehrsobjekts für einen Fahrer eines Fahrzeugs
DE102017207960A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
DE102017204529A1 (de) Anordnung zur Aufmerksamkeitssteuerung des Fahrers eines Fahrzeugs und Verfahren zur Ansteuerung einer Anordnung zur Aufmerksamkeitssteuerung des Fahrers eines Fahrzeugs
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
EP3749541A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102008054041B3 (de) Verfahren zur kombinierten Ausgabe eines Bildes und einer ein Verkehrszeichen betreffenden Information, sowie Kraftfahrzeug hierfür
DE102009003220B4 (de) Verfahren zur Kollisionswarnung sowie Kollisionswarneinrichtung
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102020110417A1 (de) Verfahren und System zur Assistenz eines Fahrers
WO2019048623A1 (de) Assistenzsystem für ein fahrzeug
DE102023003828A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Fahrzeug
DE102022002710A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung
DE102020106850A1 (de) Verfahren zum Unterstützen eines Insassen bei einem Aussteigen aus einem Fahrzeug durch Anpassung einer Anzeige, Fahrerassistenzsystem sowie Fahrzeug
DE102018200980B4 (de) Verfahren zum Ermitteln einer Objektwahrnehmungswahrscheinlichkeit, mit welcher ein Fahrer eines Kraftfahrzeugs Objekte in einem Umfeld des Kraftfahrzeugs wahrnimmt, sowie Steuervorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE102016107530A1 (de) Vorschriftsgeschwindigkeitsanzeigevorrichtung eines Fahrzeugs
DE112020002353T5 (de) Anzeigevorrichtung
DE102018127471A1 (de) Verfahren und System zum Warnen eines Fahrers eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication