DE102020211722A1 - Verfahren und System zur verbesserten Fahrerassistenz - Google Patents

Verfahren und System zur verbesserten Fahrerassistenz Download PDF

Info

Publication number
DE102020211722A1
DE102020211722A1 DE102020211722.5A DE102020211722A DE102020211722A1 DE 102020211722 A1 DE102020211722 A1 DE 102020211722A1 DE 102020211722 A DE102020211722 A DE 102020211722A DE 102020211722 A1 DE102020211722 A1 DE 102020211722A1
Authority
DE
Germany
Prior art keywords
ego vehicle
environmental
driver
environmental features
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020211722.5A
Other languages
English (en)
Inventor
Christian Ruppel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102020211722.5A priority Critical patent/DE102020211722A1/de
Publication of DE102020211722A1 publication Critical patent/DE102020211722A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18027Drive off, accelerating from standstill
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen mit den folgenden Schritten:- Aufzeichnen (S1) zumindest eines Umgebungsbildes mittels eines in Fahrtrichtung des Ego-Fahrzeugs ausgerichteten optischen Sensors (2) und/oder eines seitlich und/oder rückwärtig ausgerichteten Umfelderfassungssensors (4);- Detektieren (S2) von Umfeldmerkmalen in dem zumindest einen Umgebungsbild;- Detektieren (S3) von zumindest einer Fahrspur und/oder Fahrbahn;- Erstellen (S4) eines Umfeldmodells mit einer Grid-Karte und Eintragen der Detektionen in Grid-Zellen der Grid-Karte;- Lokalisieren (S5) des Ego-Fahrzeugs in der Grid-Karte;- Klassifizieren (S6) der Umfeldmerkmale und Ausgeben der klassifizierten Umfeldmerkmale an den Fahrer mittels einer Anzeigeeinrichtung (6);- Bestimmen (S7) einer aktuellen Fahrsituation;- Auswählen (S8) zumindest eines für die aktuelle Fahrsituation relevanten Umfeldmkermals durch den Fahrer oder mittels eines Algorithmus;- Steuern (S9) zumindest einer Fahrfunktion des Ego-Fahrzeugs basierend auf der Klassifizierung und Auswahl des Umfeldmerkmals.

Description

  • Die Erfindung betrifft ein Verfahren und ein System zur verbesserten Fahrerassistenz.
  • Aus dem Stand der Technik sind allgemein Systeme zum Erkennen von Objekten und Merkmalen der Umgebung sowie Systeme zum Steuern einer bestimmten Fahrfunktion eines Fahrzeugs bekannt. Beispielsweise sind Systeme bekannt, welche ein Ampelsignal erfassen können, um bereits vor dem Grün-Signal den Verbrennungsmotor zu starten. Dies ist beispielsweise in der Druckschrift DE102015201344B4 offenbart.
  • Weiterhin ist aus der DE112016005654T5 ein Steuerungssystem bekannt, welches dazu ausgestaltet ist basierend auf einem Umgebungsanzeigesignal zu bestimmen ob ein Fahrzeug abgebremst werden soll und falls notwendig das Fahrzeug abzubremsen.
  • Aus der US2009174573A1 ist ein System mit zumindest einer Infrarotaufnahmeeinrichtung bekannt, welches den Wechsel einer Ampelschaltung feststellt und bei einer Änderung der Ampelfarbe den Fahrer warnen bzw. informieren kann.
  • In der DE102014204059A1 ist unter anderem ein Fahrerassistenzsystem beschrieben, welches mittels eines ersten Sensors ein Umgebungsbild aufnimmt und mittels eines Prozessors eine Ampel in dem Bild detektiert und weiterhin eine Zustandsänderung der detektierten Ampel bestimmt. Weiterhin soll hier eine Geschwindigkeit und ein Abstand des Fahrzeugs zum Zeitpunkt der Zustandsänderung ermittelt werden, um zu ermitteln, wann das Fahrzeug die Ampel passieren wird und ob die derzeitige Phase der Ampel dafür ausreichend ist.
  • Nachteilig bei den genannten Systemen und Verfahren ist allerdings, dass diese auf spezielle Fahrsituationen ausgelegt sind und beispielsweise bei Fehldetektionen oder einer Detektion der falschen Ampel keine zuverlässige Fahrerassistenz bereitstellen können.
  • Es ist demnach eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System bereit zu stellen mittels welchen eine verbesserte Fahrerassistenz in bestimmten Fahrsituationen bereitgestellt wird.
  • Erste Überlegungen waren dahingehend, dass ein Fahrer an einer Kreuzung mit einer Ampel-Anlage die für ihn relevante Ampel ggf. nicht sehen kann, oder aber bei mehreren Ampeln die falsche Ampel im Blick behält. Dies kann dazu führen, dass entweder eine Grün-Phase der Ampel nicht erkannt wird und so eine Verkehrsbehinderung entsteht oder, dass fälschlicherweise eine Grün-Phase angenommen wird, was zu schweren Unfällen führen kann. Dies kann auch durch eine Fehldetektion einer Kamera hervorgerufen werden, wenn basierend auf der Detektion der Kamera das Fahrzeug gesteuert wird oder ein Fahrer auf die Grün-Phase aufmerksam gemacht wird. Weiterhin kann es sein, dass der Fahrer beim Abbiegen beispielsweise einen Radfahrer übersieht, da der Fahrer durch mehrere Ampelanlagen abgelenkt ist, um die richtige Grünphase zu erkennen. Daher ist es notwendig, eine Ampel bzw. allgemein alle relevanten Merkmale der Umgebung des Fahrzeugs zweifelsfrei der Fahrsituation zuzuordnen, so dass der Fahrer in der entsprechenden Situation entsprechend unterstützt werden kann.
  • Es wird demnach erfindungsgemäß ein Verfahren zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen mit den folgenden Schritten:
    • - Aufzeichnen zumindest eines Umgebungsbildes mittels eines in Fahrtrichtung des Ego-Fahrzeugs ausgerichteten optischen Sensors und/oder eines seitlich und/oder rückwärtig ausgerichteten Umfelderfassungssensors;
    • - Detektieren von Umfeldmerkmalen in dem zumindest einen Umgebungsbild;
    • - Detektieren von zumindest einer Fahrspur und/oder Fahrbahn;
    • - Erstellen eines Umfeldmodells mit einer Grid-Karte und Eintragen der Detektionen in Grid-Zellen der Grid-Karte;
    • - Lokalisieren des Ego-Fahrzeugs in der Grid-Karte;
    • - Klassifizieren der Umfeldmerkmale und Ausgeben der klassifizierten Umfeldmerkmale an den Fahrer mittels einer Anzeigeeinrichtung;
    • - Bestimmen einer aktuellen Fahrsituation;
    • - Auswählen zumindest eines für eine aktuelle Fahrsituation relevanten Umfeldmkermals durch den Fahrer oder mittels eines Algorithmus;
    • - Steuern zumindest einer Fahrfunktion des Ego-Fahrzeugs basierend auf der Klassifizierung und Auswahl des Umfeldmerkmals.
  • Der optische Sensor ist hierbei bevorzugt als Mono- oder Stereokamera ausgestaltet. Der seitlich und/oder rückwärtig ausgerichtete Sensor kann beispielsweise ebenfalls eine Kamera sein. Denkbar wäre auch die Verwendung eines Radar-, Lidar-, oder Ultraschallsensors. Denkbar wäre auch, dass die beiden Sensoren Bestandteil eines Surroundview-Systems sind. Der seitlich und/oder rückwärtig ausgerichtete Sensor kann vorteilhafterweise z.B. bei Abbiegevorgängen herannahende Radfahrer oder Fußgänger oder allgemein so genannte „Vulnerable Road Users“ kurz VRUs erkennen.
  • Eine Fahrsituation im Lichte der Erfindung beschreibt beispielsweise das Anhalten an einer Ampel, das Abbiegen an einer Ampel, das Anhalten vor einem Bahnübergang, das Anhalten vor einem Garagentor oder allgemein einem Zufahrtstor. Denkbar wäre auch das Anhalten an Fußgängerüberwegen.
  • Die Umfeldmerkmale können beispielsweise in dem Kamerabild mittels eines Algorithmus ermittelt werden. Ebenso verhält es sich mit den Detektionen anderer Sensortypen. Weiterhin kann aus dem Kamerabild eine Fahrspur bzw. eine Fahrbahn ermittelt werden. Dies kann beispielsweise mittels einer Semantischen Segmentierung und/oder einer Keypoint Regression durchgeführt werden. Bei der semantischen Segmentierung werden in einer möglichen Ausgestaltung die Flächen zwischen den Fahrspurmarkierungen mittels der Helligkeitsunterschiede zwischen Fahrspurmarkierung und Fahrspur ermittelt.
  • Mit den Detektierten Merkmalen und der Fahrspur bzw. Fahrbahn wird ein Umfeldmodell erstellt. Dieses Umfeldmodell weist eine Grid-Karte mit einer Vielzahl von Grid-Zellen auf. Jede der Grid-Zellen kann beispielsweise einen der Werte „Frei“, „Belegt“ oder „Unbestimmt“ aufweisen. Diese Werte werden durch das Eintragen der Detektionen in die Grid-Karte festgelegt. Alle erkannten Merkmale generieren dabei den Status „Belegt“. Die erkannte Fahrspur bzw. Fahrbahn wird, sofern keine weiteren Verkehrsteilnehmer detektiert werden, als „Frei“ gekennzeichnet.
  • Die Klassifizierung kann beispielsweise die Unterscheidung der Merkmale in statische oder dynamische Merkmale umfassen. Statisch bedeutet hierbei, dass die Merkmale ortsgebunden sind. Etwaige Zustandsänderungen sind hierbei allerdings möglich. Dynamische Merkmale wären demnach nicht ortsgebundene Merkmale, welche sich mit einer bestimmten Geschwindigkeit fortbewegen.
  • Wenn die Merkmale klassifiziert sind werden diese auf einer Anzeigeeinrichtung angezeigt. Nun besteht die Möglichkeit für den Fahrer, das für die aktuelle Fahrsituation relevante Merkmal auszuwählen. Es besteht auch die Möglichkeit, dass die Auswahl automatisch mittels eines Algorithmus getroffen wird, wenn entweder ein entsprechender Betriebsmodus des Systems eingestellt ist oder beispielsweise der Fahrer nicht innerhalb eines voreinstellbaren Zeitraums eine Auswahl trifft. Dies könnte bspw. ein Zeitraum von einigen Sekunden sein, z.B. 5 Sekunden.
  • Die Bestimmung der Fahrsituation wird aus den detektierten und klassifizierten Umfeldmerkmalen hergeleitet.
  • Bevorzugt werden nur die Umgebungsmerkmale ausgegeben, die sich zum Zeitpunkt der Klassifizierung im Erfassungsbereich zumindest eines der Sensoren befinden.
  • Abschließend wird eine Fahrfunktion basierend auf der Klassifizierung und der Auswahl des zumindest einen Umfeldmerkmals angesteuert. Diese Fahrfunktion kann beispielsweise ein Abbiegeassistent sein, welcher ggf. automatisch den Blinker aktiviert und speziell vor Fahrradfahrern oder Fußgängern warnt, welche die Abbiegetrajektorie des Fahrzeugs beim Abbiegen kreuzen würden. Hier wäre des für die Fahrfunktion relevante Umfeldmerkmal eine Ampel für die Abbiegespur. Diese kann beispielsweise zusammen mit anderen Ampeln einer Ampelanlage für mehrere Spuren in dem Anzeigedisplay angezeigt werden. Durch Auswahl der speziellen Ampel, die zu der Abbiegespur gehört, wird das entsprechende Fahrerassistenzsystem aktiviert. Denkbar wäre auch, den Fahrer auf die Grünphase hinzuweisen. Dies ist insbesondere dann vorteilhaft, wenn die Ampel nicht im direkten Sichtfeld des Fahrers ist oder beispielsweise durch den Rückspiegel verdeckt ist.
  • Bevorzugt handelt es sich in einer Ausführungsform der Erfindung bei den Umfeldmerkmalen um statische Objekte wie beispielsweise Ampelanlagen, Bahnschranken, Garagentore, ein Fußgängerüberweg und/oder dynamische Objekte wie beispielsweise Fußgänger, Radfahrer oder andere Verkehrsteilnehmer. Basierend auf den detektierten Umfeldmerkmalen oder dem zumindest einen detektierten Umfeldmerkmal wird, wie bereits beschrieben, die aktuelle Fahrsituation bestimmt. Dies ist vorteilhaft, da je nach Fahrsituation eine andere Fahrerassistenz bereitgestellt werden muss. Bei einer Bahnschranke muss beispielsweise dem Fahrer signalisiert werden, wenn die Bahnschranke geöffnet wird und ggf. der Motor gestartet werden. Bei einer Ampelanlage hingegen, insbesondere bei einem bevorstehenden Abbiegevorgang muss zunächst die korrekte Ampel ausgewählt und bei einem Abbiegevorgang der seitliche/rückwärtige Bereich auf herannahende Radfahrer oder Fußgänger überwacht werden.
  • In einer bevorzugten Ausführungsform wird die Relevanz für die aktuelle Fahrsituation ermittelt, indem die Position der Umfeldmerkmale und die Position des Ego-Fahrzeugs in ein Verhältnis gesetzt werden. Auf diese Weise kann beispielsweise ermittelt werden, ob die detektierte Ampel für die Ego-Fahrspur relevant ist oder ob ein detektierter Radfahrer die Trajektorie des Fahrzeugs im weiteren Verlauf kreuzen könnte. Die Position des Ego-Fahrzeugs und die Position der Umfeldmerkmale lassen sich mittels der Grid-Karte schnell und zuverlässig bestimmen, da hier die Position der Grid-Zellen zueinander betrachtet und in ein Verhältnis zueinander gesetzt werden kann oder bei dynamischen Objekten basierend auf einer getrackten Bewegung eine Prädiktion der weiteren Trajektorie durchgeführt werden kann.
  • In einer weiteren bevorzugten Ausführungsform ist vorgesehen, dass die Klassifizierung der Umfeldmerkmale weiterhin eine Bewertung des jeweiligen Zustands der Umfeldmerkmale umfasst. Der Zustand kann je nach Art des Umfeldmerkmals beispielsweise den Zustand geschlossen umfassen, wenn es sich beispielsweise um ein Gragentor oder eine Bahnschranke handelt. Bei Ampeln kann der Zustand die jeweilige aktuelle Ampelschaltung beschreiben, „Grün“, „Gelb“ oder „Rot“. Denkbar wäre auch, dass bei einer detektierten Ampel ein Umschalten der Ampel ermittelt oder direkt von der Ampel mittels V2X-Kommunikation abgerufen wird. Für die Ermittlung können Parameter wie die Eigengeschwindigkeit des Ego-Fahrzeugs sowie die bereits detektierte Dauer der Ampelphase sowie die Distanz zur Ampel herangezogen werden. So kann das Fahrzeug beispielsweise auf eine endende Grünphase vorbereitet werden und beispielsweise die Geschwindigkeit reduziert werden, wenn die Zeit auf Grund der Entfernung zur Ampel nicht ausreicht, diese innerhalb der Grünphase zu passieren. Bei einem Fußgängerüberweg wären mögliche Zustände „frei“, „belegt“ oder „in Kürze belegt“, wobei der Zustand „in Kürze belegt“ eine Prädiktion einer Bewegung von detektierten Fußgängern oder Radfahrern umfasst. Beispielsweise kann davon ausgegangen werden, wenn Personen am Rand eines Fußgängerüberwegs detektiert werden, dass diese im Begriff sind die Straße zu überqueren. Daraufhin kann das System bereits vorläufig die Geschwindigkeit reduzieren und bei Bedarf anhalten bzw. den Fahrer auf die Situation aufmerksam machen.
  • Weiterhin wird erfindungsgemäß ein System zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen vorgeschlagen. Das System umfasst dabei zumindest einen ersten in Fahrtrichtung eines Ego-Fahrzeugs ausgerichteten optischen Sensor zur Umfelderfassung, sowie zumindest einen zweiten Umfelderfassungssensor zur Aufnahme eines seitlichen und/oder rückwärtigen Bereichs des Ego-Fahrzeugs, wobei der optische Sensor dazu ausgestaltet ist, eine Fahrspur des Ego-Fahrzeugs sowie Umfeldmerkmale zu erkennen, wobei das System weiterhin eine Recheneinrichtung umfasst, mittels welcher eine Klassifizierung der Umfeldmerkmale durchführbar ist wobei das System weiterhin eine Anzeigeeinrichtung zur Anzeige der klassifizierten Umfeldmerkmale aufweist, und wobei weiterhin eine Steuereinrichtung vorgesehen ist, welche in Abhängigkeit der Klassifizierung des zumindest einen Umfeldmerkmals zumindest eine bestimmte Fahrfunktion des Ego-Fahrzeugs steuert.
  • Weitere vorteilhafte Ausgestaltungen und Ausführungsformen sind Bestandteil der Figuren. Darin zeigen:
    • 1: ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens;
    • 2: eine schematische Darstellung eines Systems gemäß einer Ausführungsform der Erfindung.
  • 1 zeigt ein Verfahren zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen. In einem ersten Schritt S1 wird zumindest ein Umgebungsbild mittels eines in Fahrtrichtung des Ego-Fahrzeugs ausgerichteten optischen Sensors und/oder eines seitlich und/oder rückwärtig ausgerichteten Umfelderfassungssensors aufgezeichnet. In Schritt S2 werden Umfeldmerkmale in dem zumindest einen Umgebungsbild detektiert. In einem weiteren Schritt S3 wird zumindest eine Fahrspur und/oder Fahrbahn detektiert. In einem darauf folgenden Schritt S4 wird ein Umfeldmodell mit einer Grid-Karte erstellt und die Detektionen in Grid-Zellen der Grid-Karte eingetragen. Nachfolgend wird in Schritt S5 das Ego-Fahrzeug in der Grid-Karte lokalisiert. In einem weiteren Schritt S6 werden die Umfeldmerkmale klassifiziert und die klassifizierten Umfeldmerkmale mittels einer Anzeigeeinrichtung an den Fahrer ausgegeben. In Schritt S7 wird eine aktuelle Fahrsituation bestimmt. Danach wird in Schritt S8 zumindest ein für die Fahrsituation relevantes Umfeldmerkmal durch den Fahrer oder mittels eines Algorithmus ausgewählt. Abschließend wird in Schritt S9 eine Fahrfunktion des Ego-Fahrzeugs basierend auf der Klassifizierung und der Auswahl des Umfeldmerkmals gesteuert.
  • 2 zeigt eine schematische Darstellung eines Systems 1 gemäß einer Ausführungsform der Erfindung. Das System weist dabei einen ersten in Fahrtrichtung eines Ego-Fahrzeugs ausgerichteten optischen Sensor 2 zur Umfelderfassung, sowie zumindest einen zweiten Umfelderfassungssensor 4 zur Aufnahme eines seitlichen und/oder rückwärtigen Bereichs des Ego-Fahrzeugs auf, wobei der optische Sensor 2 dazu ausgestaltet ist, eine Fahrspur des Ego-Fahrzeugs sowie Umfeldmerkmale zu erkennen, wobei das System 1 weiterhin eine Recheneinrichtung 3 umfasst, mittels welcher eine Klassifizierung der Umfeldmerkmale durchführbar ist wobei das System 1 weiterhin eine Anzeigeeinrichtung 6 zur Anzeige der klassifizierten Umfeldmerkmale aufweist, und wobei weiterhin eine Steuereinrichtung 5 vorgesehen ist, welche in Abhängigkeit der Klassifizierung des zumindest einen Umfeldmerkmals zumindest eine bestimmte Fahrfunktion des Ego-Fahrzeugs steuert. Die einzelnen Elemente des Systems 1 sind mittels einer Datenverbindung D verbunden. Diese Datenverbindung D kann kabelgebunden oder kabellos ausgestaltet sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015201344 B4 [0002]
    • DE 112016005654 T5 [0003]
    • US 2009174573 A1 [0004]
    • DE 102014204059 A1 [0005]

Claims (5)

  1. Verfahren zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen mit den folgenden Schritten: - Aufzeichnen (S1) zumindest eines Umgebungsbildes mittels eines in Fahrtrichtung des Ego-Fahrzeugs ausgerichteten optischen Sensors (2) und/oder eines seitlich und/oder rückwärtig ausgerichteten Umfelderfassungssensors (4); - Detektieren (S2) von Umfeldmerkmalen in dem zumindest einen Umgebungsbild; - Detektieren (S3) von zumindest einer Fahrspur und/oder Fahrbahn; - Erstellen (S4) eines Umfeldmodells mit einer Grid-Karte und Eintragen der Detektionen in Grid-Zellen der Grid-Karte; - Lokalisieren (S5) des Ego-Fahrzeugs in der Grid-Karte; - Klassifizieren (S6) der Umfeldmerkmale und Ausgeben der klassifizierten Umfeldmerkmale an den Fahrer mittels einer Anzeigeeinrichtung (6); - Bestimmen (S7) einer aktuellen Fahrsituation; - Auswählen (S8) zumindest eines für die aktuelle Fahrsituation relevanten Umfeldmkermals durch den Fahrer oder mittels eines Algorithmus; - Steuern (S9) zumindest einer Fahrfunktion des Ego-Fahrzeugs basierend auf der Klassifizierung und Auswahl des Umfeldmerkmals.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Umfeldmerkmale statische Objekte wie beispielsweise Ampelanlagen, Bahnschranken, Garagentore und/oder dynamische Objekte wie beispielsweise Fußgänger, Radfahrer oder andere Verkehrsteilnehmer umfassen.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Relevanz für die aktuelle Fahrsituation ermittelt wird, indem die Position der Umfeldmerkmale und die Position des Ego-Fahrzeugs in ein Verhältnis gesetzt werden.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Klassifizierung der Umfeldmerkmale weiterhin eine Bewertung des jeweiligen Zustands der Umfeldmerkmale umfasst.
  5. System (1) zur verbesserten Fahrerassistenz eines Fahrers eines Ego-Fahrzeugs in bestimmten Fahrsituationen, wobei das System zumindest einen ersten in Fahrtrichtung eines Ego-Fahrzeugs ausgerichteten optischen Sensor (2) zur Umfelderfassung, sowie zumindest einen zweiten Umfelderfassungssensor (4) zur Aufnahme eines seitlichen und/oder rückwärtigen Bereichs des Ego-Fahrzeugs aufweist, wobei der optische Sensor (2) dazu ausgestaltet ist, eine Fahrspur des Ego-Fahrzeugs sowie Umfeldmerkmale zu erkennen, wobei das System (1) weiterhin eine Recheneinrichtung (3) umfasst, mittels welcher eine Klassifizierung der Umfeldmerkmale durchführbar ist wobei das System (1) weiterhin eine Anzeigeeinrichtung (6) zur Anzeige der klassifizierten Umfeldmerkmale aufweist, und wobei weiterhin eine Steuereinrichtung (5) vorgesehen ist, welche in Abhängigkeit der Klassifizierung des zumindest einen Umfeldmerkmals zumindest eine bestimmte Fahrfunktion des Ego-Fahrzeugs steuert.
DE102020211722.5A 2020-09-18 2020-09-18 Verfahren und System zur verbesserten Fahrerassistenz Pending DE102020211722A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020211722.5A DE102020211722A1 (de) 2020-09-18 2020-09-18 Verfahren und System zur verbesserten Fahrerassistenz

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020211722.5A DE102020211722A1 (de) 2020-09-18 2020-09-18 Verfahren und System zur verbesserten Fahrerassistenz

Publications (1)

Publication Number Publication Date
DE102020211722A1 true DE102020211722A1 (de) 2022-03-24

Family

ID=80474216

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020211722.5A Pending DE102020211722A1 (de) 2020-09-18 2020-09-18 Verfahren und System zur verbesserten Fahrerassistenz

Country Status (1)

Country Link
DE (1) DE102020211722A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090174573A1 (en) 2008-01-04 2009-07-09 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
DE102010006828A1 (de) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102013018315A1 (de) 2013-10-31 2015-04-30 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodell mit adaptivem Gitter
DE102014204059A1 (de) 2014-03-05 2015-09-10 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Berechnung einer zukünftigen Ampelphase
DE102015201344B4 (de) 2015-01-27 2017-06-08 Continental Automotive Gmbh Verfahren zur Vorbereitung eines Start-/Stoppsystems eines Kraftfahrzeugantriebs auf einen zukünftigen Anfahrvorgang
DE112016005654T5 (de) 2015-12-11 2018-08-30 Jaguar Land Rover Limited Steuersystem und Verfahren zur Steuerung eines Antriebsstangs
EP3454084A1 (de) 2017-09-08 2019-03-13 Valeo Schalter und Sensoren GmbH Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090174573A1 (en) 2008-01-04 2009-07-09 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
DE102010006828A1 (de) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102013018315A1 (de) 2013-10-31 2015-04-30 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodell mit adaptivem Gitter
DE102014204059A1 (de) 2014-03-05 2015-09-10 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Berechnung einer zukünftigen Ampelphase
DE102015201344B4 (de) 2015-01-27 2017-06-08 Continental Automotive Gmbh Verfahren zur Vorbereitung eines Start-/Stoppsystems eines Kraftfahrzeugantriebs auf einen zukünftigen Anfahrvorgang
DE112016005654T5 (de) 2015-12-11 2018-08-30 Jaguar Land Rover Limited Steuersystem und Verfahren zur Steuerung eines Antriebsstangs
EP3454084A1 (de) 2017-09-08 2019-03-13 Valeo Schalter und Sensoren GmbH Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem

Similar Documents

Publication Publication Date Title
DE112010001354B4 (de) Bewegungsstrajektoriengenerator
DE102011082600B4 (de) Erkennung eines Befahrens eines Fahrzeuges in eine nicht zulässige Fahrtrichtung
EP2620929B1 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
DE102011114888A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsystem für ein Kraftfahrzeug
DE102009005730A1 (de) Verfahren und Vorrichtung zur Überwachung der Aufmerksamkeit eines Fahrzeugführers
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
DE102015206144A1 (de) Verfahren und Vorrichtung zum sicheren Abstellen eines Fahrzeuges
DE102013004271A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
EP3661796B1 (de) Verfahren zum betreiben eines bildschirms eines kraftfahrzeugs sowie kraftfahrzeug
DE102013017626A1 (de) Verfahren zur Warnung weiterer Verkehrsteilnehmer vor Fußgängern durch ein Kraftfahrzeug und Kraftfahrzeug
DE202010018439U1 (de) Vorrichtung zum Unterstützen eines Fahrers beim Steuern eines Fahrzeugs entlang einer Engstelle
DE102011109569A1 (de) Verfahren zur Fahrspurerkennung mittels einer Kamera
DE202013006467U1 (de) Fahrzeugumfeld-Überwachungssystem
DE102016219503A1 (de) Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur
EP1327969B1 (de) Kraftfahrzeug mit Mitteln zum Erkennen eines Verkehrzeichens
DE102016215115A1 (de) Vorrichtung und Verfahren zum Detektieren von Verkehrsteilnehmern in einem Umfeld eines Ego-Fahrzeugs
DE102016002230A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
DE102023001318A1 (de) Verfahren und Vorrichtung zum assistierten Fahren eines Fahrzeugs an Kreuzungen
DE102012023107A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102007021580B4 (de) Verfahren und Vorrichtung zum Ermitteln der fahrzeugrelevanten Verkehrszeichen
DE102015103361A1 (de) Verkehrsdichte-empfindlichkeitswähler
DE102016224576B4 (de) Verhaltensmodell von Verkehrsteilnehmern für ein Fahrerassistenzsystem umfassend Statistiken zu Abweichungen vom Normverhalten
EP3684645B1 (de) Verkürzung von lichtführungsfunktionen
EP3332351A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, steuergerät und fahrzeug
DE102018122472A1 (de) Konzentrationsbestimmungsvorrichtung, konzentrationsbestimmungsverfahren und programm zur konzentrationsbestimmung

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE