DE102016213858A1 - Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern - Google Patents

Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern Download PDF

Info

Publication number
DE102016213858A1
DE102016213858A1 DE102016213858.8A DE102016213858A DE102016213858A1 DE 102016213858 A1 DE102016213858 A1 DE 102016213858A1 DE 102016213858 A DE102016213858 A DE 102016213858A DE 102016213858 A1 DE102016213858 A1 DE 102016213858A1
Authority
DE
Germany
Prior art keywords
vehicle
control unit
road user
assistance system
driver assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016213858.8A
Other languages
English (en)
Inventor
Georg Fernkorn
Klaus Rink
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves AG and Co OHG filed Critical Continental Teves AG and Co OHG
Priority to DE102016213858.8A priority Critical patent/DE102016213858A1/de
Publication of DE102016213858A1 publication Critical patent/DE102016213858A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Fahrassistenzsystem (10) zur Erkennung von Verkehrsteilnehmern (104, 106) vorgeschlagen, welches eine Kameraanordnung (12) mit einer Kamera (14), eine Speichervorrichtung (16) und eine Steuereinheit (18) aufweist. Das Fahrassistenzsystem (10) ist dazu eingerichtet, mittels der Kameraanordnung (12) eine Bildsequenz von Bildern einer zu erfassen und in der Speichervorrichtung (16) zu hinterlegen, wobei die Steuereinheit (18) dazu eingerichtet ist, in wenigstens zwei Bildern der Bildsequenz jeweils einen Bildbereich zu ermitteln, in welchem ein Lichtkegel (110) einer Beleuchtungseinrichtung eines Verkehrsteilnehmers (104, 106) erfasst ist, und basierend auf einem Vergleich der ermittelten Bildbereiche zu bestimmen, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft allgemein Fahrassistenzsysteme für Fahrzeuge. Insbesondere betrifft die Erfindung ein Fahrassistenzsystem zur Erkennung von Verkehrsteilnehmern, ein Fahrzeug mit einem solchen Fahrassistenzsystem sowie ein Verfahren zum Erkennen von Verkehrsteilnehmern.
  • Hintergrund der Erfindung
  • Aktuelle Fahrassistenzsysteme, welche auf einer Detektion von eine Fahrbahn kreuzenden Objekten bzw. Verkehrsteilnehmern im Sichtbereich basieren, verfügen in der Regel über ein Kamerasystem und/oder ein Radarsystem. Die Objekte werden dabei passiv beleuchtet und/oder angestrahlt und auf diese Weise erkannt. Dadurch kann eine Effektivität derartiger Fahrassistenzsysteme insbesondere bei Dunkelheit und/oder bei durch Hindernisse verdeckten Objekten herabgesetzt sein. Verdeckte und/oder aufgrund geringen Kontrasts optisch nicht erkennbare Objekte sind mit aktuell verfügbaren Fahrassistenzsystemen daher nur unzureichend detektierbar.
  • Zur Erhöhung der Verkehrssicherheit und zur Reduzierung von Unfällen kann es ferner vorteilhaft sein, neben Fahrzeugfahrern und Fahrzeuginsassen auch andere Verkehrsteilnehmer, wie etwa Zweiradfahrer, zu schützen. Auch dies ist mit aktuellen Fahrassistenzsystem nur eingeschränkt möglich.
  • Zusammenfassung der Erfindung
  • Es ist eine Aufgabe der Erfindung, ein Fahrassistenzsystem bereitzustellen, mit welchem Verkehrsteilnehmer zuverlässig erkannt werden können.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen und aus der nachfolgenden Beschreibung.
  • Ein erster Aspekt der Erfindung betrifft ein Fahrassistenzsystem zur Erkennung von Verkehrsteilnehmern. Das Fahrassistenzsystem weist eine Kameraanordnung mit wenigstens einer Kamera, eine Speichervorrichtung und eine Steuereinheit auf. Das Fahrassistenzsystem ist dazu eingerichtet, mittels der Kameraanordnung eine Bildsequenz von aufeinanderfolgenden, insbesondere zeitlich aufeinanderfolgenden, Bildern einer Umgebung des Fahrzeugs zu erfassen und die Bilder in der Speichervorrichtung zu hinterlegen. Dabei ist die Steuereinheit dazu eingerichtet, in wenigstens zwei Bildern der Bildsequenz jeweils einen Bildbereich und/oder Bildausschnitt zu ermitteln, in welchem ein Lichtkegel einer Beleuchtungseinrichtung eines Verkehrsteilnehmers erfasst ist. Weiter ist die Steuereinheit dazu eingerichtet, basierend auf einem Vergleich der ermittelten Bildbereiche zu bestimmen, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen.
  • Das Fahrassistenzsystem ist insbesondere zum Einsatz in einem Fahrzeug ausgelegt, wobei es sich bei dem Fahrzeug beispielsweise um ein Kraftfahrzeug, wie Auto, Bus oder Lastkraftwagen, oder beispielsweise um ein Zweirad, wie Fahrrad, Motorrad oder Motorroller, handeln kann.
  • Die Kameraanordnung kann dabei eine oder mehrere Kameras aufweisen. Insbesondere kann die Kameraanordnung eine an einem Frontbereich eines Fahrzeuges angeordnete Kamera aufweisen. Die Kameraanordnung kann dazu ausgelegt im optisch sichtbaren Bereich und/oder im Infrarotbereich Bilder der Umgebung zu erfassen.
  • Die Steuereinheit kann ein Steuergerät, ein Steuermodul, eine Recheneinheit, eine Prozessoreinheit und/oder einen Prozessor bezeichnen, welcher zur Datenverarbeitung, insbesondere zur Bildanalyse, eingerichtet sein kann.
  • Die Speichervorrichtung kann jede Art von Datenspeicher bezeichnen, auf welchem Daten hinterlegt und/oder gespeichert und/oder abgerufen werden können.
  • Der Verkehrsteilnehmer kann jede Art von Verkehrsteilnehmer, wie etwa ein weiteres Fahrzeug und/oder ein Fußgänger sein. Insbesondere kann der Verkehrsteilnehmer sich quer zu einer Bewegungsrichtung eines das Fahrassistenzsystem aufweisenden Fahrzeugs bewegen.
  • Gemäß dem ersten Aspekt der Erfindung kann mittels der wenigstens einen Kamera der Kameraanordnung die Bildsequenz von zeitlich aufeinanderfolgenden Bildern der Umgebung in einem Sichtfeld der Kamera erfasst und/oder aufgezeichnet werden. Die Bildsequenz kann dabei wenigstens zwei Bilder aufweisen, welche in beliebigem Zeitabstand zueinander erfasst sein können. Die Bilder der Bildsequenz und/oder entsprechende Bilddaten können anschließend in der Speichervorrichtung gespeichert werden. Mittels Bildanalyse der Bilder bzw. der entsprechenden Bilddaten kann die Steuereinheit in zumindest einer Teilmenge der Bilder und/oder der Bildsequenz jeweils einen Bildbereich und/oder einen Bildausschnitt ermitteln und/oder bestimmen, in welchem der Lichtkegel erfasst ist. Die Bildbereiche, in welchen die Lichtkegel erfasst sind, können etwa Teilmengen der Bilddaten der jeweiligen Bilder bezeichnen, in welchen Abbildungen und/oder Projektionen der Lichtkegel enthalten sind. Dabei kann der Lichtkegel allgemein einen durch die Beleuchtungseinrichtung des Verkehrsteilnehmers, etwa durch einen Scheinwerfer und/oder eine Lampe des Verkehrsteilnehmers, beleuchteten Bereich innerhalb des Sichtfeldes der Kamera (bzw. eine zweidimensionale Darstellung davon) bezeichnen. Die Steuereinheit kann dann die Bildbereiche mit den darin erfassten Lichtkegeln in den aufeinanderfolgenden Bildern der Bildsequenz miteinander vergleichen und so feststellen bzw. bestimmen, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen und/oder sich nähern.
  • Mit der vorliegenden Erfindung kann daher ein kamerabasiertes Fahrassistenzsystem zur optimierten Erkennung von Verkehrsteilnehmern, insbesondere bei Dunkelheit und/oder bei schlechten Sichtverhältnissen, bereitgestellt sein. Das Fahrassistenzsystem kann dabei als individuelles System ausgestaltet sein, mit welchem eine Erkennung realisiert werden kann, ohne von der Ausstattung eines weiteren Fahrzeugsystems abhängig zu sein, wie etwa einer Fahrzeug-zu-Fahrzeug-Kommunikation (z.B. kooperative V2X Systeme).
  • Mit Hilfe des erfindungsgemäßen Fahrassistenzsystems können so in vorteilhafter Weise Verkehrsteilnehmer bei Dunkelheit und/oder geringem Kontrast erkannt werden, es können Unfälle vermieden werden und die Sicherheit aller Verkehrsteilnehmer, insbesondere von Zweiradfahrern, kann erhöht werden. Zudem kann eine Funktionsfähigkeit von automotiven Kameras verbessert und/oder erweitert werden. Ferner kann das Fahrassistenzsystem auf einfache Weise und kostengünstig nachgerüstet werden, da lediglich geringe Modifikationen aktueller Komponenten erforderlich sein können. Beispielsweise kann das Fahrassistenzsystem durch eine Algorithmusanpassung einer Software in der Steuereinheit nachgerüstet werden und/oder es kann eine Kamera, welche auch im Infrarotbereich Bilder empfangen und/oder bearbeiten kann, nachgerüstet werden.
  • Insgesamt können mit dem Fahrassistenzsystem Unfälle zwischen gefährdeten Verkehrsteilnehmern, wie etwa Fußgängern oder Radfahrern, verhindert werden, welche weder für andere Verkehrsteilnehmer noch für derzeit eingesetzte Fahrassistenzsysteme erkennbar sind, da diese Systeme darauf abzielen, die Verkehrsteilnehmer direkt mit einer Kamera zu erfassen. Erfindungsgemäß wird dagegen vorgeschlagen, die Verkehrsteilnehmer indirekt über den Lichtkegel der Beleuchtungseinrichtung des Verkehrsteilnehmers zu erfassen und/oder zu detektieren. So können beispielsweise an Kreuzungen durch Hindernisse, wie etwa weitere Fahrzeuge, Bäume oder Häuser, verdeckte Verkehrsteilnehmer zuverlässig und frühzeitig erkannt werden. Derart können Unfallszenarien vermieden werden, in welchen Verkehrsteilnehmer zwar optisch durch den vorausgeworfenen Lichtkegel theoretisch sichtbar sind, jedoch erst sehr spät vom Fahrer erkannt werden. Bisherige Fahrassistenzsysteme können solche optischen Lichtsignale bzw. Lichtkegel bzw. Lichtstärkeänderungen nicht eindeutig entschlüsseln und damit auch nicht zur Vermeidung von Unfällen beitragen.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, in den Bildbereichen der wenigstens zwei Bilder jeweils eine Lichtintensität des Lichtkegels zu bestimmen und basierend auf einem Vergleich der Lichtintensitäten der Lichtkegel in den wenigstens zwei Bildern zu ermitteln, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen und/oder sich nähern. Nimmt etwa die Lichtintensität in einem zeitlich später erfassten Bild relativ zu einem zeitlich früher erfassten Bild zu, so kann das Fahrassistenzsystem mit hoher Genauigkeit feststellen, dass sich der Verkehrsteilnehmer und das Fahrzeug nähern.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, in den Bildebereichen der wenigstens zwei Bilder jeweils eine Ausdehnung des Lichtkegels zu ermitteln und basierend auf einem Vergleich der Ausdehnungen der Lichtkegel in den wenigstens zwei Bildern zu ermitteln, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen und/oder sich nähern. Die Ausdehnung des Lichtkegels kann dabei eine reale räumliche Ausdehnung des Lichtkegels bezeichnen, welche etwa basierend auf den mit der Kamera erfassten Bildern durch die Steuereinheit abgeschätzt werden kann. Alternativ oder zusätzlich kann die Ausdehnung des Lichtkegels relativ zu einer Größe des Bildes und/oder des Bildbereichs ermittelt werden. Nimmt etwa die Ausdehnung in einem zeitlich später erfassten Bild relativ zu einem zeitlich früher erfassten Bild zu, so kann das Fahrassistenzsystem mit hoher Genauigkeit feststellen, dass sich der Verkehrsteilnehmer und das Fahrzeug nähern.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, ein von der Beleuchtungseinrichtung des Verkehrsteilnehmers emittiertes und/oder ausgesandtes und mittels der Kameraanordnung erfasstes Muster zu erfassen. Das Muster kann etwa in das von der Beleuchtungseinrichtung emittierte Licht codiert sein. Derart kann eine Genauigkeit der Erkennung des Verkehrsteilnehmers gesteigert sein.
  • Das Muster kann etwa eine Unterlegung des Lichts und/oder eines Lichtsignals der Beleuchtungseinrichtung mit einer codierten Information sein. Diese kann beispielsweise durch ein optisches Muster ähnlich einem QR-Code und/oder durch eine Frequenz, etwa ein Blinken, der Beleuchtungseinrichtung ähnlich einem Morsealphabet geschehen. Dies kann signifikant zur Erhöhung der Robustheit der Verkehrsteilnehmererkennung durch das Muster als eindeutiges Signal beitragen, welches dadurch deutlich schneller und verlässlicher vom Fahrassistenzsystem erkannt, verrechnet und zu einer Warnung umgesetzt werden kann, als wenn mehrere Plausibilisierungsstufen zur Erkennung notwendig wären. Insbesondere können so Schwierigkeiten bei der Unterscheidung zwischen einem Verkehrsteilnehmer und einer anderen Lichtquelle, wie etwa einer Straßenlaterne, ausgeräumt werden, da sich die Lichtstärke in beiden Fällen ändern kann, entweder durch die Bewegung des Verkehrsteilnehmers oder durch die Bewegung des Fahrzeuges in Richtung der Lichtquelle. Über das Muster kann jedoch eindeutig und zuverlässig der Verkehrsteilnehmer von weiteren Lichtquellen unterschieden werden.
  • Zusätzlich könnte das Lichtsignal mit einem Signal im nicht-sichtbaren Bereich, etwa im Infrarotbereich, unterlegt werden, um einerseits eine eindeutige Identifizierung des Verkehrsteilnehmers und andererseits eine große Reichweite der Erkennung gewährleisten zu können. Hierbei ist auch der Einsatz einer Nachtsichtkamera für die Kameraanordnung denkbar.
  • Durch Aussenden eines Musters im nicht-sichtbaren Wellenlängenbereich und Erkennen von Verkehrsteilnehmern durch Detektion dieses Musters können sich eine Vielzahl von möglichen Realisierungsformen für Verkehrsteilnehmer ergeben, insbesondere für Fahrradfahrer, Fußgänger, Rollstuhlfahrer und dergleichen. Beispielsweise kann die das Muster emittierende Beleuchtungseinrichtung in Form einer Lichtquelle in und/oder an Kleidungsstücken, etwa einer Jacke, einem Basecap, einer Kette, einer Umhängetasche und/oder einem Ansteckbutton integriert sein und von dem Verkehrsteilnehmer getragen werden. Dabei kann es vorteilhaft sein, dass das Licht nicht sichtbar ist und somit keine anderen Verkehrsteilnehmer blendet und/oder vom Verkehrsteilnehmer missbraucht werden kann. Entsprechend wäre diese vorteilhafte Ausführungsform in der Funktionsweise ähnlich einem „Reflektor der um die Ecke sichtbar ist“.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, basierend auf dem erfassten Muster zu ermitteln, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, den Bildbereich ausschließlich in einem Teilbereich des jeweiligen Bildes zu ermitteln, wobei in dem Teilbereich eine Fahrbahn erfasst ist. Insbesondere kann der Teilbereich des Bildes einen Bereich bezeichnen, welcher für die eigentliche Erkennung des Verkehrsteilnehmers relevant ist, da der Verkehrsteilnehmer in diesem Teilbereich zu erwarten ist. Beispielsweise kann der Teilbereich eine untere Bildhälfte und/oder ein unterer Bildabschnitt sein, in welchem der Verkehrsteilnehmer zu erwarten ist. Übrige Teilbereiche der Bilder können von der Steuereinheit unberücksichtigt bleiben. Insgesamt kann dies eine Erkennung des Verkehrsteilnehmers beschleunigen.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, den Bildbereich des jeweiligen Bildes unter Berücksichtigung einer Reflexion des Lichtkegels an einer Fahrbahn zu ermitteln. Alternativ oder zusätzlich ist die Steuereinheit dazu eingerichtet, unter Berücksichtigung einer Reflexion des Lichtkegels an einer Fahrbahn zu ermitteln, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen. Durch Berücksichtigung der Reflexionen des Lichtkegels kann eine Zuverlässigkeit der Erkennung des Verkehrsteilnehmers gesteigert sein. Auch kann so der Lichtkegel der Beleuchtungseinrichtung leichter von anderen Lichtquellen, insbesondere von statischen Lichtquellen wie Straßenlaternen, unterschieden werden.
  • Gemäß einer Ausführungsform weist das Fahrassistenzsystem eine Warnvorrichtung zur Ausgabe eines Warnsignals auf, wobei die Steuereinrichtung dazu eingerichtet ist, die Ausgabe des Warnsignals über die Warnvorrichtung zu triggern, wenn durch die Steuereinrichtung ermittelt ist, dass sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen. Das Warnsignal kann ein optisches, ein akustisches und/oder ein haptisches Warnsignal sein. Die Steuereinheit kann somit dazu eingerichtet sein, die Warnvorrichtung anzusteuern, wenn sie ermittelt hat, dass sich der Verkehrsteilnehmer und das Fahrzeug nähern.
  • Ein zweiter Aspekt der Erfindung betrifft ein Fahrzeug mit einem Fahrassistenzsystem, so wie obenstehend und untenstehend beschrieben.
  • Merkmale und Elemente des Fahrassistenzsystems können Merkmale und Elemente des Fahrzeugs sein und umgekehrt.
  • Gemäß einer Ausführungsform ist die Steuereinheit dazu eingerichtet, eine Bremsanlage des Fahrzeugs zu betätigen, wenn durch die Steuereinheit ermittelt ist, dass sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen. Mit anderen Worten kann die Steuereinheit dazu eingerichtet sein, ein Bremsmanöver einzuleiten, um das Fahrzeug zu verzögern und/oder abzubremsen. Derart kann eine Verkehrssicherheit gesteigert sein.
  • Ein dritter Aspekt der Erfindung betrifft ein Verfahren zum Erkennen von Verkehrsteilnehmern. Das Verfahren weist die folgenden Schritte auf:
    • – Erfassen, mit einer Kamera eines Fahrzeugs, einer Bildsequenz von aufeinanderfolgenden Bildern einer Umgebung eines Fahrzeugs;
    • – Hinterlegen der Bildsequenz in einer Speichervorrichtung;
    • – Ermitteln, mit einer Steuereinheit des Fahrzeugs, jeweils eines Bildbereichs in wenigstens zwei Bildern der Bildsequenz, wobei in den ermittelten Bildbereichen ein Lichtkegel einer Beleuchtungseinrichtung eines Verkehrsteilnehmers erfasst ist;
    • – Vergleichen der ermittelten Bildbereiche; und
    • – Bestimmen, ob sich der Verkehrsteilnehmer und das Fahrzeug aufeinander zu bewegen, basierend auf dem Vergleich der ermittelten Bildbereiche.
  • Merkmale und Elemente des Fahrassistenzsystems und des Fahrzeugs können Merkmale und Schritte des Verfahrens sein und umgekehrt.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die Figuren beschrieben.
  • Kurze Beschreibung der Figuren
  • 1 zeigt schematisch ein Fahrassistenzsystem gemäß einem Ausführungsbeispiel.
  • 2 zeigt schematisch ein Fahrzeug mit dem Fahrassistenzsystem aus 1.
  • 3 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Erkennen von Verkehrsteilnehmern gemäß einem Ausführungsbeispiel.
  • Die Darstellungen in den Figuren sind lediglich schematisch und nicht maßstabsgetreu.
  • Detaillierte Beschreibung von Ausführungsbeispielen
  • 1 zeigt schematisch ein Fahrassistenzsystem 10 für ein Fahrzeug 100 gemäß einem Ausführungsbeispiel. 2 zeigt ein Fahrzeug 100 mit dem Fahrassistenzsystem 10 aus 1.
  • Das Fahrassistenzsystem 10 weist eine Kameraanordnung 12 mit wenigstens einer Kamera 14, eine Speichervorrichtung 16 und eine Steuereinheit 18 auf.
  • Die Kamera 14 kann eine rein optische Kamera und/oder eine Infrarotkamera sein. Die Kamera 14 kann beispielsweise eine Frontkamera des Fahrzeugs 100 sein. Auch kann die Kameraanordnung 12 eine Mehrzahl von Kameras 14 aufweisen, welche etwa ringsum das Fahrzeug 100 verteilt angeordnet sein können.
  • Das Fahrassistenzsystem 10 ist dazu eingerichtet, mittels der Kameraanordnung 12 und/oder der Kamera 14 eine Bildsequenz von zeitlich aufeinanderfolgenden Bildern einer Umgebung des Fahrzeugs 100 zu erfassen und in der Speichervorrichtung 16 zu hinterlegen. Die Umgebung des Fahrzeugs 100 wird dabei in einem Sichtfeld 102 und/oder einem Sichtbereich 102 der Kamera 14 erfasst. Wie in 2 illustriert kann dieses Sichtfeld 102 durch ein Hindernis 101, wie etwa ein parkendes Fahrzeug 101 oder ein anderes Objekt, eingeschränkt sein. Hinter dem Hindernis 101 befindliche Verkehrsteilnehmer 104, 106, wie der in 2 dargestellte Radfahrer 104 und der Fußgänger 106, können dabei nicht direkt mit der Kamera 14 erfasst werden.
  • Die Verkehrsteilnehmer 104, 106 verfügen jedoch jeweils über eine Beleuchtungseinrichtung 108, welche jeweils einen in das Sichtfeld 102 der Kamera 14 ragenden Lichtkegel 110 erzeugen. Im Falle des Radfahrers 104 ist die Beleuchtungseinrichtung 108 ein Scheinwerfer und im Falle des Fußgängers 106 eine Stirnlampe. Die Beleuchtungseinrichtung 108 kann jedoch jede beliebige andere Beleuchtungseinrichtung sein.
  • Die Steuereinheit 18 des Fahrassistenzsystems 10 ist dazu eingerichtet, in wenigstens zwei Bildern der Bildsequenz jeweils einen Bildbereich zu ermitteln, in welchem der Lichtkegel 110 der Beleuchtungseinrichtung 108 der Verkehrsteilnehmer 104, 106 erfasst ist. Basierend auf einem Vergleich der ermittelten Bildbereiche in den aufeinanderfolgenden Bildern kann die Steuereinheit 18 bestimmen, ob sich die Verkehrsteilnehmer 104, 106 und das auf der einer Fahrbahn 103 fahrende Fahrzeug 100 aufeinander zu bewegen und/oder sich nähern. Der Verkehrsteilnehmer 104, 106 bewegen sich in dem in 2 gezeigten Beispiel quer zum Fahrzeug 100 auf die Fahrbahn 103 zu. Die Verkehrsteilnehmer 104, 106 stellen daher gleichsam einen Querverkehr für das Fahrzeug 100 dar.
  • Dazu kann die Steuereinheit 18 die Lichtintensität der Lichtkegel 110 in zumindest zwei Bildern der Bildsequenz bestimmen und miteinander vergleichen. Nimmt die Lichtintensität in einem zeitlich später aufgenommenen Bild zu, so bewegen sich das Fahrzeug 100 und die Verkehrsteilnehmer 104, 106 aufeinander zu.
  • Auch kann die Steuereinheit 18 eine räumliche Ausdehnung der Lichtkegel 110 in wenigstens zwei der Bilder ermitteln und die räumlichen Ausdehnungen in den Bildern miteinander vergleichen.
  • Nimmt die Ausdehnung in einem zeitlich später aufgenommenen Bild zu, so bewegen sich das Fahrzeug 100 und die Verkehrsteilnehmer 104, 106 aufeinander zu.
  • Auch können die Beleuchtungseinrichtungen 108 der Verkehrsteilnehmer 104, 106 ein Muster 112 emittieren und/oder aussenden. Das Muster 112 kann etwa eine Unterlegung des Lichts und/oder eines Lichtsignals der Beleuchtungseinrichtungen 108 mit einer codierten Information sein. Beispielsweise kann das Muster 112 ein optisches Muster ähnlich einem QR-Code und/oder eine Blinkfrequenz der Beleuchtungseinrichtung 108 sein. Auch kann das Muster 112 im nicht-sichtbaren Spektralbereich, etwa im Infrarotbereich, emittiert sein. Die Steuereinrichtung 18 kann dann das Muster 112 in den erfassten Bildern erkennen und so eindeutig die Verkehrsteilnehmer 104, 106 identifizieren. So kann zuverlässig ermittelt werden, ob sich die Verkehrsteilnehmer 104, 106 und das Fahrzeug 100 aufeinander zu bewegen.
  • Weiter weist das Fahrassistenzsystem 10 eine Warnvorrichtung 20 zur Ausgabe eines Warnsignals auf. Das Warnsignal kann ein optisches, ein akustisches und/oder ein haptisches Warnsignal sein und dem Fahrer des Fahrzeugs 100 anzeigen, dass sich das Fahrzeug 100 den Verkehrsteilnehmern 104, 106 nähert. Das Warnsignal der Warnvorrichtung 20 wird dabei von der Steuereinheit 18 getriggert, wenn diese ermittelt hat, dass sich die Verkehrsteilnehmer 104, 106 und das Fahrzeug 100 aufeinander zu bewegen.
  • Auch kann die Steuereinheit 18 eine Bremsanlage 114 des Fahrzeugs 100 betätigen, wenn durch die Steuereinheit 18 ermittelt ist, dass sich die Verkehrsteilnehmer 104, 106 und das Fahrzeug 100 aufeinander zu bewegen.
  • Zusammenfassend ist das Fahrassistenzsystem 10 dazu eingerichtet, bewegliche, Licht emittierende Verkehrsteilnehmer 104, 106, wie beispielsweise den Radfahrer 104, den Fußgänger 106, ein Motorrad und/oder ein weiteres Fahrzeug zu erkennen. Die Kameraanordnung 12 und die Steuereinheit 18 sind dabei in der Lage, die Lichtstärkenveränderung von sich nähernden Objekten – insbesondere im lateralen Querverkehrsszenario – zu erkennen und daraus eine Warnung und/oder eine Bremsung des Fahrzeugs 100 zu generieren.
  • 3 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Erkennen von Verkehrsteilnehmern 104, 106 gemäß einem Ausführungsbeispiel.
  • In einem ersten Schritt S1 wird mit einer Kamera 14 eines Fahrzeugs 100 eine Bildsequenz von aufeinanderfolgenden Bildern einer Umgebung des Fahrzeugs 100 erfasst. In einem zweiten Schritt S2 wird die Bildsequenz in einer Speichervorrichtung 16 hinterlegt. In einem dritten Schritt S3 wird mit einer Steuereinheit 18 des Fahrzeugs 100, jeweils ein Bildbereich in wenigstens zwei Bildern der Bildsequenz ermittelt, wobei in den ermittelten Bildbereichen ein Lichtkegel 110 einer Beleuchtungseinrichtung 108 eines Verkehrsteilnehmers 104, 106 erfasst ist. In einem weiteren Schritt S4 wird durch die Steuereinheit 18 bestimmt, ob sich der Verkehrsteilnehmer 104, 106 und das Fahrzeug 100 aufeinander zu bewegen, wobei die Steuereinheit dazu die in Schritt S3 ermittelten Bildbereiche miteinander vergleicht.
  • Ergänzend ist darauf hinzuweisen, dass „umfassend“ keine anderen Elemente oder Merkmale ausschließt und „eine“ oder „ein“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.

Claims (10)

  1. Fahrassistenzsystem (10) zur Erkennung von Verkehrsteilnehmern (104, 106), aufweisend: eine Kameraanordnung (12) mit wenigstens einer Kamera (14); eine Speichervorrichtung (16); und eine Steuereinheit (18); wobei das Fahrassistenzsystem (10) dazu eingerichtet ist, mittels der Kameraanordnung (12) eine Bildsequenz von aufeinanderfolgenden Bildern einer Umgebung des Fahrzeugs (100) zu erfassen und in der Speichervorrichtung (16) zu hinterlegen; wobei die Steuereinheit (18) dazu eingerichtet ist, in wenigstens zwei Bildern der Bildsequenz jeweils einen Bildbereich zu ermitteln, in welchem ein Lichtkegel (110) einer Beleuchtungseinrichtung eines Verkehrsteilnehmers (104, 106) erfasst ist; und wobei die Steuereinheit (18) dazu eingerichtet ist, basierend auf einem Vergleich der ermittelten Bildbereiche zu bestimmen, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  2. Fahrassistenzsystem (10) nach Anspruch 1, wobei die Steuereinheit (18) dazu eingerichtet ist, in den Bildbereichen jeweils eine Lichtintensität des Lichtkegels (110) zu bestimmen und basierend auf einem Vergleich der Lichtintensitäten der Lichtkegel (110) zu ermitteln, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  3. Fahrassistenzsystem (10) nach Anspruch 1 oder 2, wobei die Steuereinheit (18) dazu eingerichtet ist, in den Bildebereichen jeweils eine Ausdehnung des Lichtkegels (110) zu ermitteln und basierend auf einem Vergleich der Ausdehnungen der Lichtkegel (110) zu ermitteln, ob sich der Verkehrsteilnehmer (104. 106) und das Fahrzeug (100) aufeinander zu bewegen.
  4. Fahrassistenzsystem (10) nach einem der voranstehenden Ansprüche, wobei die Steuereinheit (18) dazu eingerichtet ist, ein von der Beleuchtungseinrichtung (108) des Verkehrsteilnehmers (104, 106) emittiertes und mittels der Kameraanordnung (12) erfasstes Muster (112) zu erfassen; und wobei die Steuereinheit (18) dazu eingerichtet ist, basierend auf dem erfassten Muster (112) zu ermitteln, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  5. Fahrassistenzsystem (10) nach einem der voranstehenden Ansprüche, wobei die Steuereinheit (18) dazu eingerichtet ist, den Bildbereich ausschließlich in einem Teilbereich des jeweiligen Bildes zu ermitteln; wobei in dem Teilbereich eine Fahrbahn erfasst ist.
  6. Fahrassistenzsystem (10) nach einem der voranstehenden Ansprüche, wobei die Steuereinheit (18) dazu eingerichtet ist, den Bildbereich des jeweiligen Bildes unter Berücksichtigung einer Reflexion des Lichtkegels (110) an einer Fahrbahn zu ermitteln; und/oder wobei die Steuereinheit (18) dazu eingerichtet ist, unter Berücksichtigung einer Reflexion des Lichtkegels (110) an einer Fahrbahn zu ermitteln, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  7. Fahrassistenzsystem (10) nach einem der voranstehenden Ansprüche, weiter aufweisend: eine Warnvorrichtung (20) zur Ausgabe eines Warnsignals; wobei die Steuereinrichtung (18) dazu eingerichtet ist, die Ausgabe des Warnsignals über die Warnvorrichtung (20) zu triggern, wenn durch die Steuereinrichtung (18) ermittelt ist, dass sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  8. Fahrzeug (100) mit einem Fahrassistenzsystem (10) nach einem der voranstehenden Ansprüche.
  9. Fahrzeug (100) nach Anspruch 8, wobei die Steuereinheit (18) dazu eingerichtet ist, eine Bremsanlage (114) des Fahrzeugs (100) zu betätigen, wenn durch die Steuereinheit (18) ermittelt ist, dass sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen.
  10. Verfahren zum Erkennen eines Verkehrsteilnehmers (104, 106), das Verfahren aufweisend die Schritte: Erfassen, mit einer Kamera (14) eines Fahrzeugs (100), einer Bildsequenz von aufeinanderfolgenden Bildern einer Umgebung eines Fahrzeugs (100); Hinterlegen der Bildsequenz in einer Speichervorrichtung (16); Ermitteln, mit einer Steuereinheit (18) des Fahrzeugs (100), jeweils eines Bildbereichs in wenigstens zwei Bildern der Bildsequenz; wobei in den ermittelten Bildbereichen ein Lichtkegel (110) einer Beleuchtungseinrichtung (108) eines Verkehrsteilnehmers (104, 106) erfasst ist; Vergleichen der ermittelten Bildbereiche; und Bestimmen, ob sich der Verkehrsteilnehmer (104, 106) und das Fahrzeug (100) aufeinander zu bewegen, basierend auf dem Vergleich der ermittelten Bildbereiche.
DE102016213858.8A 2016-07-28 2016-07-28 Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern Pending DE102016213858A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016213858.8A DE102016213858A1 (de) 2016-07-28 2016-07-28 Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016213858.8A DE102016213858A1 (de) 2016-07-28 2016-07-28 Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern

Publications (1)

Publication Number Publication Date
DE102016213858A1 true DE102016213858A1 (de) 2018-02-01

Family

ID=60950846

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016213858.8A Pending DE102016213858A1 (de) 2016-07-28 2016-07-28 Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern

Country Status (1)

Country Link
DE (1) DE102016213858A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205742A1 (de) 2022-06-07 2023-12-07 Volkswagen Aktiengesellschaft Leuchtvorrichtung für ein beleuchtendes Fahrzeug, eine Auslesevorrichtung für ein auslesendes Fahrzeug, ein Kommunikationssystem für die beiden Fahrzeuge, sowie ein Kommunikationsverfahren für die beiden Fahrzeuge

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070221822A1 (en) * 2006-03-24 2007-09-27 Mobileye Technologies Ltd. Headlight, Taillight And Streetlight Detection
DE102006043433A1 (de) * 2006-08-16 2008-02-21 Daimler Ag Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen
DE102008059630A1 (de) * 2008-11-28 2010-06-02 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Fahrzeuglichtern und Retroreflektoren mit einem Kamerasystem
DE112009005352T5 (de) * 2009-11-09 2012-08-16 Toyota Jidosha K.K. Distanzmessvorrichtung und Distanzmessverfahren

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070221822A1 (en) * 2006-03-24 2007-09-27 Mobileye Technologies Ltd. Headlight, Taillight And Streetlight Detection
DE102006043433A1 (de) * 2006-08-16 2008-02-21 Daimler Ag Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen
DE102008059630A1 (de) * 2008-11-28 2010-06-02 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Fahrzeuglichtern und Retroreflektoren mit einem Kamerasystem
DE112009005352T5 (de) * 2009-11-09 2012-08-16 Toyota Jidosha K.K. Distanzmessvorrichtung und Distanzmessverfahren

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205742A1 (de) 2022-06-07 2023-12-07 Volkswagen Aktiengesellschaft Leuchtvorrichtung für ein beleuchtendes Fahrzeug, eine Auslesevorrichtung für ein auslesendes Fahrzeug, ein Kommunikationssystem für die beiden Fahrzeuge, sowie ein Kommunikationsverfahren für die beiden Fahrzeuge
DE102022205742B4 (de) 2022-06-07 2024-01-25 Volkswagen Aktiengesellschaft Leuchtvorrichtung für ein beleuchtendes Fahrzeug, eine Auslesevorrichtung für ein auslesendes Fahrzeug, ein Kommunikationssystem für die beiden Fahrzeuge, sowie ein Kommunikationsverfahren für die beiden Fahrzeuge

Similar Documents

Publication Publication Date Title
EP1566060B1 (de) Vorrichtung und verfahren zur verbesserung der sicht in einem kraftfahrzeug
EP1565347B1 (de) Verfahren und vorrichtung zur warnung des fahrers eines kraftfahrzeuges
EP2091798B1 (de) Fahrzeug und verfahren zur bestimmung von in der fahrzeugumgebung befindlichen fahrzeugen
US10430674B2 (en) Vehicle vision system using reflective vehicle tags
EP2562044B1 (de) Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
EP1704072B1 (de) Verfahren und vorrichtung zur steuerung einer strahlungsquelle
EP1567888B1 (de) Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems
DE102009023326A1 (de) Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben
EP1506893A2 (de) Kraftfahrzeug mit Erfassung und Analyse der Objekten in dem Umfeld des Fahrzeugs
DE102016002230B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
EP2562039A2 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
EP2400473A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrzeugführers
DE102012200431B4 (de) Verfahren zur Bestimmung eines Vorliegens einer Kreuzung in einem von einem Fahrzeug befahrenen Straßenverlauf
EP3242815B1 (de) Verfahren und fahrerassistenzsystem zum unterstützen eines fahrers eines fahrzeugs
DE102014009254B4 (de) Verfahren zum Steuern einer Lichtverteilung eines Scheinwerfers eines Fahrzeugs
DE102017219056A1 (de) Verfahren und Vorrichtung zum Detektieren zumindest eines verdeckten Objekts im Straßenverkehr für ein Fahrzeug unter Verwendung eines passiven Fahrzeugsensors
WO2019121243A1 (de) Warnvorrichtung vor gefahrensituationen für ein kraftfahrzeug
WO2014028850A1 (en) Method and system for imaging an external scene by employing a custom image sensor
DE102016213858A1 (de) Fahrassistenzsystem und Verfahren zur Erkennung von Verkehrsteilnehmern
EP2131308B1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
DE102007007283A1 (de) Verfahren und Vorrichtung zur Bestimmung von in der Fahrzeugumgebung befindlichen Fahrzeugen
EP3006295B1 (de) Verfahren zum Betrieb eines Assistenzsystems eines Kraftfahrzeugs sowie Assistenzsystem
DE102019116004B4 (de) Verfahren und vorrichtung zur objekterkennung in blindzonen einer kamera
EP2103984B1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE

R012 Request for examination validly filed