DE102019101415A1 - Fahrunterstützungsverfahren - Google Patents

Fahrunterstützungsverfahren Download PDF

Info

Publication number
DE102019101415A1
DE102019101415A1 DE102019101415.8A DE102019101415A DE102019101415A1 DE 102019101415 A1 DE102019101415 A1 DE 102019101415A1 DE 102019101415 A DE102019101415 A DE 102019101415A DE 102019101415 A1 DE102019101415 A1 DE 102019101415A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
sensor data
method step
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019101415.8A
Other languages
English (en)
Inventor
Thorsten Meyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102019101415.8A priority Critical patent/DE102019101415A1/de
Publication of DE102019101415A1 publication Critical patent/DE102019101415A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Fahrunterstützungsverfahren für ein Fahrzeug (10), bei dem durch eine selektive Illumination von illuminationsbedingt schlecht detektierbarer Objekte (12) eine Fahrunterstützung verbessert werden kann.

Description

  • Die vorliegende Erfindung betrifft ein Fahrunterstützungsverfahren. Die vorliegende Erfindung betrifft insbesondere ein Verfahren, bei dem eine verbesserte Erkennung von Objekten in der Fahrzeugumgebung ermöglicht wird. Die vorliegende Erfindung betrifft ferner ein Fahrunterstützungssystem, das ein derartiges Verfahren zumindest zum Teil ausführen kann.
  • Eine Vielzahl von Fahrunterstützungssystemen, wie etwa teilweise oder vollautomatische Systeme, ist an sich bekannt. Beispielsweise dienen derartige Systeme einem Fahren entlang einer bekannten beziehungsweise geplanten Trajektorie. Insbesondere sind derartige Systeme bekannt, welche ein automatisiertes Fahren vereinfachen sollen, indem eine Erfassung von bestimmten Merkmalen in der Umgebung effektiv erfolgen soll.
  • EP 1 684 094 A2 betrifft eine Vorrichtung zur Umfelderfassung eines bewegbaren Objektes, insbesondere eines Kraftfahrzeuges, mit einer Lichtquelle, einer Kamera und einer mit der Kamera verbundenen Auswerteeinheit, wobei von der Lichtquelle ein ebenes Lichtbündel zur Darstellung einer Lichtlinie auf einem potentiellen Hindernis im Umfeld des Objektes projizierbar und die Lichtlinie mittels der Kamera erfassbar ist. Außerdem bezieht sich die Erfindung auf ein Kraftfahrzeug mit einer solchen Vorrichtung. Darüber hinaus betrifft die Erfindung ein Verfahren zur Umfelderfassung eines bewegbaren, eine Lichtquelle und eine Kamera aufweisenden Objektes, insbesondere eines Kraftfahrzeuges, wobei ein von der Lichtquelle abgestrahltes ebenes Lichtbündel auf ein potentielles Hindernis im Umfeld des Objektes als Lichtlinie projiziert wird und wobei die Lichtlinie von der Kamera erfasst wird.
  • US 2011/0133914 beschreibt ein bildbasiertes Objekterfassungssystem und ein Verfahren mit einem Entfernungsmesser. Das System umfasst eine Beleuchtungseinrichtung, die an einem Fahrzeug angeordnet ist, um einen Beleuchtungsstrahl in einer Abdeckungszone relativ zu dem Fahrzeug zu erzeugen. Das System umfasst auch eine Optikeinrichtung, die von der Beleuchtungseinrichtung beabstandet ist, um reflektierte Beleuchtung von einem oder mehreren Objekten in der Abdeckungszone zu sammeln, und eine Bildaufnahmeeinrichtung, die eine Anordnung von Pixeln zum Empfangen von Bildern von der Abdeckungszone über die Optikeinrichtung umfasst. Die Bildaufnahmeeinrichtung erfasst Bilder aus der Abdeckungszone und die von den Objekten in der Abdeckungszone reflektierte Beleuchtung.
  • Derartige aus dem Stand der Technik bekannte Lösungen können noch weiteres Verbesserungspotential bieten, insbesondere hinsichtlich einer Objekterkennung bei einer Fahrunterstützung.
  • Es ist die Aufgabe der vorliegenden Erfindung, die aus dem Stand der Technik bekannten Nachteile zumindest teilweise zu überwinden. Es ist insbesondere die Aufgabe der vorliegenden Erfindung, eine Lösung bereitzustellen, durch welche eine Objekterkennung für eine Fahrunterstützung verbessert werden kann.
  • Die Lösung der Aufgabe erfolgt erfindungsgemäß durch ein Fahrunterstützungsverfahren mit den Merkmalen des Anspruchs 1. Die Lösung der Aufgabe erfolgt erfindungsgemäß ferner durch ein Fahrunterstützungssystem mit den Merkmalen des Anspruchs 11. Bevorzugte Ausgestaltungen der Erfindung sind in den Unteransprüchen, in der Beschreibung oder den Figuren beschrieben, wobei weitere in den Unteransprüchen oder in der Beschreibung oder den Figuren beschriebene oder gezeigte Merkmale einzeln oder in einer beliebigen Kombination einen Gegenstand der Erfindung darstellen können, wenn sich aus dem Kontext nicht eindeutig das Gegenteil ergibt.
  • Es wird vorgeschlagen Fahrunterstützungsverfahren für ein Fahrzeug, aufweisend die Verfahrensschritte:
    1. a) Durchführen einer Umfelderfassung der Umgebung des Fahrzeugs mit wenigstens einem Umfelderfassungssensor unter Erstellung von ersten Sensordaten betreffend die Umgebung des Fahrzeugs, wobei die ersten Sensordaten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte umfassen, wobei Verfahrensschritt a) durchgeführt wird zu einem Zeitpunkt t1;
    2. b) Erzeugen und Speichern einer Repräsentation der Umgebung des Fahrzeugs auf Basis der ersten Sensordaten;
    3. c) Durchführen einer weiteren Umfelderfassung der Umgebung des Fahrzeugs, wobei die Umgebung zumindest zum Teil der Umgebung während Schritt a) zum Zeitpunkt t1 entspricht, mit wenigstens einem Umfelderfassungssensor unter Erstellung von zweiten Sensordaten betreffend die Umgebung des Fahrzeugs, wobei die zweiten Sensordaten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte umfassen, wobei Verfahrensschritt c) durchgeführt wird zu einem Zeitpunkt t2, wobei der Zeitpunkt t2 nach dem Zeitpunkt t1 liegt;
    4. d) Vergleichen der zweiten Sensordaten mit wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation;
    5. e) Ermitteln wenigstens eines Objekts, welches wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation zuordbar ist, aber welches zu dem Zeitpunkt t2 illuminationsbedingt eine Detektierbarkeit aufweist, die unterhalb eines definierbaren Grenzwertes liegt derart, dass das wenigstens eine Objekt den zweiten Sensordaten nicht oder nicht eindeutig zuordbar ist;
    6. f) Illuminieren wenigstens eines in Verfahrensschritt e) ermittelten Objekts; und
    7. g) Durchführen einer Fahrunterstützung, wobei in Betracht gezogen werden zumindest die zweiten Sensordaten und das wenigstens eine illuminierte Objekt.
  • Ein vorbeschriebenes Verfahren kann auf besonders vorteilhafte Weise die Detektion von in der Umgebung des Fahrzeugs befindlichen Objekten verbessern und so ein verbessertes Fahrunterstützungsverfahren bereitstellen.
  • Die vorliegende Erfindung betrifft somit ein Fahrunterstützungsverfahren, insbesondere zum Fahren eines Fahrzeugs durch eine Fahrzeugumgebung unter Verwendung eines Fahrunterstützungssystems. Dabei kann eine Fahrunterstützung und dabei das hier beschriebene Verfahren ein vollständig autonomes Fahren betreffen, also kann das Verfahren für ein Fahren des Fahrzeugs ohne einen Fahreingriff eines Fahrers ausgelegt sein. Alternativ ist es möglich, dass das Verfahren dazu dient, den Fahrer bei einem Fahren lediglich zu unterstützen, also etwa Fahrhinweise auszugeben oder bestimmte Fahreingriffe zu übernehmen, wobei der Fahrer bestimmte Fahreingriffe selbst durchführen muss.
  • Das Verfahren kann somit zumindest teilweise durch ein Fahrunterstützungssystem ausgeführt werden, welches Bestandteil des Fahrzeugs ist. Insbesondere kann das Fahrzeug ein Kraftfahrzeug sein.
  • Um das Verfahren durchzuführen weist das hier beschriebene Verfahren die folgenden Verfahrensschritte auf, wobei die nachfolgend beschriebenen Verfahrensschritte grundsätzlich in der beschriebenen Reihenfolge chronologisch oder auch in einer zumindest teilweise abweichenden Reihenfolge ablaufen können, wenn dies aus dem Kontext nicht eindeutig ausgeschlossen wird.
  • Zunächst erfolgt gemäß dem Verfahrensschritt a) das Durchführen einer Umfelderfassung der Umgebung des Fahrzeugs mit wenigstens einem Umfelderfassungssensor unter Erstellung von ersten Sensordaten betreffend die Umgebung des Fahrzeugs, wobei die ersten Sensordaten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte umfassen, wobei Verfahrensschritt a) durchgeführt wird zu einem Zeitpunkt t1.
  • Dieser Schritt kann grundsätzlich etwa für Fahrunterstützungssysteme bekannt sein, um etwa die Umgebung des Fahrzeugs zu beobachten und Objekte zu detektieren. Dabei kann dieser Schritt ferner grundsätzlich erfolgen durch an sich bekannte Umfelderfassungssensoren, die Bestandteil des Fahrunterstützungssystems sein können. Bevorzugt kann Verfahrensschritt a) erfolgen unter Verwendung wenigstens eines Umfelderfassungssensors, der ausgewählt ist aus der Gruppe bestehend aus Ultraschallsensoren, LIDARs, radarbasierten Sensoren oder Kameras. Besonders bevorzugt kann Verfahrensschritt a) erfolgen unter Verwendung einer Kamera oder einer Mehrzahl an Kameras. Derartige Umfelderfassungssensoren sind weitläufig bekannt und können auf sichere und effektive Weise eine Umfeldbeobachtung ermöglichen, wobei entsprechende Objekte detektiert werden können.
  • Verfahrensschritt a) kann dabei permanent erfolgen, etwa bei einem autonomen Fahren, oder durch ein bestimmtes Ereignis ausgelöst werden, sei es automatisiert oder manuell. Das Ereignis, welches den Verfahrensschritt a) auslösen kann, kann etwa das Einleiten oder Beenden einer Fahrsequenz sein, welche beispielsweise ein Einparken beinhaltet. Beispielsweise kann der Fahrer des Fahrzeugs eingeben, dass ein Parkvorgang erfolgen soll oder es kann anhand von Navigationsdaten, also etwa einem eingegebenen Ziel und der derzeitigen Position, ermittelt werden, dass ein Parkvorgang aufgrund des Erreichens des Ziels erfolgen soll oder erfolgt ist, so eine Umfelderfassung starten oder fortgeführt kann. Es sei jedoch darauf hingewiesen, dass das hier beschriebene Verfahren nicht auf einen Parkvorgang beziehungsweise Einparkvorgang beschränkt sein soll.
  • Dieser Verfahrensschritt a) erlaubt somit insbesondere das Erfassen von ersten Sensordaten betreffend die Umgebung des Fahrzeugs, wobei die ersten Sensordaten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte umfassen.
  • In diesem Schritt werden somit Objekte detektiert, die sich in der Fahrzeugumgebung befinden. Die Art der Objekte ist nicht grundsätzlich beschränkt. So kann es sich grundsätzlich um statische oder dynamische Objekte handeln, wobei statische Objekte bevorzugt sein können.
  • Ferner ist es vorgesehen, dass Verfahrensschritt a) durchgeführt wird zu einem Zeitpunkt t1. Der Zeitpunkt t1 ist nicht grundsätzlich beschränkt und soll insbesondere grundsätzlich den Zeitpunkt des Verfahrensschritts a) bestimmen, wobei in verständlicher Weise der Zeitpunkt einen Zeitraum umfassen kann.
  • Gemäß Verfahrensschritt b) umfasst das Verfahren weiterhin das Erzeugen und Speichern einer Repräsentation der Umgebung des Fahrzeugs auf Basis der ersten Sensordaten. Somit kann es insbesondere vorgesehen sein, dass die gespeicherten Daten beziehungsweise die ersten Sensordaten eine Karte beziehungsweise Repräsentation ausbilden, die Informationen über Objekte enthält, und gegebenenfalls ebenfalls umfasst, welche der in der Repräsentation vorliegenden Objekte eine illuminationsbedingte Detektierbarkeit aufweisen, die unterhalb eines definierbaren Grenzwertes liegt, wie dies nachfolgend beschrieben ist.
  • Unter Verwendung einer derartigen Karte beziehungsweise Repräsentation, die insbesondere während der Zeit beziehungsweise dem Zeitraum t1 erstellt wird und sich somit auf diesen Zeitraum bezieht, kann auf besonders einfache, effektive und sichere Weise eine Trajektorieplanung erfolgen, was wiederum eine Fahrunterstützung einfacherer und sicherer gestalten kann. Denn die erzeugte Karte kann deutlich genauer und verlässlicher erstellt werden, was die Fahrunterstützung wie vorstehend beschrieben deutlich verbessern kann.
  • Das Speichern der Repräsentation kann beispielsweise in an sich bekannter Weise realisiert werden, indem die Umfelddaten von dem Umfelderfassungssensor an eine Steuereinheit und/oder einen Speicher des Fahrunterstützungssystems weitergeleitet werden, so dass die Umfelddaten in an sich bekannter Weise gespeichert werden. Dabei kann nur ein temporäres Speichern über einen vorgebbaren Zeitraum erfolgen, oder die Daten können dauerhaft gespeichert werden und beispielsweise erst von einem Benutzer manuelle oder automatisch gelöscht werden, wenn das Speichervolumen des Speichers endet. Die Steuereinheit und/oder den Speicher kann dabei der selbe sein, der auch zur Erstellung der Repräsentation beziehungsweise der Karte verwendet wird.
  • Weiterhin erfolgt gemäß Verfahrensschritt c) das Durchführen einer weiteren Umfelderfassung der Umgebung des Fahrzeugs, wobei die Umgebung zumindest zum Teil der Umgebung während Schritt a) zum Zeitpunkt t1 entspricht, mit wenigstens einem Umfelderfassungssensor unter Erstellung von zweiten Sensordaten betreffend die Umgebung des Fahrzeugs, wobei die zweiten Sensordaten Informationen über in der Umgebung des Fahrzeugs befindliche Objekte umfassen, wobei Verfahrensschritt c) durchgeführt wird zu einem Zeitpunkt t2, wobei der Zeitpunkt t2 nach dem Zeitpunkt t1 liegt.
  • Wesentlich in dieser Ausgestaltung ist es somit beispielsweise, dass bei den Verfahrensschritten a) und c) jeweils eine gegebenenfalls sich entsprechend ablaufende Umfelderfassung durchgeführt zu zwei nacheinander liegenden Zeitpunkten, nämlich t1 und t2, welche grundsätzlich wählbaren Zeitpunkten entsprechen können. Dabei erfolgt der Verfahrensschritt c) zumindest zum Teil in der gleichen Umgebung, wie Verfahrensschritt a)
  • Grundsätzlich kann der Verfahrensschritt a) zu dem Zeitpunkt t1 einer Lernfahrt entsprechen und kann der Zeitpunkt t2 die in der Lernfahrt gewonnen Daten anwenden. Wichtig ist jedoch auf jeden Fall, dass der Zeitpunkt t2, der wiederum einen Zeitraum umfassen kann, nach dem Zeitpunkt t1 liegt.
  • Gemäß Verfahrensschritt d) erfolgt ferner das Vergleichen der zweiten Sensordaten mit wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation. In diesem Schritt kann somit ermittelt werden, ob sämtliche in der Repräsentation gespeicherten Objekte beziehungsweise sämtliche Objekte der ersten Sensordaten sich in den zweiten Sensordate wiederspiegeln. Dadurch kann somit ermittelt werden, ob die zweiten Sensordaten jegliche Objekte erfassen, oder ob bestimmte Objekte unerkannt bleiben.
  • Zur Reduzierung der Datenmenge kann sich dieser Schritt nur auf statische, also immobile, Objekte beziehen, da sich dynamische Objekte in hoher Wahrscheinlichkeit in den weiten Sensordaten nicht wiederspiegeln.
  • Weiterhin erfolgt gemäß Verfahrensschritt e) das Ermitteln wenigstens eines Objekts, welches wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation zuordbar ist, aber welches zu dem Zeitpunkt t2 illuminationsbedingt eine Detektierbarkeit aufweist, die unterhalb eines definierbaren Grenzwertes liegt derart, dass das wenigstens eine Objekt den zweiten Sensordaten nicht oder nicht eindeutig, also etwa gemäß einer vorgebbaren Wahrscheinlichkeit, zuordbar ist.
  • In diesem Schritt wird somit ermittelt, welche der detektierten Objekte schlecht detektierbar sind und somit gegebenenfalls bei einem Abfahren der Umgebung beziehungsweise einer entsprechenden Trajektorie aufgrund mangelnder Illumination nur schwer erkannt werden können. Dabei wird insbesondere ausgewertet, welche Objekte eine Detektierbarkeit aufweisen, die unterhalb eines definierbaren Grenzwertes liegt und welche Objekte eine Detektierbarkeit aufweisen, die oberhalb eines definierbaren Grenzwertes liegt. Dies soll ermöglichen, dass von Objekten, welche mit einer hohen Wahrscheinlichkeit detektiert werden, die Detektierbarkeit vermutlich keine Probleme bereiten wird und ein diesbezügliches Eingreifen nicht erforderlich ist. Bei Objekten, die jedoch vergleichsweise schlecht detektierbar sind, wird angenommen, dass die Detektierbarkeit problematisch sein kann, so dass hier gegebenenfalls die Detektierbarkeit verbessert werden sollte.
  • Entsprechend kann es bevorzugt vorgesehen sein, wenn Verfahrensschritt a) bei Bedingungen mit guter Illumination erfolgt, also etwa bei Tageslicht.
  • Der Grenzwert der Detektierbarkeit kann dabei grundsätzlich wählbar sein, insbesondere in Abhängigkeit der Umgebung, einer potentiellen Fahrsequenz und/oder einer abzufahrenden Trajektorie. So kann beispielsweise ein entsprechender Grenzwert bei einem Parkvorgang oder einem Fahren in einem städtischen Gebiet niedriger angesetzt werden, da hier eine hohe Genauigkeit der Objekterkennung notwendig ist, wohingegen etwa bei Fahrten im außerstädtischen Bereich gegebenenfalls der Grenzwert höher angesetzt werden kann, da hier gegebenenfalls eine niedrigere Detektionsgenauigkeit ausreichend sein kann.
  • Bezüglich einer illuminationsbedingten Detektierbarkeit kann in den Grenzwert einfließen, dass die Detektierbarkeit etwa durch eine Illumination erhöht werden kann. Diesbezüglich kann eine illuminationsbedingte schlechte Detektierbarkeit dann gegeben sein, wenn etwa das Objekt sich in dem freien Sichtfeld des Umfelderfassungssensors sich befindet, jedoch die Reflektivität gering ist. Dies kann beispielsweise ermittelt werden, wenn die ausgehende Strahlungsleistung des Umfelderfassungssensors ermittelt und mit der auf einen Detektor des Umfelderfassungssensors auftreffenden Strahlungsleitung verglichen wird. Wenn der Verlust an Strahlungsleistung oberhalb eines bestimmten Grenzwertes liegt, kann dies auf eine schlechte Detektierbarkeit hindeuten.
  • Ferner kann eine illuminationsbedingt schlechte Detektierbarkeit insbesondere dann vorliegen, wenn eine Kamera als Umfelderfassungssensor verwendet wird und die Umgebung des Fahrzeugs derart dunkel ist, dass die Kamera an ihre Detektionsgrenzen stößt. Dies kann beispielsweise ermittelt werden, wenn eine Kamera ein Objekt nicht oder nur mit geringer Wahrscheinlichkeit zuordnen kann. Beispielsweise kann herangezogen werden, dass etwa bei einem Abfahren der gleichen Umgebung bei niedrigeren Helligkeitswerten eine niedrige Detektierbarkeit auftritt, als bei höheren Helligkeitswerten. Die Helligkeitswerte können etwa über einen gewöhnlichen Lichtsensor ermittelbar sein. Die illuminationsbedingten Detektierbarkeit kann jedoch ebenfalls bei einem einmaligen Abfahren ermittelt werden, indem sich die Detektierbarkeit bei unterschiedlichen Helligkeitswerten, etwa durch den sich bewegenden Lichtkegel von Licht des Fahrzeugs.
  • Der Grenzwert ist wiederum grundsätzlich wählbar, wie dies vorstehend beschrieben ist.
  • Dies kann beispielsweise in an sich bekannter Weise realisiert werden, indem etwa bei einem mehrmaligen Abfahren einer Umgebung ermittelt wird, ob stets die gleichen Objekte detektiert werden, wobei dies insbesondere für statische Objekte erfolgen kann. Ferner kann dies etwa ermöglicht werden, indem eine wahrscheinlichkeitsbasierte Auswertung erfolgt und anhand der Wahrscheinlichkeiten, dass es sich bei dem ermittelten Scanpunkt oder einer Mehrzahl an ermittelten Scanpunkten um ein entsprechendes Objekt handelt. Die ermittelte Wahrscheinlichkeit kann dann etwa der Detektierbarkeit entsprechen. Jedoch kann es grundsätzlich wählbar sein, wie eine Detektierbarkeit ermittelt wird.
  • Gemäß Verfahrensschritt f) erfolgt ferner das Illuminieren wenigstens eines in Verfahrensschritt e) ermittelten Objekts.
  • Dies kann eine signifikant verbesserte Objekterkennung ermöglichen. Denn dadurch, dass ein Illuminieren der in Verfahrensschritt c) ermittelten Objekte bei Verfahrensschritt d) erfolgt, kann eine reduzierte Detektierbarkeit signifikant reduziert oder in anderen Worten die Detektierbarkeit von illuminationsbedingt schlecht detektierbaren Objekten verbessert werden. Dabei kann dieser Schritt insbesondere dann von Vorteil sein, wenn die illuminationsbedingt schlecht detektierbaren Objekte illuminiert beziehungsweise von einer Lampe angestrahlt werden.
  • Grundsätzlich kann es ferner möglich ein, dass eine Illumination erfolgt selektiv bezüglich der schlecht detektierbaren Objekte, also ein oder mehrere Objekte selektiv angestrahlt werden, oder es kann von Vorteil sein, dass ein Bereich der Fahrzeugumgebung illuminiert wird, der ein oder mehrere der schlecht detektierbaren Objekte anstrahlt. Weiterhin kann es grundsätzlich vorgesehen sein, dass eine Illumination nur erfolgt, wenn etwa die Umgebungshelligkeit unter einem vorgebbaren Grenzwert liegt. Dieser Grenzwert kann beispielsweise identisch sein mit einem solchen, bei dem das Abblendlicht bei einer oftmals verbauten Lichtsensor beziehungsweise Lichtautomatik eingeschaltet wird. Alternativ kann eine Illumination unabhängig der in der Umgebung herrschenden Lichtverhältnisse erfolgen.
  • Schließlich erfolgt gemäß Verfahrensschritt g) das Durchführen einer Fahrunterstützung, wobei in Betracht gezogen werden zumindest die zweiten Sensordaten und das wenigstens eine illuminierte Objekt.
  • Dieser Verfahrensschritt kann grundsätzlich eine an sich bekannte Fahrunterstützung sein, mittels der ein Fahrzeug zumindest zum Teil unterstützt und beispielsweise teilautonom oder vollständig autonom bewegt werden kann. Dabei kann etwa durch ein Vergleichen der Position der jeweiligen Objekte relativ zu dem Fahrzeug ermittelt werden, wo die Position des Fahrzeugs in der Repräsentation ist und kann eine entsprechende Trajektorie geplant und verwendet werden. Die Objekterkennung ist dabei durch die Illumination verbessert, wie dies vorstehend beschrieben ist.
  • Somit schafft das hier beschriebene Verfahren den Vorteil, wonach ein Fahrunterstützungssystem eine auch bei widrigen Bedingungen beziehungsweise schlecht detektierbaren Objekten eine verbesserte Detektion von Objekten in der Umgebung des Fahrzeugs ermöglichen kann.
  • Dadurch kann eine diesbezügliche Fahrunterstützung signifikant verbessert werden. Denn dadurch, dass Objekte mit einer erhöhten Sicherheit beziehungsweise mit einer erhöhten Wahrscheinlichkeit detektiert werden können, kann eine basierend auf den Objekten ermittelte und verwendete Trajektorie sicherer befahrbar sein, was somit die Gefahr von Unfällen deutlich verringern kann. Darüber hinaus kann das grundsätzliche Erzeugen einer Trajektorie verbessert werden, da mit einer erhöhten Wahrscheinlichkeit stets Objekte in einer ausreichenden Anzahl zur Verfügung stehen, um die Trajektorie zu planen.
  • Insbesondere kann eine Fahrunterstützung in komplexen Situationen beziehungsweise in komplexen Umgebungen verbessert werden, da insbesondere in komplexen Umgebungen, also etwa in Umgebungen, welche eine Vielzahl von Objekten aufweisen, eine Trajektorieplanung mit steigender Anzahl an Objekten ebenfalls komplexer wird. Dadurch, dass die Wahrscheinlichkeit einer korrekten Detektion der Objekte durch das hier beschriebene Verfahren steigt, kann somit insbesondere in derartigen Umgebungen eine deutliche Verbesserung ermöglicht werden.
  • Weiterhin kann es bevorzugt sein, dass als wenigstens ein Umfelderfassungssensor eine Kamera verwendet wird beziehungsweise dass die Verfahrensscheite a) und c) erfolgen mittels einer Kamera als Umfelderfassungssensor. Diesbezüglich kann es wie vorstehend beschrieben vorgesehen sein, dass insbesondere eine illuminationsbedingt schlechte Detektierbarkeit dann vorliegen kann, wenn eine Kamera als Umfelderfassungssensor verwendet wird und die Umgebung des Fahrzeugs derart dunkel ist, dass die Kamera an ihre Detektionsgrenzen stößt. Somit kann das Detektionsverhalten insbesondere einer Kamera als Umfelderfassungssensor durch eine Illumination deutlich verbessert werden. Das hier beschriebene Verfahren kann so insbesondere bei einer Kamera als Umfelderfassungssensor die vorbeschriebenen Vorteile besonders effektiv erlauben.
  • Es kann weiterhin bevorzugt sein, dass Verfahrensschritt f) erfolgt unter Verwendung einer Beleuchtungseinrichtung des Fahrzeugs, wobei die Beleuchtungseinrichtung Licht im sichtbaren Spektralbereich emittiert. Diese Ausgestaltung kann insbesondere dann von Vorteil sein, wenn der wenigstens eine Umfelderfassungssensor auf einer Detektion mittels Licht im sichtbaren Spektralbereich basiert. Beispielhaft aber nicht beschränkt hierauf kann diese Ausgestaltung somit vorteilhaft sein, wenn etwa eine Kamera als Umfelderfassungssensor verwendet wird. Dabei kann unter Licht im sichtbaren Spektralbereich insbesondere Licht verstanden werden, das in einem Bereich liegt von 380 nm bis 780 nm.
  • Diese Ausgestaltung kann ferner vorteilhaft sein, da so oftmals keine weitere Peripherie notwendig ist, sondern vielmehr etwa Beleuchtungseinrichtungen des Fahrzeugs verwendet werden können. Dadurch kann eine Implementierung der hier beschriebenen Ausgestaltung des Verfahrens besonders von Vorteil sein.
  • Bezüglich der Illumination kann es vorgesehen sein, dass die für Verfahrensschritt f) verwendete Beleuchtungseinrichtung ausgewählt ist aus einem Abblendlicht, Abbiegelicht, insbesondere blendfreiem Fernlicht oder Fernlicht mit einem dynamisch anpassbaren beziehungsweise einstellbaren Lichtkegel oder einem Zusatzscheinwerfer. Dabei kann insbesondere die Verwendung von Abblendlicht, Abbiegelicht oder blendfreiem Fernlicht den Vorteil aufweisen, dass derartige Beleuchtungseinrichtungen meist ohnehin in einem Fahrzeug verbaut sind und so das Verfahren mit der vorhandenen Peripherie umgesetzt werden kann. Bezüglich des Fernlichts kann ferner eine besonders effektive Illumination erfolgen. Bezüglich eines Abbiegelichts kann ferner eine zumindest teilweise selektive Illumination von schlecht detektierbaren Objekten ermöglicht werden. Die Verwendung eines Zusatzscheinwerfers kann von Vorteil sein, da dieser etwa auf den gewünschten Zweck angepasst werden kann. Dadurch kann die Illuminationsrichtung des Zusatzscheinwerfers steuerbar sein, so dass selektiv einzelne Objekte illuminierbar sein können. Dabei kann eine Steuerung des Zusatzschweinwerfers beispielsweise automatisiert durch das Fahrunterstützungssystem erfolgen. Ferner kann es vorgesehen sein, dass eine Mehrzahl derartiger Zusatzscheinwerfer vorgesehen ist Insbesondere kann es vorgesehen sein, dass eine für Verfahrensschritt f) verwendete Beleuchtungseinrichtung, beispielsweise eine vorstehend genannte Beleuchtungseinrichtung, wie etwa Fernlicht, einen dynamisch, also in Abhängigkeit der vorliegenden Gegebenheiten und insbesondere in Abhängigkeit der Position des zu illuminierenden Objekts, veränderbaren Lichtkegel aufweist. Dadurch kann eine Illuminierung besonders adaptiv erfolgen.
  • Insbesondere diesbezüglich, beispielsweise unter Verwendung von Fernlicht mit einem veränderbaren, also dynamisch anpassbaren, Lichtkegel, kann es somit vorgesehen sein, Verfahrensschritt d) erfolgt unter Verwendung von Fernlicht, wenn durch eine Analyse von Sensordaten ermittelt wurde, dass kein Verkehrsteilnehmer angeleuchtet und gegebenenfalls geblendet wird. In dieser Ausgestaltung kann somit ermittelt werden, ob sich in der Illuminationsrichtung des Fernlichtes andere Verkehrsteilnehmer befinden, wie insbesondere entgegenkommende Fahrzeug oder Fußgänger. Wenn diese Ermittlung positiv ist, also entsprechende Verkehrsteilnehmer vorhanden sind, kann etwa Abblendlicht verwendet werden, um ein Blenden zu verhindern. Wenn jedoch keine derartigen Verkehrsteilnehmer vorhanden sind, kann problemlos Fernlicht verwendet werden.
  • Dem Vorstehenden folgend kann es besonders bevorzugt sein, dass bei Verfahrensschritt f) eine Beleuchtungseinrichtung mit dynamisch anpassbarem Lichtkegel derart verwendet wird, dass die zu beleuchtenden Objekte hinreichend, also für eine Objektdetektion in ausreichender Weise, beleuchtet werden und gleichzeitig andere Objekte bzw. Verkehrsteilnehmer nicht oder nur unterhalb einer vorgebbaren Lichtstärke beleuchtet werden.
  • Es kann weiterhin bevorzugt sein, dass Verfahrensschritt f) ausgelöst wird automatisiert durch ein Fahrunterstützungssystem. In dieser Ausgestaltung kann somit vollkommen automatisiert eine Illumination der jeweiligen Objekte erfolgen, was einen hohen Grad an Komfort für den Fahrer bedeutet. Ferner können die vorbeschriebenen Vorteile besonders effektiv und sicher ermöglicht werden.
  • Alternativ kann es bevorzugt sein, wenn Verfahrensschritt f) ausgelöst wird durch den Fahrer des Fahrzeugs auf Basis einer von dem Fahrunterstützungssystem insbesondere an den Fahrer ausgegebenen Information. In dieser Ausgestaltung kann somit beispielsweise nur dann, wenn der Fahrer erkennt, dass eine entsprechende Illumination notwendig ist, oder dies durch das Fahrunterstützungssystem angezeigt wird, diese auch erfolgen. Ferner kann der Fahrer beispielsweise selektiv entscheiden, dass eine entsprechende Illumination gerade nicht ausgeführt werden soll. So kann beispielsweise, wenn etwa aufgrund der spezifischen Bedingungen eine Illumination nicht erwünscht ist, diese ausbleiben, so dass beispielsweise eine Beeinträchtigung für die Umwelt, wie etwa Blendeffekte, besonders gering gehalten werden kann.
  • Vorteilhaft kann es ferner sein, dass das Verfahren Teil eines Parkunterstützungsverfahrens ist. Derartige Verfahren umfassen vielzählige Manöver, wie beispielsweise vorwärtsfahrendes oder rückwärtsfahrendes rechtwinkliges Parken, vorwärtsfahrendes oder rückwärtsfahrendes paralleles Einparken oder Fischgrätenparken oder auch entsprechende Ausparkmanöver. Die vorbeschriebenen Vorteile lassen sich insbesondere bei einem Parkunterstützungsverfahren vorteilhaft umsetzen, da insbesondere bei einer Parkunterstützung, wie etwa bei einem Parken zu Hause oder an einem Arbeitsplatz, ein vielmaliges Abfahren einer Trajektorie in der selben Umgebung erfolgen kann und dadurch gezielt Objekte durch Illumination bezüglich ihrer Detektierbarkeit verbessert werden können. Ferner kann so gegebenenfalls ein besonders effektives Anlernen des Verfahrens beziehungsweise des Systems erfolgen.
  • Bezüglich weiterer Vorteile und Merkmale des Verfahrens wird auf die Beschreibung des Fahrunterstützungssystems, die Figuren und die Beschreibung der Figuren verwiesen, und umgekehrt.
  • Es wird ferner ein Fahrunterstützungssystem für ein Fahrzeug beschrieben, wobei das Fahrunterstützungssystem wenigstens einen Umfelderfassungssensor und ferner eine Steuereinheit aufweist, die mit Daten des wenigstens einen Umfelderfassungssensors speisbar ist, wobei die Steuereinheit ferner dazu ausgestaltet ist, ein Verfahren zumindest zum Teil auszuführen, wie dies vorstehend im Detail beschrieben ist.
  • Das Fahrunterstützungssystem kann Teil eines Fahrzeugs sein, wie beispielsweise eines Pkws. Das Fahrunterstützungssystem kann insbesondere zum Erzeugen von Umgebungsdaten als Basis für eine Fahrunterstützung, wie etwa das Erzeugen einer Fahrtrajektorie, vorgesehen sein, wie vorstehend ausführlich beschrieben ist.
  • Für eine Umfeldbeobachtung beziehungsweise Umfelderfassung weist das Fahrunterstützungssystem mindestens einen Umfelderfassungssensor auf. Der mindestens eine Umfelderfassungssensor kann beispielsweise ein beliebiger geeigneter auf dem Fachgebiet bekannter Sensor sein. Ferner kann zum Überwachen der Umgebung nur ein oder können mehrere verschiedene oder gleiche Sensoren verwendet werden, die eine Sensoranordnung aus einem oder mehreren Umgebungssensoren beziehungsweise Umfelderfassungssensoren bilden. Der mindestens eine Umfelderfassungssensor kann beispielsweise aufweisen oder bestehen aus einem oder mehreren gleichen oder unterschiedlichen Sensoren, die ausgewählt sind aus der Gruppe bestehend aus Ultraschallsensoren, LIDARs, radarbasierten Sensoren, Kameras oder weiteren Sensoren, die auf dem Fachgebiet zum Überwachen der Umgebung bekannt sind. Besonders vorteilhaft kann der wenigstens eine Umfelderfassungssensor eine Kamera sein.
  • Ferner wird eine Steuereinheit, wie beispielsweise ein Prozessor, bereitgestellt. Die Steuereinheit ist zum Auswerten der von dem oder den Sensoren gelieferten Sensordaten und zum Erfassen, Speichern und Abrufen von Umgebungsdaten und gegebenenfalls zum Klassifizieren von Objekten geeignet. Insbesondere weist die Steuereinheit Informationen auf, mittels welchen entschieden werden kann, ob spezifische Objekte eine ausreichende illuminationsbedingte Detektierbarkeit aufweisen. Hierzu kann die Steuereinheit mit einem entsprechenden Computerprogrammprodukt versehen sein, welches dazu ausgestaltet ist, das vorstehend im Detail beschriebene Verfahren auszuführen.
  • Durch das hier beschriebene Fahrunterstützungssystem kann somit auf effektive und verlässliche Weise eine Detektion von in der Umgebung des Fahrzeugs befindlichen Objekten verbessert werden und dadurch eine Fahrunterstützung, beispielsweise im Sinne eines teilautonomen oder autonomen Fahrens, verbessert werden.
  • Bezüglich weiterer Vorteile und Merkmale des Fahrunterstützungssystems wird auf die Beschreibung des Verfahrens, die Figur und die Beschreibung der Figur verwiesen, und umgekehrt.
  • Weitere Vorteile und vorteilhafte Ausgestaltungen der erfindungsgemäßen Gegenstände werden durch die Zeichnungen veranschaulicht und in der nachfolgenden Beschreibung erläutert. Dabei ist zu beachten, dass die Zeichnungen nur beschreibenden Charakter haben und nicht dazu gedacht sind, die Erfindung in irgendeiner Form einzuschränken. Es zeigen:
    • 1 eine schematische Darstellung darstellend eine Umgebung mit einem Fahrzeug; und
    • 2 eine schematische Darstellung zeigend eine Draufsicht auf das Fahrzeug aus 1.
  • In der 1 ist rein schematisch eine Umgebung gezeigt, in der ein Fahrzeug 10 fährt. Insbesondere ist die Umgebung eine solche, die von dem Fahrzeug 10 sich wiederholend befahren wird.
  • Es ist ferner gezeigt, dass vor dem Fahrzeug 10 ein Objekt 12 vorgesehen ist, das insbesondere ein statisches Objekt ist. In der Ausgestaltung gemäß 1 ist das Objekt 12 ein Bauwerk.
  • Das Fahrzeug 10 umfasst ferner ein Fahrunterstützungssystem 14, wie dieses in der 2 in größerem Detail gezeigt ist. Das Fahrunterstützungssystem 14 umfasst wenigstens einen Umfelderfassungssensor 16 und ferner eine Steuereinheit 18. Der mindestens eine Umfelderfassungssensor 16 kann beispielsweise aufweisen oder bestehen aus einem oder mehreren gleichen oder unterschiedlichen Sensoren, die ausgewählt sind aus der Gruppe bestehend aus Ultraschallsensoren, LIDARs, radarbasierten Sensoren, Kameras oder weiteren Sensoren, die auf dem Fachgebiet zum Überwachen der Umgebung bekannt sind. Insbesondere ist der Umfelderfassungssensor 16 eine Kamera.
  • Die Steuereinheit 18 ist mittels einer Datenverbindung 20 mit dem Umfelderfassungssensor 16 verbunden und ist so mit Daten des wenigstens einen Umfelderfassungssensors 16 speisbar. Insbesondere kann der Umfelderfassungssensor 16 Umfelddaten an die Steuereinheit 18 senden, welche die Position und Art in der Umgebung des Fahrzeugs 10 befindlicher Objekte 12 umfassen. Die Steuereinheit 18 kann die Umgebungsdaten beispielsweise in Form einer Umgebungskarte speichern und so etwa Fahrtrajektorien für das Fahrzeug 10 planen. Ferner ist es insbesondere vorgesehen, dass in der Steuereinheit 18 basierend auf den Umgebungsdaten ermittelt werden kann ob das Objekt 12 eine illuminationsbedingte Detektierbarkeit aufweist, die unterhalb eines bestimmten Grenzwertes liegt. Wenn dies der Fall ist und um darauf zu reagieren, wie dies nachfolgend beschrieben ist, ist ferner eine Beleuchtungseinrichtung 22 vorgesehen, die mittels einer Datenverbindung 24 mit der Steuereinheit 18 verbunden und durch diese ansteuerbar ist.
  • Bezüglich der Beleuchtungseinrichtung 22 kann es insbesondere vorgesehen sein, dass diese Licht im sichtbaren Spektralbereich emittiert. Insbesondere kann es vorgesehen sein, dass die Beleuchtungseinrichtung 22 ausgewählt ist aus einem Abblendlicht, Abbiegelicht, insbesondere blendfreiem Fernlicht oder einem Zusatzscheinwerfer.
  • Zurückkommend auf 1 ist es ferner gezeigt, dass der Umfelderfassungssensor 16 einen Erfassungsbereich 26 aufweist, innerhalb dessen das Objekt 12 angeordnet ist. Somit ist das Objekt 12 grundsätzlich durch den Umfelderfassungssensor 16 detektierbar. Es ist ferner gezeigt, dass die Beleuchtungseinrichtung 22 einen Illuminationsbereich 28 aufweist, innerhalb dessen eine Beleuchtung beziehungsweise Illumination erfolgen kann. Dabei ist zu erkennen, dass das Objekt 12 zumindest teilweise in dem Illuminationsbereich 28 als auch in dem Detektionsbereich 26 vorliegt. Durch ein Ansteuern der Beleuchtungseinrichtung 22 kann daher das Objekt 12 beleuchtet beziehungsweise illuminiert und so seine Detektierbarkeit verbessert werden.
  • Somit kann ein Fahrunterstützungsverfahren ermöglicht werden, das die folgenden Verfahrensschritte aufweist:
    1. a) Durchführen einer Umfelderfassung der Umgebung des Fahrzeugs 10 mit wenigstens einem Umfelderfassungssensor 16 unter Erstellung von ersten Sensordaten betreffend die Umgebung des Fahrzeugs 10, wobei die ersten Sensordaten Informationen über in der Umgebung des Fahrzeugs 10 befindliche Objekte 12 umfassen, wobei Verfahrensschritt a) durchgeführt wird zu einem Zeitpunkt t1;
    2. b) Erzeugen und Speichern einer Repräsentation der Umgebung des Fahrzeugs 10 auf Basis der ersten Sensordaten;
    3. c) Durchführen einer weiteren Umfelderfassung der Umgebung des Fahrzeugs 10, wobei die Umgebung zumindest zum Teil der Umgebung während Schritt a) zum Zeitpunkt t1 entspricht, mit wenigstens einem Umfelderfassungssensor 16 unter Erstellung von zweiten Sensordaten betreffend die Umgebung des Fahrzeugs 10, wobei die zweiten Sensordaten Informationen über in der Umgebung des Fahrzeugs 10 befindliche Objekte 12 umfassen, wobei Verfahrensschritt c) durchgeführt wird zu einem Zeitpunkt t2, wobei der Zeitpunkt t2 nach dem Zeitpunkt t1 liegt;
    4. d) Vergleichen der zweiten Sensordaten mit wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation;
    5. e) Ermitteln wenigstens eines Objekts 12, welches wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation zuordbar ist, aber welches zu dem Zeitpunkt t2 illuminationsbedingt eine Detektierbarkeit aufweist, die unterhalb eines definierbaren Grenzwertes liegt derart, dass das wenigstens eine Objekt 12 den zweiten Sensordaten nicht oder nicht eindeutig zuordbar ist;
    6. f) Illuminieren wenigstens eines in Verfahrensschritt e) ermittelten Objekts 12; und
    7. g) Durchführen einer Fahrunterstützung, wobei in Betracht gezogen werden zumindest die zweiten Sensordaten und das wenigstens eine illuminierte Objekt 12.
  • Durch ein derartiges Verfahren kann eine Detektierbarkeit des Objekts 12 beziehungsweise eine Vielzahl an Objekten 12 deutlich verbessert werden.
  • Um eine Beeinträchtigung anderer Verkehrsteilnehmer zu minimieren kann es ferner vorgesehen sein, dass die vorbeschriebene Beleuchtungseinrichtung 22 entsprechend ausgewählt wird beziehungsweise dass die Umgebungsdaten auf andere Verkehrsteilnehmer untersucht wird, um die bestmögliche Beleuchtungseinrichtung auszuwählen.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    12
    Objekt
    14
    Fahrunterstützungssystem
    16
    Umfelderfassungssensor
    18
    Steuereinheit
    20
    Datenverbindung
    22
    Beleuchtungseinrichtung
    24
    Datenverbindung
    26
    Erfassungsbereich
    28
    Illuminationsbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1684094 A2 [0003]
    • US 2011/0133914 [0004]

Claims (10)

  1. Fahrunterstützungsverfahren für ein Fahrzeug (10), aufweisend die Verfahrensschritte: a) Durchführen einer Umfelderfassung der Umgebung des Fahrzeugs (10) mit wenigstens einem Umfelderfassungssensor (16) unter Erstellung von ersten Sensordaten betreffend die Umgebung des Fahrzeugs (10), wobei die ersten Sensordaten Informationen über in der Umgebung des Fahrzeugs (10) befindliche Objekte (12) umfassen, wobei Verfahrensschritt a) durchgeführt wird zu einem Zeitpunkt t1; b) Erzeugen und Speichern einer Repräsentation der Umgebung des Fahrzeugs (10) auf Basis der ersten Sensordaten; c) Durchführen einer weiteren Umfelderfassung der Umgebung des Fahrzeugs (10), wobei die Umgebung zumindest zum Teil der Umgebung während Schritt a) zum Zeitpunkt t1 entspricht, mit wenigstens einem Umfelderfassungssensor (16) unter Erstellung von zweiten Sensordaten betreffend die Umgebung des Fahrzeugs (10), wobei die zweiten Sensordaten Informationen über in der Umgebung des Fahrzeugs (10) befindliche Objekte (12) umfassen, wobei Verfahrensschritt c) durchgeführt wird zu einem Zeitpunkt t2, wobei der Zeitpunkt t2 nach dem Zeitpunkt t1 liegt; d) Vergleichen der zweiten Sensordaten mit wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation; e) Ermitteln wenigstens eines Objekts (12), welches wenigstens einem von den ersten Sensordaten und der in Verfahrensschritt b) erzeugten und gespeicherten Repräsentation zuordbar ist, aber welches zu dem Zeitpunkt t2 illuminationsbedingt eine Detektierbarkeit aufweist, die unterhalb eines definierbaren Grenzwertes liegt derart, dass das wenigstens eine Objekt (12) den zweiten Sensordaten nicht oder nicht eindeutig zuordbar ist; f) Illuminieren wenigstens eines in Verfahrensschritt e) ermittelten Objekts (12); und g) Durchführen einer Fahrunterstützung, wobei in Betracht gezogen werden zumindest die zweiten Sensordaten und das wenigstens eine illuminierte Objekt (12).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als wenigstens ein Umfelderfassungssensor (16) eine Kamera verwendet wird.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass Verfahrensschritt f) erfolgt unter Verwendung einer Beleuchtungseinrichtung (22) des Fahrzeugs (10), wobei die Beleuchtungseinrichtung (22) Licht im sichtbaren Spektralbereich emittiert.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine für Verfahrensschritt f) verwendete Beleuchtungseinrichtung (22) ausgewählt ist aus einem Abblendlicht, Abbiegelicht, Fernlicht, Fernlicht mit dynamisch anpassbarem Lichtkegel oder einem Zusatzscheinwerfer.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass Verfahrensschritt f) erfolgt unter Verwendung von Fernlicht, wenn durch eine Analyse von Sensordaten ermittelt ist, dass keine Verkehrsteilnehmer angeleuchtet / geblendet werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass Verfahrensschritt f) ausgelöst wird automatisiert durch ein Fahrunterstützungssystem (14).
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass Verfahrensschritt f) ausgelöst wird durch den Fahrer des Fahrzeugs (10) auf Basis einer vom Fahrunterstützungssystem an den Fahrer ausgegebenen Information.
  8. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Verfahren Teil eines Parkunterstützungsverfahrens ist.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass bei Verfahrensschritt f) eine Beleuchtungseinrichtung mit dynamisch anpassbarem Lichtkegel derart verwendet wird, dass die zu beleuchtenden Objekte hinreichend beleuchtet werden und gleichzeitig andere Objekte als die zu beleuchtenden Objekte nicht oder nur wenig beleuchtet werden.
  10. Fahrunterstützungssystem für ein Fahrzeug (10), wobei das Fahrunterstützungssystem (14) wenigstens einen Umfelderfassungssensor (16) und ferner eine Steuereinheit (18) aufweist, die mit Daten des wenigstens einen Umfelderfassungssensors (16) speisbar ist, dadurch gekennzeichnet, dass die Steuereinheit (16) dazu ausgestaltet ist, ein Verfahren nach einem der Ansprüche 1 bis 9 zumindest zum Teil auszuführen.
DE102019101415.8A 2019-01-21 2019-01-21 Fahrunterstützungsverfahren Pending DE102019101415A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019101415.8A DE102019101415A1 (de) 2019-01-21 2019-01-21 Fahrunterstützungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019101415.8A DE102019101415A1 (de) 2019-01-21 2019-01-21 Fahrunterstützungsverfahren

Publications (1)

Publication Number Publication Date
DE102019101415A1 true DE102019101415A1 (de) 2020-07-23

Family

ID=71402886

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019101415.8A Pending DE102019101415A1 (de) 2019-01-21 2019-01-21 Fahrunterstützungsverfahren

Country Status (1)

Country Link
DE (1) DE102019101415A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1684094A2 (de) 2005-01-24 2006-07-26 Robert Bosch Gmbh Optisches Triangulationsverfahren zur Abstandsbestimmung für Kraftfahrzeuganwendungen
US20110133914A1 (en) 2009-12-04 2011-06-09 Delphi Technologies, Inc. Image based vehicle object detection sensor with range finder
DE102010048100A1 (de) * 2010-10-09 2012-04-12 Daimler Ag Verfahren und Vorrichtung zur Fahrlichtsteuerung eines Fahrzeugs
DE102012002226A1 (de) * 2012-02-04 2012-08-30 Daimler Ag Verfahren zur Steuerung einer Fahrlichtverteilung für ein Fahrzeug
DE102011081396A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Steuergerät zum Anpassen einer Abstrahlcharakteristik zumindest eines Scheinwerfers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1684094A2 (de) 2005-01-24 2006-07-26 Robert Bosch Gmbh Optisches Triangulationsverfahren zur Abstandsbestimmung für Kraftfahrzeuganwendungen
US20110133914A1 (en) 2009-12-04 2011-06-09 Delphi Technologies, Inc. Image based vehicle object detection sensor with range finder
DE102010048100A1 (de) * 2010-10-09 2012-04-12 Daimler Ag Verfahren und Vorrichtung zur Fahrlichtsteuerung eines Fahrzeugs
DE102011081396A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Steuergerät zum Anpassen einer Abstrahlcharakteristik zumindest eines Scheinwerfers
DE102012002226A1 (de) * 2012-02-04 2012-08-30 Daimler Ag Verfahren zur Steuerung einer Fahrlichtverteilung für ein Fahrzeug

Similar Documents

Publication Publication Date Title
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
DE112019000339T5 (de) Automatisches beleuchtungssystem
DE102013012325A1 (de) Fahrerassistenzsystem und Betriebsverfahren dafür
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE102011004463A1 (de) Spurmarkierungserkennungssystem mit verbessertem erkennungsverhalten
DE102017223160A1 (de) Verfahren zum Erkennen von zumindest einem an einem Kraftfahrzeug anliegenden Objekt sowie Steuervorrichtung und Kraftfahrzeug
EP1498721A1 (de) Vorrichtung zur Erkennung von Nebel, insbesondere für ein Fahrzeug
EP2857275A2 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102010023199A1 (de) Bilderfassungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bilderfassungsvorrichtung
DE102017207932B4 (de) Verfahren zum Betreiben einer Beleuchtungseinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102018004782A1 (de) Verfahren und Vorrichtung zum Erfassen einer Umgebung, sowie Fahrzeug mit einer solchen Vorrichtung
DE102007032997A1 (de) Fahrerassistenzvorrichtung
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
DE102013022050A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102019101415A1 (de) Fahrunterstützungsverfahren
DE102022212343A1 (de) Autonom-fahrsystem
DE102017116565A1 (de) Erkennung von fahrzeuggrenzen
DE102019212124B4 (de) Kraftfahrzeug und Verfahren zum Betrieb eines Kraftfahrzeugs
EP3994497A1 (de) Anpassungsvorrichtung und lidar-messvorrichtung
DE102020124017A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, optische Detektionsvorrichtung und Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung
DE102019129737A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102019001610A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs
EP3671125B1 (de) Positionsbestimmungssystem und verfahren zum betreiben eines positionsbestimmungssystems für eine mobile einheit
DE102021213097B3 (de) Verfahren zum Klassifizieren von Objekten in einem Bild, welches die Fahrbahn im Vorfeld eines Kraftfahrzeugs zeigt
DE102018127714A1 (de) Verfahren zum Bestimmen einer aktuellen Erfassungsreichweite eines optoelektronischen Sensors durch Vergleich zweier Intensitätswerte, optoelektronischer Sensor sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified