-
Stand der Technik
-
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Filtern von Objektinformationen, auf ein entsprechendes Informationssystem sowie auf ein entsprechendes Computerprogrammprodukt.
-
Bei schlechten Sichtverhältnissen kommt es weltweit im Straßenverkehr häufig zu Unfällen. Diese sind oft dadurch geschuldet, dass der Fahrzeugführer die Lage nicht richtig einschätzt und seine sowie die physikalischen Fähigkeiten (Bremswege etc.) des Fahrzeugs überschätzt.
-
Die
DE 101 31 720 A1 beschreibt ein Head-Up Display System zur Darstellung eines Objekts eines Fahrzeugaußenraums.
-
Offenbarung der Erfindung
-
Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Filtern von Objektinformationen, weiterhin ein Informationssystem, das dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
-
Bisherige Systeme (z. B. Night-Vision) erkennen Objekte selbstständig und zeigen diese dem Fahrzeugführer auf einem Bildschirm an. Ob der Fahrer das Objekt auch ohne Assistenzsystem erkennen kann, spielt hierbei keine Rolle. Dies hat zur Folge, dass dem Fahrer unnötig viele Informationen (Informationsflut) übermittelt werden. Auch bei schlechter Sicht kann ein Fahrer eines Fortbewegungsmittels wie beispielsweise eines Fahrzeugs unterstützt werden, wenn Objekte vor dem Fortbewegungsmittel erkannt und angezeigt werden. Dazu kann unter Zuhilfenahme eines Sensors eine Umgebung des Fortbewegungsmittels erfasst werden und Objekte in der Umgebung erkannt werden. Die Objekte können für den Fahrer hervorgehoben dargestellt werden. Unter einem Fortbewegungsmittel kann hierbei allgemein ein Gerät verstanden werden, das zum Fortbefördern von Personen oder Gütern dient, wie beispielsweise ein Fahrzeug, ein Förderzeug, ein Schiff, ein Schienenfahrzeug, ein Flugzeug oder ein ähnliches Mittel zur Fortbewegung.
-
Dies führt zu einer zusätzlichen kognitiven Belastung des Fortbewegungsmittels- bzw. Fahrzeugführers, da die realen Objekte und die angezeigten Objekte durch den Fahrer erkannt und verarbeitet werden müssen. Des Weiteren kann die Akzeptanz solcher Assistenzsysteme sinken, falls der Fahrer den subjektiven Eindruck gewinnt, dass das Assistenzsystem keinen Mehrwert hat.
-
Um eine solche negative Wirkung zu vermeiden, können Sensoren verwendet werden, die unabhängig von herrschenden Sichtverhältnissen Objekte auflösen und erkennen können. Solche Sensoren weisen oft eine große Reichweite auf. Die Reichweite kann beispielsweise in Bodennähe von unmittelbar vor dem Fortbewegungsmittel, insbesondere dem Fahrzeug bis zu einem lokalen Horizont reichen. Innerhalb der Reichweite kann eine Fülle an Objekten erfasst werden. Ein Fahrer kann, wenn alle Objekte hervorgehoben dargestellt würden, durch die dadurch hohe Menge der angezeigten und zu interpretierenden Objekte überfordert werden. Zumindest kann der Fahrer vom, für ihn sichtbaren Verkehrsgeschehen abgelenkt werden.
-
Die Erfindung basiert auf der Erkenntnis, dass ein Fahrer eines Fortbewegungsmittels wie eines Fahrzeugs Objekte, die er selbst erkennen kann, nicht hervorgehoben dargestellt benötigt. Hierzu können beispielsweise Objekte, die mit einem für große Entfernungen sehr weit auflösenden Sensor erfasst und detektiert wurden, mit Objekten verglichen werden, die auch durch einen den vom Fahrer einsehbaren Bereich vor der neben dem Fortbewegungsmittel-Sensor erkennbar sind. Insofern braucht lediglich eine Teilmenge der durch die beiden Sensoren erfassten Objekte extrahiert werden, die dann beispielsweise in einem nachfolgenden Schritt auf einer Anzeige für den Fahrer angezeigt werden.
-
Vorteilhafterweise kann von einer Gesamtmenge der mit einem weitreichenden Sensor erfassten Objekte eine Teilmenge erkannter Objekte abgezogen bzw. ausgeschlossen werden, die beispielsweise mittels eines im sichtbaren Spektrum messenden Sensors erkannt werden, um eine verringerte Menge von beispielsweise nachfolgend darzustellenden Objekten zu erhalten. Hierdurch kann die Informationsmenge der ausgewählten bzw. ausgefilterten Objekte verringert werden, was die Übersichtlichkeit bei der Anzeige für den Fahrer erhöht und neben einer höheren Akzeptanz durch den Fahrer auch einen Vorteil in Bezug auf die Fortbewegungsmittelsicherheit liefert, da nun auch einem Fahrer ein Hinweis auf Objekte gegeben werden kann, die beispielsweise nicht in seinem Sichtbereich liegen.
-
Die vorliegende Erfindung schafft ein Verfahren zum Filtern von Objektinformationen, wobei das Verfahren die folgenden Schritte aufweist:
Einlesen einer ersten Objektinformation, die zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt repräsentiert, wobei der erste Sensor auf einem ersten Sensorprinzip basiert;
Einlesen einer zweiten Objektinformation, die zumindest zwei von einem zweiten Sensor erfasste und erkannte Objekte repräsentiert, wobei der zweite Sensor auf einem zweiten Sensorprinzip basiert und zumindest eines der Objekte auch in der ersten Objektinformation repräsentiert ist, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet; und
Ausgeben einer gefilterten Objektinformation, die diejenigen Objekte repräsentiert, die in der zweiten Objektinformation und nicht in der ersten Objektinformation repräsentiert sind.
-
Unter einer Objektinformation kann eine Kombination verschiedener Parameter einer Mehrzahl an Objekten verstanden werden. Beispielsweise kann einem Objekt je eine Position, eine Klasse, eine Entfernung und/oder ein Koordinatenwert zugeordnet sein. Die Objektinformation kann ein Ergebnis einer Objekterkennung basierend auf einem oder mehreren Bildern und einer Verarbeitungsvorschrift repräsentieren. Unter einem Sensorprinzip kann eine Art der Erfassung oder Aufzeichnung einer zu messenden physikalischen Größe verstanden werden. Beispielsweise kann ein Sensorprinzip die Ausnutzung von elektromagnetischen Wellen in einem vorbestimmten Spektralbereich zur Erfassung der zu messenden physikalischen Größe umfassen. Alternativ kann ein Sensorprinzip auch die Ausnutzung von Ultraschallsignalen zur Erfassung einer zu messenden physikalischen Größe umfassen. Dabei sollte ein Unterschied zwischen dem ersten und zweiten Sensorprinzip feststellbar sein, der sich beispielsweise in der Erfassung oder Auswertung eines Sensorsignals auszeichnet. Die Erfassung oder Auswertung der von den beiden Sensoren erfassten physikalischen Größen sollte sich folglich unterscheiden. Ein erster Sensor kann beispielsweise eine Kamera sein. Der erste Sensor kann somit beispielsweise empfindlich für sichtbares Licht sein. Der erste Sensor kann somit ähnlichen optischen Einschränkungen unterliegen, wie ein menschliches Auge. Beispielsweise kann der erste Sensor ein eingeschränktes Sichtfeld bei vor dem Fahrzeug auftretendem Nebel oder Regen aufweisen. Ein zweiter Sensor kann beispielsweise ein deutlich weiter erfassender Sensor sein. Beispielsweise kann der zweite Sensor eine Richtungsinformation und/oder eine Entfernungsinformation zu einem Objekt bereitstellen. Beispielsweise kann der zweite Sensor ein Radar oder Lidar Sensor sein.
-
Gemäß einer vorteilhaften Ausführungsform der vorliegenden Erfindung können im Schritt des Einlesens einer zweiten Objektinformation Daten von dem zweiten Sensor eingelesen werden, der ausgebildet ist, um Objekte zu erfassen, die außerhalb eines Erfassungsbereichs des ersten Sensors angeordnet sind, insbesondere die in einem Abstand vor einem Fortbewegungsmittel, insbesondere einem Fahrzeug angeordnet sind, der größer ist als ein Abstand einer maximalen Grenze des Erfassungsbereichs des ersten Sensors vor dem Fortbewegungsmittel. Eine solche Ausführungsform der vorliegenden Erfindung bietet den Vorteil einer besonders günstigen Auswahl der zu extrahierenden Objekte, da die unterschiedlichen Reichweiten bzw. Erfassungsweiten der Sensoren besonders vorteilhaft ausgenutzt werden können.
-
Das Verfahren kann einen Schritt des Bestimmens einer Distanz zwischen einem in der gefilterten Objektinformation repräsentierten Objekt und dem Fortbewegungsmittel, insbesondere dem Fahrzeug aufweisen, wobei insbesondere die Distanz zu demjenigen Objekt bestimmt wird, das die geringste Entfernung zu dem Fortbewegungsmittel aufweist. Das Objekt kann von dem ersten Sensor beispielsweise gerade nicht mehr erfasst werden. Die Distanz kann abhängig von aktuellen Sichtbedingungen und/oder Sichtbarkeitsbedingungen des Objekts sein. Beispielsweise kann Nebel eine Sichtbedingung verschlechtern. Beispielsweise kann auch ein dunkles Objekt eine schlechtere Sichtbarkeitsbedingung aufweisen, als ein helles Objekt.
-
Es kann eine theoretische Sichtweite eines Fahrers des Fortbewegungsmittels bestimmt werden, wobei die Sichtweite kleiner als die Distanz zwischen dem Objekt und dem Fortbewegungsmittel bestimmt wird. Somit kann als Distanz zwischen dem Objekt und dem Fahrzeug ein Abstand bestimmt werden, der größer als die Sichtweite ist. Die Distanz kann größer als eine theoretisch mögliche Sichtweite sein. Die Sichtweite kann auch um einen Sicherheitsfaktor kleiner sein als die Distanz. Das Objekt kann sich außerhalb einer reellen Sichtweite des Fahrers befinden. Die reale Sichtweite kann kleiner sein, als die theoretische Sichtweite.
-
Der erste Sensor und der zweite Sensor können ausgebildet sein, um die Objektinformationen unter Auswertung von Signalen aus verschiedenen Wellenlängenbereichen elektromagnetischer Wellen bereitzustellen. Dabei kann beispielsweise im Schritt des Einlesens einer ersten Objektinformation eine Objektinformation vom ersten Sensor eingelesen werden und bei dem im Schritt des Einlesens einer zweiten Objektinformation eine Objektinformation vom zweiten Sensor eingelesen werden, wobei der erste Sensor Messwerte unter Anwendung von Signalen in einem ersten elektromagnetischen Wellenlängenbereich und der zweite Sensor Messwerte unter Auswertung von Signalen in einem vom ersten elektromagnetischen Wellenlängenbereich unterschiedlichen zweiten elektromagnetischen Wellenlängenbereich bereitstellt. Beispielsweise kann der erste Sensor sichtbares Licht empfangen und auswerten und der zweite Sensor kann Infrarotlicht empfangen und auswerten. Der zweite Sensor kann auch beispielsweise Radarwellen aussenden, empfangen und auswerten. Im Infrarot-Spektrum können Objekte auch bei schlechten Sichtbedingungen, beispielsweise bei Dunkelheit sehr gut aufgelöst werden. Radarwellen können auch beispielsweise Nebel nahezu ungehindert passieren.
-
Ein Infrarotsensor kann als aktiver Sensor ausgebildet sein, der eine Umgebung des Fahrzeugs mit Infrarotlicht beleuchtet oder auch als ein passiver Sensor ausgestaltet sein, der lediglich von den Objekten ausgehende Infrarotstrahlung empfängt. Ein Radarsensor kann ein aktiver Sensor sein, der die Objekte aktiv mit Radarwellen beleuchtet und zurückgeworfene Radarwellen empfängt.
-
Das Verfahren kann einen Schritt des Anzeigens der gefilterten Objektdaten auf einer Anzeigeeinrichtung des Fortbewegungsmittels aufweisen, insbesondere um Objekte außerhalb der Sichtweite des Fahrers hervorgehoben darzustellen. Insbesondere können die gefilterten Objektdaten auf einer Sichtfeldanzeige angezeigt werden. Dabei können die gefilterten Objekte so dargestellt werden, dass eine Position in der Sichtfeldanzeige mit einer Lage der Objekte in einem Blickfeld des Fahrers übereinstimmt.
-
Die aktuelle Sichtweite des Fahrers und/oder ein aktueller Bremsweg des Fortbewegungsmittels kann gemäß einer weiteren Ausführungsform der Erfindung dargestellt werden. Hierzu kann beispielsweise in einem vorausgegangenen Schritt der Bremsweg bestimmt werden, der durch eine Geschwindigkeit des Fortbewegungsmittels und evtl. weiterer Parameter wie einer Fahrbahnfeuchtigkeit bedingt ist. Auf der Anzeigeeinrichtung können Markierungen eingeblendet werden, die die theoretische Sichtweite und/oder den aktuellen Bremsweg des Fortbewegungsmittels oder Fahrzeugs repräsentieren. Damit kann der Fahrer eigenverantwortlich entscheiden, ob er den aktuellen Umweltbedingungen angepasst fährt, erhält jedoch vorteilhafterweise einen technischen Hinweis, um sie Fahrweise und/oder die Fahrzeugeigenschaften in Bezug auf die Fahrtsicherheit nicht zu überschätzen.
-
Eine an die Sichtweite angepasste Maximalgeschwindigkeit des Fortbewegungsmittels oder Fahrzeugs kann gemäß einer anderen Ausführungsform dargestellt werden. Eine Maximalgeschwindigkeit kann ein anzustrebender Richtwert für die Fortbewegungsmittelgeschwindigkeit sein. Durch die Darstellung der Maximalgeschwindigkeit kann der Fahrer erkennen, dass er eine abweichende, beispielsweise zu höhe Geschwindigkeit fährt. Es kann eine Geschwindigkeitsdifferenz zu der aktuellen Geschwindigkeit des Fortbewegungsmittels oder Fahrzeugs angezeigt werden. Die Differenz kann hervorgehoben werden, um eine weitere Sicherheitsinformation für den Fahrer bereitzustellen.
-
Die Maximalgeschwindigkeit kann gemäß einer weiteren Ausführungsform der Erfindung als Sollwert an eine Geschwindigkeitsregelanlage ausgegeben werden. Eine Geschwindigkeitsregelanlage kann die Geschwindigkeit des Fortbewegungsmittels oder Fahrzeugs durch Steuerkommandos an den Sollwert anpassen. Dadurch kann das Fortbewegungsmittel oder Fahrzeug beispielsweise selbstständig die Geschwindigkeit verringern, wenn die Sichtweite sinkt.
-
Das Verfahren kann einen Schritt des Aktivierens eines Fahrerassistenzsystems aufweisen, wenn die Sichtweite des Fahrers kleiner ist, als ein Sicherheitswert. Beispielsweise kann eine Reaktionszeit eines Bremsassistenten verkürzt werden, um vor einem plötzlich sichtbar werdenden Objekt schneller abbremsen zu können. Ebenso kann beispielsweise eine Sichtfeldanzeige aktiviert werden, wenn die Sichtbedingungen schlechter werden.
-
Die vorliegende Erfindung schafft ferner ein Informationssystem zum Filtern von Objektinformationen, das ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Informationssystems kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
-
Unter einem Informationssystem kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Informationssystem kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Informationssystems beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
-
Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung kann das vorstehend vorgestellte Verfahren auch in einem stationären System eingesetzt werden. Beispielsweise kann hierdurch als „Objekt“ ein oder mehrerer Nebeltropfen erkannt werden, wodurch sich eine derart ausgestaltete Ausführungsform als Messgerät zur Vermessung von Nebelbänken, insbesondere zur Erfassung einer Dichtigkeit des Nebels einsetzen lässt.
-
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
-
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
-
1 eine Darstellung eines Fahrzeugs mit einem Informationssystem zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
-
2 ein Blockschaltbild eines Informationssystems zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
-
3 ein Ablaufdiagramm eines Verfahrens zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
-
4 eine Darstellung von Objekten vor einem Fahrzeug, die unter Verwendung eines Verfahrens zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gefiltert werden.
-
In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
-
1 zeigt eine Darstellung eines Fahrzeugs 100 mit einem Informationssystem 102 zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 100 weist einen ersten Sensor 104, einen zweiten Sensor 106 und eine Anzeigeeinrichtung 108 auf. Alternativ kann jedoch auch ein anderes denkbares Fortbewegungsmittel wie beispielsweise ein Schiff oder ein Flugzeug mit entsprechenden Einheiten ausgestattet sein, um ein Ausführungsbeispiel der vorliegenden Erfindung zu implementieren. Aus Gründen der Übersichtlichkeit wird in der vorliegenden Beschreibung jedoch die Erfindung anhand eines Ausführungsbeispiels als Fahrzeug vorgestellt, ohne dass diese Wahl des Ausführungsbeispiels einschränkend zu verstehen ist.
-
Der erste Sensor 104 ist durch eine Videokamera 104 gebildet, die einen ersten Erfassungsbereich 110 vor dem Fahrzeug 100 abtastet. Die Videokamera 104 erfasst Bilder im sichtbaren Lichtspektrum. Der zweite Sensor 106 ist als ein Radarsensor 106 ausgebildet, der einen zweiten Erfassungsbereich 112 vor dem Fahrzeug 100 abtastet. Der zweite Erfassungsbereich 112 ist hier schmaler als der erste Erfassungsbereich 110. Der Radarsensor 106 erzeugt Radarbilder, indem er den zweiten Erfassungsbereich 112 mit Radarwellen beleuchtet und zurückgeworfene Wellen oder Reflexionen aus dem zweiten Erfassungsbereich 112 empfängt. Der erste Erfassungsbereich 110 ist kleiner als der zweite Erfassungsbereich 112, weil eine Sichtbehinderung 114 (auch als Sichtgrenze bezeichnet), hier beispielsweise eine Nebelwand 114, den ersten Erfassungsbereich 110 begrenzt. Die Nebelwand 114 absorbiert einen Großteil des sichtbaren Lichts und streut andere Anteile des Lichts, sodass die Videokamera 104 Objekte in der Nebelwand 114 oder hinter der Nebelwand 114 nicht erfassen kann. Damit unterliegt die Videokamera 104 den gleichen optischen Einschränkungen, wie das menschliche Auge. Die elektromagnetischen Wellen des Radarsensors 106 durchdringen die Nebelwand 114 nahezu ungehindert. Dadurch ist der zweite Erfassungsbereich 112 theoretisch nur durch eine abgestrahlte Leistung des Radarsensors 106 begrenzt. Die Bilder der Kamera 104 und des Radarsensors 106 werden jeweils mittels einer nicht abgebildeten Bildverarbeitungseinheit be- oder verarbeitet. Dabei werden Objekte in den Bildern erkannt und jeweils eine erste Objektinformation, die ein oder mehrere Objekte im Kamerabild repräsentiert, und eine zweite Objektinformation, die ein oder mehrere Objekte im Radarbild repräsentiert, erzeugt. Die erste Objektinformation und die zweite Objektinformation werden in der Vorrichtung zum Filtern 102 unter Verwendung eines Verfahrens zum Filtern gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gefiltert. Die Vorrichtung zum Filtern 102 gibt eine gefilterte Objektinformation an das Anzeigegerät 108 aus, um im Anzeigegerät Objekte anzuzeigen, die in oder hinter der Nebelwand 114 verborgen sind. Objekte, die nicht verborgen sind, kann ein Fahrer des Fahrzeugs 100 eigenständig erkennen. Diese werden nicht hervorgehoben.
-
2 zeigt ein Blockschaltbild eines Informationssystems 102 zum Filtern von Objektinformationen zur Verwendung in einem Ausführungsbeispiel der vorliegenden Erfindung. Das Informationssystem 102 entspricht dem Informationssystem aus 1. Das Informationssystem weist eine erste Einrichtung 200 zum Einlesen, eine zweite Einrichtung 202 zum Einlesen und eine Einrichtung 204 zum Ausgeben auf. Die erste Einrichtung 200 ist dazu ausgebildet, eine erste Objektinformation 206 einzulesen. Die erste Objektinformation 206 repräsentiert zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt. Der erste Sensor basiert auf einem ersten Sensorprinzip. Die zweite Einrichtung 202 zum Einlesen ist dazu ausgebildet, eine zweite Objektinformation 208 einzulesen. Die zweite Objektinformation 208 repräsentiert zumindest zwei, von einem zweiten Sensor erfasste und erkannte Objekte. Der zweite Sensor basiert auf einem zweiten Sensorprinzip. Zumindest eines der Objekte ist auch in der ersten Objektinformation 206 repräsentiert. Das erste Sensorprinzip ist verschieden von dem zweiten Sensorprinzip. Die Einrichtung 204 zum Ausgeben ist dazu ausgebildet, eine gefilterte Objektinformation 210 auszugeben. Die gefilterte Objektinformation 210 repräsentiert diejenigen Objekte, die ausschließlich in der zweiten Objektinformation 208 repräsentiert sind.
-
Mit anderen Worten zeigt 2 ein Informationssystem 102 zur Sichtweitenmessung durch Sensorkombination. Beispielsweise können Daten einer Umfeldsensorik 104 aus 1 im Wellenbereich des sichtbaren Lichts (z. B. Mono-/Stereovideo) mit Daten einer Umfeldsensorik 106 aus 1 außerhalb des sichtbaren Bereichs (z. B. RADAR, LIDAR) kombiniert werden. Eine Objekterkennung durch Umfeldsensorik kann eine Position und/oder eine Geschwindigkeit und/oder eine Größe des Objekts als abgeleitete Informationen bereitstellen. Die Information kann auf einem Human-Machine-Interface (HMI) (z. B. HUD) und optional als vernetzte Kommunikation über Car-TO-X (C2X) und/oder Car-To-Car (C2C) und/oder Car-To-Infrastructure (C2I) bereitgestellt werden. Dabei kann die Kommunikation im Duplex-Modus erfolgen.
-
3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren 300 weist einen ersten Schritt 302 des Einlesens, einen zweiten Schritt 304 des Einlesens und einen Schritt 306 des Ausgebens auf. Im ersten Schritt 302 des Einlesens wird eine erste Objektinformation 206 eingelesen, die zumindest ein, von einem ersten Sensor erfasstes und erkanntes Objekt repräsentiert, wobei der erste Sensor auf einem ersten Sensorprinzip basiert. Im zweiten Schritt 304 des Einlesens wird eine zweite Objektinformation 208 eingelesen, die zumindest zwei von einem zweiten Sensor erfasste und erkannte Objekte repräsentiert, wobei der zweite Sensor auf einem zweiten Sensorprinzip basiert und zumindest eines der Objekte auch in der ersten Objektinformation 206 repräsentiert ist, wobei sich das erste Sensorprinzip von dem zweiten Sensorprinzip unterscheidet. Im Schritt 306 des Ausgebens wird eine gefilterte Objektinformation 210 ausgegeben, die diejenigen Objekte repräsentiert, die nur in der zweiten Objektinformation 208 repräsentiert sind.
-
Diese zusätzlich gewonnenen gefilterten Informationen 210 können zum Beispiel zur Optimierung von HMI Systemen zur Anwendung kommen.
-
Beispielsweise werden dann keine redundanten Informationen bezüglich der Quer- und Längsführung (Fahrzeugführung) dargestellt. Dies führt zu einer Reduzierung der Informationsflut auf den Fahrer und hierdurch zu einer geringeren Auslastung der kognitiven Ressourcen. Diese freigewordenen kognitiven Ressourcen tragen in den kritischen Situationen entscheidend zur Verminderung der Unfallschwere bei.
-
Zum Beispiel kann bei einem Nachtsichtsystem statt des zusätzlichen Bildschirms mit dem Nachtsicht-Bild der Umgebung ein HUD (Head-Up Display) verwendet werden. Dieses HUD blendet nur dann Informationen 210 ein, wenn Sie vom Fahrer in der aktuellen Situation (Nebel, Nacht, Staub, Smog, ...) nicht erkannt werden können.
-
Die gewonnenen Informationen können zum Beispiel bei einer sichtweitenabhängigen Geschwindigkeitsüberwachung verwendet werden. Aus der aktuellen Fahrzeuggeschwindigkeit kann der momentane maximale Bremsweg ermittelt werden. Liegt dieser Bremsweg unterhalb der, vom System gewonnen Größe Fahrersichtweite, kann per HMI eine Information auf Basis der berechneten Werte ausgegeben werden, die den Fahrer darüber informiert welches seine sichere Maximalgeschwindigkeit ist. Alternativ oder ergänzend kann die gestellte Geschwindigkeitsregelanlagengeschwindigkeit, beispielsweise unter Verwendung eines ACC bzw. Tempomats, automatisch unter Verwendung der sicheren Maximalgeschwindigkeit angepasst werden.
-
Die gewonnenen Informationen 210 können auch zur Anpassung einer Aktivierungsbedingung von Fahrerassistenzsystemen (FAS) verwendet werden. Semiautonome Assistenzsysteme setzen heutzutage noch eine Aktivierung durch den Fahrer voraus. Ist der Fahrer sich der Gefahr jedoch noch gar nicht bewusst, da er sie nicht erkennen kann, wird das FAS zu spät aktiviert. Mithilfe der gemäß dem hier vorgestellten Ansatz ermittelten Fahrersichtweite können die Aktivierungsbedingungen modifiziert werden, um die Umgebungssituation zu berücksichtigen und falls nötig Vorkehrungen treffen, um einen Unfall dennoch maximal zu mindern.
-
4 zeigt eine Darstellung von Objekten vor einem Fahrzeug 100, die unter Verwendung eines Verfahrens zum Filtern von Objektinformationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gefiltert werden. Das Verfahren zum Filtern entspricht dabei dem Verfahren, wie es in 3 gezeigt ist. Das Fahrzeug 100 entspricht einem Fahrzeug, wie es in 1 gezeigt ist. Der erste Sensor 104 und der zweite Sensor 106 sind an einer Vorderseite des Fahrzeugs 100 angeordnet. Der zweite Sensor 106 kann jedoch auch in einem anderen, hier nicht dargestellten Ausführungsbeispiel an einer anderen Seite des Fahrzeugs als der Vorderseite angeordnet sein. Die Sensoren 104, 106 weisen im Gegensatz zu 1 je einen ähnlichen Erfassungswinkel auf. Der erste Sensor 104 weist den ersten Erfassungsbereich 110 auf. In dem ersten Erfassungsbereich 110 wird die erste Objektmenge O1 aus hier zwei Objekten 400, 402 erfasst. Die erste Objektmenge O1 ist durch einen Schrägbalken von links oben nach rechts unten gekennzeichnet. Der zweite Sensor 106 weist den zweiten Erfassungsbereich 112 auf. In dem zweiten Erfassungsbereich 112 wird die zweite Objektmenge O2 aus hier fünf Objekten 400, 402, 404, 406, 408 erfasst. Die zweite Objektmenge O2 ist durch einen Schrägbalken von rechts oben nach links unten gekennzeichnet. Die Erfassungsbereiche 110, 112 sind überlappend. Eine Schnittmenge O1 ∩ O2 von hier den zwei Objekten 400, 402 wird von beiden Sensoren 104, 106 erfasst. Die Schnittmenge O1 ∩ O2 ist durch schräg gekreuzte Schrägbalken gekennzeichnet. Eine Differenzmenge O2\O1 von hier den drei Objekten 404, 406, 408 wird ausschließlich von dem zweiten Sensor 106 erfasst. Die Differenzmenge O2\O1 ist die Objektmenge OT und durch einen quadratischen Rahmen gekennzeichnet. Der Erfassungsbereich 110 des ersten Sensors 104 weist aufgrund einer Sichtbehinderung eine unscharfe fahrzeugabgewandte Begrenzung 412 auf. Ein Fahrer des Fahrzeugs 100 hat aufgrund der Sichtbehinderung eine ähnlich eingeschränkte Sichtweite 410. Das Objekt 402 kann von dem Fahrer gerade noch ausgemacht werden. Das Objekt 402 kann von dem Sensor 104 gerade noch erfasst werden, da die vordere Begrenzung weiter von dem Fahrzeug 100 entfernt ist, als das Objekt 402. Das Objekt 404 ist aus der Objektmenge OT am nächsten am Fahrzeug 100 angeordnet. Eine Entfernung zu dem Objekt 404 wird bestimmt und als theoretische Sichtweite 414 verwendet. Die tatsächliche Sichtweite 410 und die theoretische Sichtweite 414 stimmen nicht direkt überein, sind jedoch ähnlich. Die theoretische Sichtweite 414 ist größer als die tatsächliche Sichtweite 410. Die tatsächliche Sichtweite 410 kann unter Verwendung eines Sicherheitsfaktors geschätzt werden. Die Objekte 404, 406, 408 der Objektmenge OT kann der Fahrer nicht sehen. Daher lassen sich die Objekte 404, 406, 408 auf der Anzeigevorrichtung des Fahrzeugs 100, beispielsweise einem Head-up Display vorteilhaft darstellen. So kann der Fahrer wichtige Informationen aufnehmen, die er anderenfalls nicht erhalten würde. Um den Fahrer nicht zu belasten, werden die Objekte 400, 402 der Objektmenge O1 nicht dargestellt.
-
Zusammenfassend ist anzumerken, dass Umfeldsensorik 104, die im Bereich des sichtbaren Lichtes arbeitet, denselben Sichtbedingungen wie der Fahrer unterliegt. Durch Objekterkennung werden somit die Objekte 400, 402 identifiziert, die in Sichtweite des Fahrers liegen. Dies führt zur Objektmenge O1. Findet die Objekterkennung auf Daten statt, die außerhalb des für Menschen sichtbaren Bereichs liegen, können Objekte unabhängig von den (menschlichen) Sichtverhältnissen beobachtet werden. Objekte 400 bis 408, die auf diese Weise erkannt werden, bilden hier die Objektmenge O2.
-
Nach dem hier vorgestellten Ansatz erfolgt eine Symbiose der Daten und eine Zuordnung der Objekte in der Menge O1 und der Menge O2 zueinander. Solche Objekte 404 bis 408, die in der Menge O2 vorhanden sind, aber in O1 keine Repräsentation haben, bilden die Objektmenge OT. Diese stellt somit alle Objekte 404 bis 408 dar, die vom Videosensor 104 nicht erkannt werden. Da der Videosensor 104 und der Mensch annähernd den gleichen Bereich des Lichtwellenspektrums abdecken bzw. sensieren können, sind die Objekte OT somit auch für den Fahrer nicht erkennbar.
-
Das Objekt OTmin 404 der Menge OT, welches den geringsten Abstand 414 zum Egofahrzeug 100 hat, kann somit näherungsweise als die theoretisch maximale Sichtweite des Fahrers betrachtet werden, auch wenn das nur bedingt richtig ist.
-
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
-
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
-
Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-