-
TECHNISCHES GEBIET
-
Das technische Gebiet betrifft allgemein Verfahren und Systeme zur Überwachung einer Objekt- bzw. Gegenstandserkennung durch einen Fahrer, und insbesondere Verfahren und Systeme zur Überwachung einer Objekt- bzw. Gegenstandserkennung durch einen Fahrer unter Verwendung einer Stereosicht und Blickfelderkennung und Warnens eines Fahrers unter Verwendung eines Head-Up-Displays.
-
HINTERGRUND
-
In einem Versuch zur Verbesserung von Sicherheitsfunktionen für Automobile werden derzeit Head-Up-Displays (HUD) in Fahrzeugen verbaut. Ein Head-Up-Display projiziert ein virtuelles Bild auf die Windschutzscheibe. Das dem Fahrer dargestellte Bild umfasst Information hinsichtlich des Fahrzeugzustands, wie z. B. die Geschwindigkeit. Dies ermöglicht es dem Fahrer, die Information in einfacher Weise während des Blickens durch die Windschutzscheibe wahrzunehmen. Somit kann der Fahrer seine aufrechte Fahr-(bzw. Sitz-)Position beibehalten, und muss nicht seinen Blick von der Straße wenden, um die Information wahrzunehmen.
-
In einigen Fällen kann der Blick des Fahrers auf die Straße dennoch zeitweise durch Ablenkungen beeinträchtigt sein. Beispielsweise beim Einstellen des Infotainmentsystems kann der Fahrer zeitweise seinen Blick von der Straße weg auf das Infotainmentsystem richten. Dementsprechend ist es wünschenswert, unter Verwendung des Head-Up-Displays für den Fahrer eine Warninformation bereitzustellen. Zusätzlich ist es wünschenswert, die Warninformation auf eine Art und Weise bereitzustellen, welche die Aufmerksamkeit des Fahrers wieder zurück auf die Straße richtet, wenn der Fahrer abgelenkt ist. Weiterhin werden andere wünschenswerte Merkmale und Eigenschaften der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den angefügten Ansprüchen in Verbindung mit den begleitenden Zeichnungen und dem vorangegangenen technischen Gebiet und Hintergrund ersichtlich.
-
ZUSAMMENFASSUNG
-
Es werden Verfahren und Systeme zur Erkennung bereitgestellt, ob ein Fahrer eines Fahrzeuges einen Gegenstand bzw. ein Objekt außerhalb des Fahrzeuges erkannt hat. In einer Ausführungsform umfasst ein Verfahren: Empfangen von externen Sensordaten, welche eine Szene außerhalb des Fahrzeuges wiedergeben; Empfangen von internen Sensordaten, welche ein Bild vom Fahrer wiedergeben; Bestimmen, ob der Fahrer den Gegenstand bzw. das Objekt auf Basis der externen und internen Sensordaten erkannt hat; und wahlweises Erzeugen eines Steuersignales, und zwar darauf basierend, ob der Fahrer das Objekt bzw. den Gegenstand erkannt hat.
-
In einer Ausführungsform umfasst das System ein erstes Modul, welches externe Sensordaten empfängt, welche eine Szene außerhalb des Fahrzeuges wiedergeben. Ein zweites Modul empfängt interne Sensordaten, welche ein Bild vom Fahrer wiedergeben. Ein drittes Modul bestimmt, ob der Fahrer das Objekt bzw. den Gegenstand auf Basis der externen und der internen Sensordaten erkannt hat. Ein viertes Modul erzeugt wahlweise ein Steuersignal, und zwar darauf basierend, ob der Fahrer das Objekt bzw. den Gegenstand erkannt hat (die Begriffe „Objekt” und „Gegenstand” sollen hierin im Wesentlichen synonym verwendet werden).
-
In einer Ausführungsform umfasst ein Fahrzeug ein Head-Up-Display-System und ein Head-Up-Display-Steuermodul. Das Head-Up-Display-Steuermodul empfängt externe Sensordaten, welche eine Szene außerhalb des Fahrzeuges wiedergeben, bestimmt, ob der Fahrer das Objekt bzw. den Gegenstand auf Basis der externen und der internen Sensordaten erkannt hat, und erzeugt wahlweise ein Steuersignal für das Head-Up-Display-System, und zwar darauf basierend, ob der Fahrer das Objekt bzw. den Gegenstand erkannt hat.
-
BESCHREIBUNG DER ZEICHNUNGEN
-
Die beispielhaften Ausführungsformen werden hiernach in Verbindung mit den folgenden Zeichnungsfiguren erläutert, wobei gleiche Bezugszeichen gleiche Elemente bedeuten, und wobei:
-
1 ein Funktionsblockdiagramm eines Fahrzeuges ist, welches in Übereinstimmung mit verschiedenen Ausführungsformen ein Fahrer-Objekterkennungssystem umfasst;
-
2 ein Datenflussdiagramm ist, welches in Übereinstimmung mit verschiedenen Ausführungsformen ein Fahrer-Objekterkennungssystem zeigt; und
-
3 ein Flussdiagramm ist, welches ein Fahrer-Objekterkennungsverfahren darstellt, welches in Übereinstimmung mit verschiedenen Ausführungsformen von einem Fahrer-Objekterkennungssystem ausgeführt werden kann.
-
DETAILLIERTE BESCHREIBUNG
-
Die folgende detaillierte Beschreibung hat lediglich beispielhaften Charakter und soll die Anwendung und Verwendungen nicht beschränken. Weiterhin soll es keine Beschränkung durch eine ausdrücklich oder implizit in dem vorangegangenen technischen Gebiet, Hintergrund, kurzen Zusammenfassung oder der folgenden detaillierten Beschreibung dargestellte Theorie geben. Wie hierin verwendet, bezieht sich der Begriff Modul auf eine beliebige Hardware, Software, Firmware, elektronische Steuerkomponente, Prozess-Logik und/oder Prozessoreinrichtung, für sich genommen oder in einer beliebigen Kombination, einschließlich und ohne Beschränkung: einem anwendungsspezifischen integrierten Schaltkreis (ASIC), einem elektronischen Schaltkreis, einem Prozessor (in Mitbenutzung, in alleiniger Benutzung oder als Gruppe) und Speicher, welche ein oder mehrere Software- oder Firmware-Programme ausführen, einen kombinatorischen Logik-Schaltkreis und/oder andere geeignete Komponenten, welche die beschriebene Funktionalität bereitstellen.
-
Nunmehr mit Bezug auf 1 ist ein Fahrzeug 10 dargestellt, welches in Übereinstimmung mit verschiedenen Ausführungsformen ein Fahrer-Objekterkennungssystem 12 zeigt. Obwohl die hierin gezeigten Figuren ein Beispiel mit gewissen Anordnungen von Elementen herausgreifen, können zusätzliche wechselwirkende Elemente, Einrichtungen, Merkmale oder Komponenten in tatsächlichen Ausführungsformen vorhanden sein. Es wird außerdem davon ausgegangen, dass 1 lediglich darstellenden Charakter hat und nicht maßstabsgetreu sein muss.
-
In verschiedenen Ausführungsformen umfasst das Fahrer-Objekterkennungssystem 12 ein externes Sensorsystem 14, ein internes Sensorsystem 16, ein Head-Up-Display(HUD)-Steuermodul 18 und ein HUD-System 20. Das externe Sensorsystem 14 kommuniziert mit einer Sensoreinrichtung 22, welche einen oder mehrere Sensoren umfasst, welche in der Nähe von bzw. vor dem Fahrzeug 10 beobachtbare Vorgänge bzw. Ereignisse sensieren bzw. erfassen. Die Sensoren können bildgebende Sensoren sein, Radarsensoren, Ultraschallsensoren oder andere Sensoren, welche beobachtbare Vorgänge in der Nähe des Fahrzeuges 10 sensieren. Aus Beispiel-Gründen wird die Offenbarung im Zusammenhang mit der Sensoreinrichtung 22 erläutert, einschließlich wenigstens eines bildgebenden Sensors bzw. einer Kamera, welche visuelle Bilder vor dem Fahrzeug 10 verfolgt bzw. entsprechend nachgeführt wird. Die bildgebende Einrichtung sensiert die Bilder und erzeugt basierend darauf Sensorsignale. Das externe Sensorsystem 14 ver- bzw. bearbeitet die Sensorsignale und erzeugt basierend darauf externe Sensordaten.
-
Das interne Sensorsystem 16 kommuniziert mit einer Sensoreinrichtung 24, welche einen oder mehrere Sensoren umfasst, welche beobachtbare Vorgänge bzw. Ereignisse hinsichtlich eines Fahrers im Fahrzeug 10 sensiert bzw. erfasst. Beispielhaft wird die Offenbarung im Zusammenhang mit der Sensoreinrichtung 24 erläutert, einschließlich wenigstens eines bildgebenden Sensors bzw. einer Kamera, welche visuelle Bilder vom Fahrer des Fahrzeuges 10 aufnimmt bzw. verfolgt. Die bildgebende Einrichtung sensiert die Bilder und erzeugt basierend darauf entsprechende Sensorsignale. Das interne Sensorsystem 16 ver- bzw. bearbeitet die Sensorsignale und erzeugt basierend darauf interne Sensordaten.
-
Das HUD-Steuermodul 18 empfängt die von dem internen Sensorsystem 16 und dem externen Sensorsystem 14 erzeugten Daten und bearbeitet die Daten, um zu bestimmen, ob sich ein Objekt bzw. Gegenstand (z. B. eine Person, Verkehrszeichen usw.) in der Nähe des Fahrzeuges 10 befindet, und um zu bestimmen, ob der Fahrer das Objekt bzw. den Gegenstand in der Nähe des Fahrzeuges 10 erkannt und seinen Blick darauf gerichtet hat. Falls der Fahrer das Objekt bzw. den Gegenstand nicht erkannt hat, erzeugt das HUD-Steuermodul 18 wahlweise Signale für das HUD-System 20, sodass ein Display des HUD-Systems 20 ein Bild anzeigt, welches dem Fahrer das Objekt zur deutlichen Wahrnehmung wiedergibt. Das HUD-System 20 zeigt eine nicht-dauerhafte auffällige Wiedergabe bzw. ein auffälliges Merkmal des Objektes, um das Objekt grafisch auf einer (nicht dargestellten) Windschutzscheibe des Fahrzeuges 10 wiederzugeben bzw. zu projizieren. Das HUD-System 20 zeigt die auffällige Erscheinung/Merkmal an einer Stelle auf der Windschutzscheibe, wo ein Fahrer das Objekt wahrnehmen bzw. sehen würde, wenn der Fahrer in die richtige Richtung blickt.
-
In verschiedenen Ausführungsformen erzeugt das HUD-Steuermodul 18 wahlweise die Steuersignale derart, sodass das auffällige Merkmal einen von dem Objekt ausgehenden Gefahrenzustand dem Fahrer anzeigt. Wenn beispielsweise das Objekt eine unmittelbar bevorstehende Kollisionsgefahr darstellt, kann das auffällige Merkmal entsprechend erster Anzeige-Kriterien dargestellt werden; wenn das Objekt eine nicht unmittelbar bevorstehende Kollisionsgefahr darstellt, kann das Merkmal gemäß zweiter Anzeige-Kriterien dargestellt werden; usw. Das HUD-Steuermodul 18 erzeugt die Steuersignale, um das auffällige Merkmal anzuzeigen, bis bestimmt worden ist, dass der Fahrer das Objekt gesehen und wahrgenommen hat. Sowie bestimmt wurde, dass der Fahrer das Objekt wahrgenommen hat, kann das HUD-Steuermodul 18 das auffällig dargestellte Merkmal in seiner Helligkeit reduzieren („dimmen”) oder ganz weglassen/entfernen.
-
In verschiedenen Ausführungsformen steht das HUD-Steuermodul 18 in Koordination mit Warnsystemen 26 (z. B. akustischen Warnsystemen, haptischen Warnsystemen usw.), um den Fahrer weiter über das Vorhandensein des Objektes zu warnen, wenn der Fahrer das Objekt nicht erkannt hat. In verschiedenen Ausführungsformen steht das HUD-Steuermodul 18 mit Kollisionsvermeidungssystemen 28 (z. B. Bremssystemen) in Wechselwirkung, um eine Kollision mit dem Objekt zu vermeiden, wenn der Fahrer das Objekt nicht erkannt hat.
-
Nunmehr mit Bezug auf 2 zeigt ein Datenflussdiagramm verschiedene Ausführungsformen des HUD-Steuermoduls 18 des Fahrer-Objekterkennungssystems 12. Verschiedene Ausführungsformen des HUD-Steuermoduls 18 gemäß der vorliegenden Offenbarung können eine beliebige Anzahl von Modulen bzw. Sub-Modulen umfassen. Vorzugsweise können die in 2 gezeigten Module zu einem Signalmodul kombiniert werden und/oder in mehrere Module unterteilt werden, um auf ähnliche Weise eine Objekterkennung durch den Fahrer zu bestimmen und den Fahrer unter Verwendung des HUD-Systems 20 zu warnen. Eingaben in das HUD-Steuermodul 18 können von den Sensorsystemen 14, 16 des Fahrzeuges 10 (1) empfangen werden, von weiteren (nicht dargestellten) Modulen des Fahrzeuges 10 (1), und/oder mithilfe von weiteren Sub-Modulen (nicht dargestellt) des HUD-Steuermodules 18 bestimmt werden. In verschiedenen Ausführungsformen umfasst das HUD-Steuermodul 18 ein externes Daten-Überwachungsmodul 30, ein internes Daten-überwachungsmodul 32, ein Fahrer-Objekterkennungs-Analysemodul 34, ein HUD-Displaymodul 36 und einen HUD-Kartendatenspeicher 38.
-
Das externe Daten-Überwachungsmodul 30 empfängt als Eingabe externe Sensordaten 40. Basierend auf den externen Sensordaten 40 erkennt das externe Daten-Überwachungsmodul 30, ob sich ein Objekt vor dem Fahrzeug 10 befindet und/oder sich auf einer Strecke befindet, entlang welcher das Fahrzeug 10 fährt. Bei Erkennung eines Objektes bildet das externe Daten-Überwachungsmodul die Koordinaten des durch die externe Sensordaten 40 dargestellten Objektes auf Koordinaten eines Displays (d. h. der Windschutzscheibe) des HUD-Systems 20 ab, und erzeugt basierend darauf die Objektkarte 42.
-
Beispielsweise stellen die externen Sensordaten 40 eine Szene vor dem Fahrzeug 10 dar. Die Szene wird in einem zweidimensionalen (x, y)-Koordinatensystem wiedergegeben. Das externe Daten-Überwachungsmodul 30 ordnet jeder x-, y-Koordinate des Objektes eine x'-, y'-Koordinate des Displays unter Verwendung einer HUD-Karte 44 zu. Das externe Daten-Überwachungsmodul 30 speichert dann Daten ab, welche den x-, y-Koordinaten des Objektes hinsichtlich der x'-, y'-Koordinaten der Objektkarte 42 zugeordnet sind. Beispielsweise wird ein positiver Wert oder ein einziger Wert in jeder Koordinate gespeichert, entlang welcher sich das Objekt erstreckt; und es wird ein negativer bzw. Null-Wert in jeder Koordinate gespeichert, entlang welcher sich das Objekt nicht erstreckt. In verschiedenen Ausführungsformen kann die HUD-Karte 44 eine Look-Up-Tabelle sein, auf welche durch die x-, y-Koordinaten der Szene zugegriffen wird, und welche die x'-, y'-Koordinaten des Displays bzw. der Anzeige erzeugt. In verschiedenen Ausführungsformen ist die HUD-Karte 44 vorgegeben und in dem HUD-Kartendatenspeicher 38 abgespeichert.
-
Das interne Daten-Überwachungsmodul 32 empfängt als Eingabe interne Sensordaten 46. In verschiedenen Ausführungsformen stellen die internen Sensordaten Bilder vom Fahrer des Fahrzeuges 10 dar (z. B. vom Kopf und Gesicht). Das interne Daten-Überwachungsmodul 32 wertet die internen Sensordaten 46 aus, um ein Blickfeld des Fahrers zu bestimmen (z. B. ein Blickfeld eines Auges und/oder eine Richtung, in welche der Kopf bzw. die Augen gerichtet sind). Vorzugsweise können verschiedene Verfahren verwendet werden, um das Blickfeld des Fahrers zu bestimmen. Beispielsweise herkömmliche Verfahren, welche in ihrer Gesamtheit hierin durch Bezugnahme mitumfasst sind, oder es können andere Verfahren zur Erkennung des Blickfeldes des Fahrers verwendet werden.
-
Das Fahrer-Blickfeld wird durch ein zweidimensionales (x, y)-Koordinatensystem dargestellt. Das interne Daten-Überwachungsmodul 32 bildet die Koordinaten des Fahrer-Blickfeldes auf die Koordinaten des Displays bzw. der Anzeige ab und erzeugt basierend darauf eine Blickfeldkarte 48.
-
Beispielsweise ordnet das interne Daten-Überwachungsmodul 32 jeder x-, y-Koordinate des Fahrer-Blickfeldes unter Verwendung einer HUD-Karte 50 auf eine x'-, y'-Koordinate des Displays bzw. der Anzeige zu. Das interne Daten-Überwachungsmodul 32 speichert dann Daten ab, welche den x-, y-Koordinaten des Fahrer-Blickfeldes hinsichtlich der x'-, y'-Koordinaten der Blickfeldkarte 48 zugeordnet sind. Beispielsweise wird ein positiver Wert oder ein einziger Wert für jede Koordinate abgespeichert, entlang welcher der Fahrer, wie festgestellt, seinen Blick richtet; und es wird ein negativer bzw. Null-Wert für jede Koordinate abgespeichert, entlang welcher der Fahrer, wie festgestellt, seinen Blick nicht richtet. In verschiedenen Ausführungsformen kann die HUD-Karte 50 eine Look-Up-Tabelle sein, auf welche durch die x-, y-Koordinaten des Fahrer-Blickfeldes zugegriffen wird und welche die x'-, y'-Koordinaten des Displays erzeugt. In verschiedenen Ausführungsformen ist die HUD-Karte 50 vorgegeben und in dem HUD-Kartendatenspeicher 38 abgespeichert.
-
Das Fahrer-Objekterkennungs-Analysemodul 34 empfängt als Eingabe die Objektkarte 42 und die Blickfeldkarte 48. Das Fahrer-Objekterkennungs-Analysemodul 34 wertet die Objektkarte 42 und die Blickfeldkarte 48 aus, um zu bestimmen, ob der Fahrer auf das erkannte Objekt schaut oder in die Richtung des erkannten Objektes blickt. Das Fahrer-Objekterkennungs-Analysemodul 34 setzt einen Objekterkennungszustand 52, und zwar basierend darauf, ob der Fahrer nicht auf das erkannte Objekt schaut, oder ob der Fahrer auf das erkannte Objekt schaut und dieses wahrgenommen bzw. erkannt hat. Falls beispielsweise keine Koordinaten mit positiven Daten der Blickfeldkarte 48 mit Koordinaten mit positiven Daten der Objektkarte 42 überlappen, dann blickt der Fahrer nicht auf das erkannte Objekt, wobei das Fahrer-Objekterkennungs-Analysemodul 34 den Objekterkennungszustand 52 setzt, um anzuzeigen, dass der Fahrer seinen Blick nicht auf das Objekt gerichtet hat. Falls einige (z. B. zwischen einem ersten Bereich oder innerhalb eines ersten Prozentbereiches der Koordinaten) oder alle Koordinaten mit positiven Daten der Blickfeldkarte 48 mit Koordinaten mit positiven Daten der Objektkarte 42 überlappen, dann blickt der Fahrer auf das erkannte Objekt und das Fahrer-Objekterkennungs-Analysemodul 34 setzt den Objekterkennungszustand 52, um anzuzeigen, dass der Fahrer auf das erkannte Objekt blickt.
-
Das HUD-Displaymodul 36 empfangt als Eingabe den Fahrer-Objekterkennungszustand 52 und optional einen Gefahrenzustand 54. Auf Basis des Fahrer-Objekterkennungszustandes 52 erzeugt das HUD-Displaymodul 36 HUD-Steuersignale 56, um wahlweise auffällige Bilder auf dem Display des HUD-Systems 20 darzustellen. Falls der Objekterkennungszustand 52 beispielsweise zeigt, dass der Fahrer auf das Objekt geblickt hat, wird das Objekt nicht in auffälliger Weise auf dem Display dargestellt. Falls der Objekterkennungszustand 52 anzeigt, dass der Fahrer nicht auf das Objekt geblickt hat, dann werden die HUD-Steuersignale 56 erzeugt, um das Objekt auf dem Display in auffälliger Weise darzustellen. Das HUD-Displaymodul 36 erzeugt die HUD-Steuersignale 56, um das Objekt an einer durch die Objektkarte 42 angezeigte Stelle in auffälliger Weise darzustellen.
-
In verschiedenen Ausführungsformen kann das Objekt wahlweise auffällig wahrnehmbar dargestellt werden, und zwar basierend auf dem Objekt-Gefahrenzustand 54, und zwar in Abhängigkeit von dem Objektabstand vom Fahrzeug 10 und/oder einer geschätzten Zeit bis zu einem Zusammenstoß mit dem Objekt. Beispielsweise können wenigstens zwei Farben verwendet werden, wobei eine Farbe verwendet wird, um Objekte auffällig darzustellen, welche weit genug entfernt sind, sodass die Zeit bis zu einem Zusammenstoß als „sicher” angesehen wird (z. B. eine nicht unmittelbar bevorstehende Gefahr), und eine weitere Farbe wird verwendet, um Objekte auffällig darzustellen, welche derart nahe sind, dass die Zeit bis zu einem Zusammenstoß als „unsicher” angesehen wird (z. B. eine unmittelbar bevorstehende Gefahr). In verschiedenen Ausführungsformen kann die einem Zustand zugewiesene Farbe allmählich in eine einem anderen Zustand zugewiesene Farbe übergehen, sodass mehrere Farben möglich sind. Vorzugsweise können mehrere Farben für Systeme mit mehreren Gefahrenstufen verwendet werden.
-
In einem weiteren Beispiel können wenigstens zwei Displayfrequenzen verwendet werden, wobei eine Displayfrequenz (z. B. eine höhere Frequenz) verwendet wird, um das auffällige Merkmal optisch aufleuchten bzw. regelmäßig aufflackern zu lassen, wenn das Objekt als eine Gefahr erster Stufe angesehen wird (z. B. ein unmittelbar bevorstehender Gefahrenzustand), und eine zweite Displayfrequenz verwendet wird, (z. B. eine niedrigere Frequenz), um das auffällige Merkmal aufleuchten zu lassen, wenn das Objekt als eine Gefahr zweiter Stufe angesehen wird (z. B. ein nicht unmittelbar bevorstehender Gefahrenzustand). In verschiedenen Ausführungsformen kann die Frequenz von einem Zustand bzw. einer Stufe zu einer anderen übergehen, sodass mehr Frequenzen möglich sind. Vorzugsweise können für Systeme mit mehreren Gefahrenstufen mehrere Frequenzen verwendet werden.
-
In verschiedenen Ausführungsformen kann das HUD-Displaymodul 36 weiterhin in Wechselwirkung mit den anderen Warnsystemen 26 und/oder den Kollisionsvermeidungssystemen 28 stehen, wenn der Objekterkennungszustand 52 anzeigt, dass der Fahrer nicht auf das Objekt geblickt hat. Beispielsweise können Warnsignale 58 wahlweise für die Warnsysteme 26 erzeugt werden, sodass akustische Warnhinweise zusammen bzw. gleichzeitig mit der Darstellung des auffälligen Merkmals erzeugt werden können oder nach einer gewissen Zeitdauer der Darstellung des auffälligen Merkmals. In einem weiteren Beispiel können Steuersignale 60 wahlweise für die Kollisionsvermeidungssysteme 28 erzeugt werden, sodass Bremsen oder andere Kollisionsvermeidungstechniken gleichzeitig mit der Darstellung des auffälligen Merkmals aktiviert werden können oder nach einer gewissen Zeitdauer der Darstellung des auffälligen Merkmals.
-
Nunmehr mit Bezug auf 3 und weiterhin mit Bezug auf 1 und 2 zeigt ein Flussdiagramm ein Fahrer-Objekterkennungsverfahren 70, welches in Übereinstimmung mit verschiedenen Ausführungsformen von dem Fahrer-Objekterkennungssystem 12 aus 1 ausgeführt werden kann. Im Hinblick auf die Offenbarung ist die Reihenfolge der Ausführung innerhalb des Verfahrens vorzugsweise nicht auf die in 3 dargestellte Ausführungsabfolge beschränkt, sondern kann in einer oder mehreren sich ändernden Reihenfolgen ausgeführt werden, und zwar nach Bedarf und in Übereinstimmung mit der vorliegenden Offenbarung.
-
Wie weiterhin bevorzugt wird, kann dem Verfahren in 3 ein Ablaufplan zugrunde gelegt werden, um zu vorbestimmten Zeitintervallen während des Betriebes des Fahrzeuges 10 abzulaufen und/oder es kann derart geplant werden, sodass es basierend auf vorbestimmten Ereignissen abläuft.
-
In einem Beispiel kann das Verfahren bei Schritt 100 beginnen. In verschiedenen Ausführungsformen werden Schritte 110 und 120 im Wesentlichen gleichzeitig ausgeführt, sodass die Sensordaten 40, 46 jeweils von beiden Sensoreinrichtungen 22, 24 für eine gegebene Zeitdauer ausgerichtet und verglichen werden können. Beispielsweise überwacht bei Schritt 110 die externe Sensoreinrichtung 22 die außerhalb des Fahrzeuges 10 befindliche Szene und sammelt externe Sensordaten 40. In analoger Weise überwacht bei Schritt 120 die interne Sensoreinrichtung 24 den Fahrer und sammelt interne Sensordaten 46. Die externen Sensordaten 40 werden ausgewertet, um zu bestimmen, ob bei Schritt 130 ein Gegenstand bzw. Objekt vorhanden ist. Falls bei Schritt 140 kein Objekt vorhanden ist, fährt das Verfahren mit dem Überwachen der Szene bei Schritt 110 fort und dem Überwachen des Fahrers bei Schritt 120. Falls ein Objekt bei Schritt 140 erkannt worden ist, wird die Objektkarte 42 durch Abbilden des Objektes, welches durch die externen Sensordaten 40 dargestellt wird, unter Verwendung der HUD-Karte 44 bei Schritt 150 erzeugt. Das Fahrer-Blickfeld wird bei Schritt 160 von den internen Sensordaten 46 bestimmt. Die Blickfeldkarte 48 wird durch Abbilden des Fahrer-Blickfeldes, welches durch die internen Sensordaten 40 wiedergegeben wird, unter Verwendung der HUD-Karte 50 bei Schritt 170 erzeugt.
-
Danach wird die Fahrer-Objekterkennungs-Analyse durch Vergleichen der Objektkarte 42 mit der Blickfeldkarte 48 bei Schritt 180 ausgeführt. Falls beispielsweise Koordinaten der Blickfeld-Karte 48 mit Koordinaten der Objektkarte 42 überlappen, dann liegt das Objekt im Blickfeld des Fahrers. Falls jedoch die Koordinaten der Blickfeldkarte 48 nicht mit Koordinaten der Objektkarte 42 überlappen, dann liegt das Objekt nicht im Blickfeld des Fahrers.
-
Es wird dann bestimmt, ob der Fahrer auf das Objekt blickt, und zwar basierend darauf, ob sich das Objekt im Blickfeld des Fahrers befindet. Beispielsweise wird geschlussfolgert, dass der Fahrer nicht auf das Objekt geblickt hat, wenn sich das Objekt nicht im Blickfeld des Fahrers befindet. In einem weiteren Beispiel wird geschlussfolgert, dass der Fahrer auf das Objekt geblickt hat, wenn das Objekt im Blickfeld des Fahrers liegt.
-
Falls der Fahrer bei Schritt 190 das Objekt erblickt hat, wird das Objekt nicht in auffälliger Weise durch das HUD-System 20 dargestellt und das Verfahren kann mit dem überwachen der Sensordaten 40, 46 bei Schritt 110 und Schritt 120 fortfahren. Falls der Fahrer jedoch bei Schritt 190 nicht auf das Objekt geblickt hat, wird das Objekt in auffälliger Weise bei Schritt 200 durch das HUD-System 20 dargestellt. Das Objekt wird wahlweise in auffälliger Weise dargestellt, und zwar basierend auf dem Gefahrenzustand 54 des Objekts unter Verwendung von Farbe und/oder Frequenz.
-
Bei Schritt 210 werden Warnsignale 58 und/oder Steuersignale 60 für die anderen Warnsysteme 26 und/oder die Kollisionsvermeidungssysteme 28 erzeugt, und zwar durch Koordinieren der Signale 58, 60 mit den auffälligen Merkmalen in einem Versuch, um den Fahrer zu warnen und/oder einen Zusammenstoß mit dem Objekt zu vermeiden. Danach kann das Verfahren mit dem überwachen der Sensordaten 40, 46 bei Schritt 110 und Schritt 120 fortfahren.
-
Während wenigstens eine beispielhafte Ausführungsform in der vorangegangenen detaillierten Beschreibung dargestellt worden ist, wird bevorzugt, dass eine große Anzahl an Variationen existiert. Es wird ebenso bevorzugt, dass die beispielhafte Ausführungsform bzw. beispielhaften Ausführungsformen lediglich Beispiele sind und nicht den Umfang, die Anwendbarkeit bzw. Konfiguration der Offenbarung in irgendeiner Weise beschränken sollen. Vielmehr soll die vorangegangene detaillierte Beschreibung dem Fachmann eine nützliche Anleitung zur Umsetzung der beispielhaften Ausführungsform bzw. beispielhaften Ausführungsformen an die Hand geben. Es wird davon ausgegangen, dass verschiedene Änderungen hinsichtlich Funktion und Anordnung der Elemente vorgenommen werden können, ohne den Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und den rechtlichen Äquivalenten davon definiert ist, zu verlassen.
-
Weitere Ausführungsformen
-
- 1. Verfahren zum Erkennen, ob ein Fahrer eines Fahrzeuges ein Objekt außerhalb des Fahrzeuges erkannt hat, wobei das Verfahren umfasst:
Empfangen von externen Sensordaten, welche eine Szene außerhalb des Fahrzeuges wiedergeben;
Empfangen von internen Sensordaten, welche ein Bild des Fahrers anzeigen;
Bestimmen, ob der Fahrer das Objekt auf Basis der externen und der internen Sensordaten erkannt hat; und
wahlweises Erzeugen eines Steuersignales, und zwar basierend darauf, ob der Fahrer das Objekt erkannt hat.
- 2. Verfahren nach Ausführungsform 1, weiterhin umfassend ein Abbilden der externen Sensordaten auf Koordinaten eines Head-Up-Displays, und wobei das Bestimmen, ob der Fahrer das Objekt erkannt hat, auf dem Abbilden basiert.
- 3. Verfahren nach Ausführungsform 2, weiterhin umfassend ein Bestimmen, wo sich das Objekt außerhalb des Fahrzeuges befindet, und zwar auf Basis der externen Sensordaten, und wobei das Abbilden der externen Sensordaten auf dem Bestimmen basiert, wo sich das Objekt befindet.
- 4. Verfahren nach Ausführungsform 1, weiterhin umfassend ein Abbilden der internen Sensordaten auf Koordinaten eines Head-Up-Displays, und wobei das Bestimmen, ob der Fahrer das Objekt erkannt hat, auf der Abbildung basiert.
- 5. Verfahren nach Ausführungsform 1, weiterhin umfassend ein Bestimmen eines Blickfeldes des Fahrers auf Basis der internen Sensordaten, und wobei das Abbilden der internen Sensordaten auf dem Blickfeld des Fahrers basiert ist.
- 6. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Abbilden der externen Sensordaten auf Koordinaten eines Head-Up-Displays;
Abbilden der internen Sensordaten auf die Koordinaten des Head-Up-Displays; und
wobei das Bestimmen, ob der Fahrer das Objekt erkannt hat, auf einem Vergleich des Abbildens der externen Sensordaten und des Abbildens der internen Sensordaten basiert.
- 7. Verfahren nach Ausführungsform 1, wobei das Steuersignal ein Bild auf einem Head-Up-Display steuert.
- 8. Verfahren nach Ausführungsform 7, wobei das Steuersignal ein besonderes Merkmal eines Bildes auf dem Head-Up-Display steuert.
- 9. Verfahren nach Ausführungsform 8, wobei das wahlweises Erzeugen des Steuersignales weiterhin auf einem Gefahrenzustand des Objektes basiert.
- 10. Verfahren nach Ausführungsform 9, wobei das Steuersignal wenigstens eine Farbe und/oder eine Frequenz des besonderen Merkmals auf Basis des Gefahrenzustands steuert.
- 11. Verfahren nach Ausführungsform 1, wobei das Steuersignal ein Fahrzeugwarnsystem steuert.
- 12. Verfahren nach Ausführungsform 1, wobei das Steuersignal ein Kollisionsvermeidungssystem steuert.
- 13. Verfahren nach Ausführungsform 1, weiterhin umfassend ein wahlweises Erzeugen eines zweiten Steuersignales auf Basis der Bestimmung, ob der Fahrer das Objekt erkannt hat, wobei das zweite Steuersignal wenigstens ein Fahrzeugwarnsystem und/oder ein Kollisionsvermeidungssystem steuert.
- 14. System zum Erkennen, ob ein Fahrer eines Fahrzeuges ein Objekt außerhalb des Fahrzeuges erkannt hat, wobei das System umfasst:
ein erstes Modul, welches externe Sensordaten empfängt, welche eine Szene außerhalb des Fahrzeuges wiedergeben;
ein zweites Modul, welches interne Sensordaten empfängt, welche ein Bild des Fahrers wiedergeben;
ein drittes Modul, welches bestimmt, ob der Fahrer das Objekt auf Basis der externen Sensordaten und der internen Sensordaten erkannt hat; und
ein viertes Modul, welches wahlweise ein Steuersignal erzeugt, und zwar basierend darauf, ob der Fahrer das Objekt erkannt hat.
- 15. System nach Ausführungsform 14, wobei das erste Modul die externen Sensordaten auf Koordinaten eines Head-Up-Displays abbildet, und bestimmt, ob der Fahrer auf Basis der Abbildung das Objekt erkannt hat.
- 16. System nach Ausführungsform 15, wobei das erste Modul bestimmt, wo sich auf Basis der externen Sensordaten das Objekt außerhalb des Fahrzeuges befindet und bildet die externen Sensordaten auf Basis darauf ab, wo sich das Objekt befindet.
- 17. System nach Ausführungsform 14, wobei das zweite Modul die internen Sensordaten auf Koordinaten eines Head-Up-Displays abbildet, und bestimmt, ob der Fahrer auf Basis der Abbildung das Objekt erkannt hat.
- 18. System nach Ausführungsform 17, wobei das zweite Modul ein Blickfeld des Fahrers auf Basis der internen Sensordaten bestimmt, und die internen Sensordaten auf Basis des Blickfeldes des Fahrers abbildet.
- 19. System nach Ausführungsform 14, wobei das Steuersignal wenigstens eine Darstellung auf einem Head-Up-Display, einem Fahrzeugwarnsystem und/oder einem Kollisionsvermeidungssystem steuert.
- 20. System nach Ausführungsform 19, wobei das Steuersignal ein auffälliges Merkmal einer Darstellung auf dem Head-Up-Display steuert.
- 21. System nach Ausführungsform 19, wobei das vierte Modul wahlweise das Steuersignal auf Basis eines von dem Objekt ausgehenden Gefahrenzustands das Steuersignal erzeugt.
- 22. System nach Ausführungsform 21, wobei das Steuersignal wenigstens eine Farbe und/oder eine Frequenz der Darstellung auf Basis des Gefahrenzustands steuert.
- 23. Fahrzeug, umfassend:
ein Head-Up-Display-System; und
ein Head-Up-Display-Steuermodul, welches externe Sensordaten empfängt, welche eine Szene außerhalb des Fahrzeuges wiedergeben, wobei das Modul interne Sensordaten empfängt, welche ein Bild eines Fahrers des Fahrzeuges wiedergeben, wobei das Bild feststellt, ob der Fahrer das Objekt auf Basis der externen und der internen Sensordaten erkannt hat, und wobei das Modul basierend darauf, ob der Fahrer das Objekt erkannt hat, wahlweise ein Steuersignal für das Head-Up-Display-System erzeugt.