DE102012214852A1 - Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs - Google Patents

Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs Download PDF

Info

Publication number
DE102012214852A1
DE102012214852A1 DE102012214852.3A DE102012214852A DE102012214852A1 DE 102012214852 A1 DE102012214852 A1 DE 102012214852A1 DE 102012214852 A DE102012214852 A DE 102012214852A DE 102012214852 A1 DE102012214852 A1 DE 102012214852A1
Authority
DE
Germany
Prior art keywords
driver
information
recognition
vehicle
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012214852.3A
Other languages
English (en)
Other versions
DE102012214852B4 (de
Inventor
Andreas Offenhaeuser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102012214852.3A priority Critical patent/DE102012214852B4/de
Priority to CN201380044450.4A priority patent/CN104584102B/zh
Priority to PCT/EP2013/067244 priority patent/WO2014029738A1/de
Priority to US14/420,293 priority patent/US10009580B2/en
Publication of DE102012214852A1 publication Critical patent/DE102012214852A1/de
Application granted granted Critical
Publication of DE102012214852B4 publication Critical patent/DE102012214852B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload

Abstract

Die Erfindung betrifft ein Verfahren (200) zum Ergänzen einer, einem Objekt (104) zugeordneten Objektinformation, wobei das Objekt (104) in einem Umfeld (108) eines Fahrzeugs (100) angeordnet ist, wobei das Verfahren (200) einen Schritt (202) des Einlesens, einen Schritt (204) des Auswertens und einen Schritt (206) des Erweiterns aufweist. Im Schritt des Einlesens (202) wird eine Sensorinformation eingelesen, die eine Reaktion eines Fahrers (114) des Fahrzeugs (100) auf das sich in einer Blickrichtung (308) des Fahrers (114) befindliche Objekt (104) repräsentiert. Im Schritt des Auswertens (204) wird die Sensorinformation ausgewertet, um eine Erkennungsinformation zu erhalten, wobei die Erkennungsinformation ein Ergebnis der Auswertung repräsentiert, ob der Fahrer (114) das Objekt (104) erkannt hat. Im Schritt des Erweiterns (206) wird die Objektinformation um die Erkennungsinformation erweitert.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation sowie auf ein Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs, auf eine entsprechende Vorrichtung und auf ein entsprechendes Computerprogrammprodukt.
  • Die DE 199 51 001 A1 beschreibt eine Vorrichtung zur Darstellung von Informationen in einem Fahrzeug. Die Darstellung von Informationen wird aus verschiedenen Datenquellen in ein Blickfeld des Fahrers eingeblendet.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation, ein Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs, eine entsprechende Vorrichtung und ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Ein sich im Umfeld des Fahrzeugs befindliches Objekt, insbesondere ein sich im Vorfeld des Fahrzeugs befindliches Objekt kann unter Umständen durch den Fahrer eines Fahrzeugs nicht erkannt werden oder nicht bewusst wahrgenommen werden. Ein Nichterkennen eines Objekts kann unterschiedliche Gründe haben. Beispielsweise kann das Objekt an sich schwer erkennbar sein, beispielsweise aufgrund von widrigen Witterungsbedingungen oder der Fahrer kann abgelenkt oder übermüdet sein. Aber auch ein aufmerksamer Fahrer kann ein Objekt übersehen, beispielsweise weil er durch eine aktuelle Fahrsituation besonders gefordert ist. Durch den erfindungsgemäßen Ansatz kann ermittelt werden, ob der Fahrer ein Objekt erkannt hat oder ein Objekt nicht erkannt hat. Eine bezüglich des Objekts ermittelte Erkennungsinformation, die anzeigt, ob ein Erkennen des Objekts durch den Fahrer vorliegt oder nicht, kann beispielsweise von einem Fahrassistenzsystem des Fahrzeugs genutzt werden. Beispielsweise kann ein relevantes Objekt, von dem angenommen wird, dass es vom Fahrer nicht erkannt wurde, besonders hervorgehoben werden.
  • Ein Verfahren zum Ergänzen einer Objektinformation, die einem in einem Umfeld eines Fahrzeugs angeordnet Objekt zugeordnet ist, umfasst die folgenden Schritte:
    Einlesen einer Sensorinformation, die eine Reaktion eines Fahrers des Fahrzeugs auf das sich in einer Blickrichtung des Fahrers befindliche Objekt repräsentiert;
    Auswerten der Sensorinformation, um eine Erkennungsinformation zu erhalten, wobei die Erkennungsinformation Erkennen des Objekts durch den Fahrer anzeigt; und
    Erweitern der Objektinformation um die Erkennungsinformation.
  • Das Objekt kann beispielsweise ein Hindernis, ein anderer Verkehrsteilnehmer, ein Verkehrsschild, ein Tier, ein Fußgänger oder ein Kind sein. Das Objekt kann ein von einer Umfelderfassungseinrichtung des Fahrzeugs erfasstes Objekt repräsentieren. Beispielsweise unter Verwendung einer Objekterkennungseinrichtung kann eine Objektinformation bezüglich des Objekts ermittelt werden und dem Objekt zugeordnet werden. Unter einer Objektinformation kann eine Sammlung von Attributen zu einem Objekt verstanden werden. Die Objektinformation kann ein Datensatz sein. Beispielsweise kann die Objektinformation eine Information über eine Objektklasse des Objekts, eine Position des Objekts in Bezug zu dem Fahrzeug, einen Blickwinkel des Fahrers in Richtung des Objekts und/oder eine Information über eine Kollisionsgefahr des Fahrzeugs mit dem Objekt umfassen. Durch die Objektinformation können somit verschiedene Eigenschaften des Objekts repräsentiert werden. Die Sensorinformation kann eine Information sein, die von einem Sensor, beispielsweise einem Bildsensor, bereitgestellt wird, der ausgebildet ist, um den Fahrer zu erfassen. Die Reaktion kann beispielsweise eine Blickrichtung, eine Blickdauer, eine Bewegung, wie eine Kopfbewegung oder eine Arm- oder Beinbewegung sein. Eine Reaktion kann auch eine Unterbrechung der Bewegung sein. Die Reaktion kann sich auf eine Blickrichtung des Fahrers beziehen. Die Reaktion kann charakteristisch für das Erkennen des Objekts sein. Wenn der Fahrer das Objekt nicht erkennt, wird der Fahrer bezüglich des Objekts keine Reaktion oder eine von einer auf das Erkennen hindeutenden Reaktion abweichende Reaktion zeigen. Im Schritt des Erweiterns kann die Erkennungsinformation der Objektinformation hinzugefügt werden oder eine bestehende Erkennungsinformation ersetzt werden.
  • Die Erkennungsinformation kann eine Wahrscheinlichkeit des Erkennens des Objekts durch den Fahrer repräsentieren. Die Erkennungsinformation kann also eine Wahrscheinlichkeit dafür sein, dass der Fahrer das Objekt erkannt hat oder aber nicht erkannt hat. Bei einer als stark eingestuften Reaktion kann mit einer hohen Wahrscheinlichkeit darauf geschlossen werden, dass der Fahrer das Objekt erkannt hat. Bei einer als gering eingestuften Reaktion kann mit geringer Wahrscheinlichkeit darauf geschlossen werden, dass der Fahrer das Objekt erkannt hat. Beispielsweise kann eine lange Betrachtungsdauer eine höhere Wahrscheinlichkeit des Erkennens repräsentieren, als eine kurze Betrachtungsdauer.
  • Die Sensorinformation kann eine räumliche Lage einer Fixationsachse eines Augenbereichs des Fahrers repräsentieren. Der Augenbereich kann beispielsweise die Position des Gesichts oder eines der Augen des Fahrers darstellen. Im Schritt des Auswertens kann eine Verweildauer ausgewertet werden kann, während der die Fixationsachse auf das Objekt gerichtet ist. Fixation kann als ein gezieltes Betrachten (Fixieren) eines Objektes verstanden werden, eine Fixationsachse oder Fixationsrichtung kann als Gerade zwischen der Netzhautstelle höchster Auflösung und dem Fixierobjekt (Gesichtslinie) bzw. als physiologische Hauptsehrichtung des Auges verstanden werden. Wenn die Fixationsachse eine sichtbare Fläche eines Objekts schneidet und dort verweilt, kann mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass der Fahrer das Objekt sieht. Die Fixationsachse kann mittels eines Blickrichtungserfassungsgeräts erfasst werden.
  • Im Schritt des Auswertens kann die Erkennungsinformation kein Erkennen des Objekts anzeigen, wenn die Fixationsachse kürzer als eine Erkennungsdauer auf das Objekt gerichtet ist. Andererseits kann die Erkennungsinformation ein Erkennen des Objekts anzeigen, wenn die Fixationsachse länger als die Erkennungsdauer auf das Objekt gerichtet ist. Wenn im Schritt des Auswertens beispielsweise erkannt wird, dass die Fixationsachse ohne Verzögerung über ein Objekt hinweg streicht, dann kann davon ausgegangen werden, dass der Fahrer das Objekt nicht erfasst hat. In diesem Fall kann die Erkennungsinformation so bestimmt oder belegt werden, dass sie kein Erkennen, also ein Nicht-Erkennen des Objekts anzeigt. Um das Objekt zu erkennen, fixiert der Fahrer typischer Weise markante Punkte auf dem Objekt und versucht die Punkte dem Objekt zuzuordnen. Dafür benötigt der Fahrer eine kurze Zeitspanne, die Erkennungsdauer.
  • Im Schritt des Auswertens kann die Erkennungsinformation, die das Erkennen des Objekts durch den Fahrer anzeigt, auf den Zustand kein Erkennen des Objekts gesetzt werden, wenn die Fixationsachse länger als eine Aufmerksamkeitsspanne nicht auf das Objekt gerichtet ist. Die Erkennungsinformation kann somit als "unerkannt" bestimmt werden, wenn die Fixationsachse, nachdem der Fahrer das Objekt erkannt hat, länger als die Aufmerksamkeitsspanne nicht auf das Objekt gerichtet ist. Wenn der Fahrer länger als die Aufmerksamkeitsspanne nicht auf das Objekt geblickt hat, dann kann das Objekt wieder als unerkannt klassifiziert werden. Dadurch kann beispielsweise berücksichtigt werden, dass der Fahrer das Objekt nach dem Erkennen vergessen hat.
  • Im Schritt des Auswertens kann die Erkennungsinformation ein Erkennen des Objekts anzeigen, d. h., die Erkennungsinformation kann als "unerkannt" bestimmt werden, wenn sich eine Position des Objekts relativ zum Fahrzeug um mehr als einen vorbestimmten Wert verändert und die Fixationsachse innerhalb einer Reaktionszeit nicht auf das Objekt gerichtet ist. Der Blick des Fahrers wird im Allgemeinen durch eine Bewegung des Objekts angezogen. Insbesondere unter schwierigen Sichtbedingungen kann die Bewegung des Objekts das Erkennen erst ermöglichen. Wenn sich das Objekt bewegt und der Fahrer reagiert nicht darauf, hat der Fahrer mit hoher Wahrscheinlichkeit das Objekt nicht erkannt.
  • Ein Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs, wobei eine Objekterkennung des Fahrzeugs ausgebildet ist, um Objektinformationen zu den Objekten bereitzustellen, umfasst die folgenden Schritte:
    Erweitern der Objektinformationen um Erkennungsinformationen gemäß einem genannten Verfahren zum Ergänzen;
    Auswählen derjenigen der Objekte, deren Erkennungsinformation anzeigt, dass der Fahrer das jeweilige Objekt nicht erkannt hat, um eine Objektgruppe zu erhalten; und
    Bereitstellen der Objektinformationen der Objektgruppe an eine Schnittstelle zu einem Fahrerassistenzsystem des Fahrzeugs.
  • Bei dem Fahrerassistenzsystem kann es sich beispielsweise um eine Anzeigevorrichtung oder um eine Sicherheitsvorrichtung, beispielsweise ein Bremsassistenzsystem sein. Die Objektinformationen der Objekte der Objektgruppe können beispielsweise für ein Anzeigegerät für einen Fahrer des Fahrzeugs bereitgestellt werden, wenn die Objekte innerhalb eines Darstellungsbereichs des Anzeigegeräts angeordnet sind. Ein Anzeigegerät kann eine Fahrersichtfeldanzeige des Fahrzeugs sein. Das Anzeigegerät kann auch ein Monitor im Fahrzeug sein. Ein Darstellungsbereich kann ein Ausschnitt aus dem Umfeld des Fahrzeugs sein. Die Objekte und/oder Objektinformationen innerhalb des Ausschnitts können auf dem Anzeigegerät dargestellt werden. Durch das Darstellen lediglich der unerkannten Objekte kann eine Informationsflut für den Fahrer reduziert werden, denn nur unerkannte Objekte benötigen ein Hervorheben auf dem Anzeigegerät. Ein Hervorheben von erkannten Objekten kann störend wirken, da zwischen einem Bild des Objekts und dem realen Objekt in der Umgebung ein Parallaxenfehler bestehen kann.
  • Die um die Erkennungsinformationen erweiterten Objektinformationen der aufgrund des Gefährdungsgrads ausgewählten Objekte können zum besonderen Hervorheben dieser Objekte auf dem Anzeigegerät bereitgestellt werden. Beispielsweise können solche Objekte blinkend, in Verbindung mit einem Piktogramm und/oder mit Signalfarbe dargestellt werden.
  • Im Schritt des Auswählens können gefährliche Objekte ausgewählt werden, die von dem Fahrer unerkannt sind und bei denen eine Kollisionsgefahr besteht. Dazu kann je ein Gefährdungsgrad der Objekte eingelesen werden, wobei der Gefährdungsgrad eine Wahrscheinlichkeit einer Kollision des Objekts mit dem Fahrzeug repräsentiert. Es können gefährliche Objekte ausgewählt werden, die von dem Fahrer unerkannt sind und bei denen eine Kollisionsgefahr besteht, die also beispielsweise einen Gefährdungsgrad aufweisen, der größer als ein Schwellenwert ist. Es kann ein Kollisionssignal für ein Sicherheitssystem des Fahrzeugs unter Verwendung der Objektinformationen der gefährlichen Objekte bereitgestellt werden. Ein Gefährdungsgrad kann unter Verwendung von vorausberechneten Trajektorien des Fahrzeugs und der Objekte berechnet werden. Der Schwellenwert kann beispielsweise überschritten werden, wenn eine Kollision droht. Beispielsweise kann unter Verwendung des Anzeigegeräts ein Fußgänger hervorgehoben werden, der vor das Fahrzeug laufen wird, wenn er nicht stehen bleibt. Wenn der Fahrer den Fußgänger erkennt, besteht keine Notwendigkeit mehr, den Fußgänger weiter hervorzuheben. Wenn der Fahrer den Fußgänger jedoch nicht erkennt, kann beispielsweise basierend auf dem Kollisionssignal ein autonomer Bremsvorgang eingeleitet werden.
  • Der vorliegende Ansatz kann im Bereich der Fahrerassistenzsysteme eingesetzt werden. Im Bereich der Fahrerassistenzsysteme nimmt die Erkennung, Klassifikation und (semi)-autonome Beeinflussung des Fahrzeugs abhängig von der Situation, die sich im Umfeld des Fahrzeugs darstellt, eine immer größere Rolle ein. Je nach Zustand des Fahrers kann seine eigene Reaktion anders ausfallen und auch seine Reaktion auf einen Systemeingriff kann unterschiedlich ausfallen. Die Information, ob ein Fahrer sich der aktuellen Situation bewusst ist, z. B. das ein Fußgänger auf die Straße zu läuft, kann die Fehlauslöserate von Fahrerassistenzsystemen vermindern.
  • Der hier vorgestellte Ansatz kann eine Objekterkennung durch Umfeldsensorik, z. B. Radar, Lidar, Video oder Ultraschall, eine Objektklassifizierung durch Algorithmen, eine Unterscheidung zwischen Fußgänger, Fahrzeug, stehendem Objekt und sonstigen Objekten, eine Einschätzung der Gefahr für das aktuelle Fahrzeug und eine Erkennung der Fahrer-Blickrichtung und seiner Kopfposition vereinen. Insbesondere eine genaue Erkennung der Pupille und damit des anvisierten Punktes und nicht nur die allgemeine Blickrichtung des Fahrers können für den hier vorgeschlagenen Ansatz genutzt werden.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte zumindest eines der erfindungsgemäßen Verfahren in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 eine Darstellung eines Fahrzeugs mit einer Vorrichtung zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und einer Vorrichtung zum Selektieren von Objekten in einem Umfeld des Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 ein Ablaufdiagramm eines Verfahrens zum Ergänzen einer, einem Objekt zugeordneten Objektinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 eine Darstellung eines Fahrzeugs mit einem System zum zusätzlichen Objektklassifizieren durch eine Blickrichtung des Fahrers gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 ein Flussdiagramm eines Verfahrens zum Ergänzen einer, einem Objekt zugeordneten Objektinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 5 ein Ablaufdiagramm eines Verfahrens zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 zum Ergänzen einer einem Objekt 104 zugeordneten Objektinformation und einer Vorrichtung 106 zum Selektieren von Objekten 104 in einem Umfeld 108 des Fahrzeugs 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 100, beispielsweise ein auf einer Straße fahrendes Kraftfahrzeug, weist eine Umfelderfassungseinrichtung 110, eine Anzeigeeinrichtung 112 für einen Fahrer 114 des Fahrzeugs 100 und eine Fahrererfassungseinrichtung 116 auf. Die Umfelderfassungseinrichtung 110 und die Fahrererfassungseinrichtung 116 sind mit der Vorrichtung 102 zum Ergänzen verbunden. Die Umfelderfassungseinrichtung 110 ist ausgebildet, um Objektinformationen zu Objekten 104 im Umfeld 108 des Fahrzeugs 100 bereitzustellen. Die Fahrererfassungseinrichtung 116 ist ausgebildet, um eine Sensorinformation bereitzustellen, die eine Reaktion eines Fahrers 114 des Fahrzeugs 100 auf das sich in einer Blickrichtung des Fahrers 114 befindliche Objekt 104 repräsentiert. Beispielsweise kann die Fahrererfassungseinrichtung 116 als ein Messsystem zur Fahreraugenblickrichtungserkennung ausgeführt sein. Dazu kann die Fahrererfassungseinrichtung 116 beispielsweise eine Bilderfassungseinrichtung und eine geeignete Bildauswerteeinrichtung aufweisen.
  • Die Vorrichtung 102 zum Ergänzen weist eine Einrichtung 118 zum Einlesen der Sensorinformation, eine Einrichtung 120 zum Auswerten der Sensorinformation und eine Einrichtung 122 zum Erweitern der Objektinformation auf. Die Einrichtung 118 zum Einlesen ist dazu ausgebildet, die Sensorinformation von der Fahrererfassungseinrichtung 116 einzulesen. Die Einrichtung 120 zum Auswerten ist dazu ausgebildet, die Sensorinformation auszuwerten, um eine Erkennungsinformation zu erhalten. Die Erkennungsinformation repräsentiert ein Ergebnis der Auswertung, ob der Fahrer 114 das Objekt 104 erkannt hat oder nicht erkannt hat. Die Einrichtung 122 zum Erweitern ist dazu ausgebildet, die Objektinformation, die von der Umfelderfassungseinrichtung 110 empfangen wird, um die Erkennungsinformation zu erweitern oder zu ergänzen.
  • Die Vorrichtung 102 zum Ergänzen der dem Objekt 104 zugeordneten Objektinformation ist mit der Vorrichtung 106 zum Selektieren verbunden. Die Vorrichtung 106 zum Selektieren weist eine Einrichtung 124 zum Einlesen, eine Einrichtung 126 zum Auswählen und eine Einrichtung 128 zum Bereitstellen auf. Die Einrichtung 124 zum Einlesen ist dazu ausgebildet, die Objektinformationen von der Vorrichtung 102 zum Ergänzen zu empfangen. Die Einrichtung 126 zum Auswählen ist dazu ausgebildet, die Objekte auszuwählen, deren Erkennungsinformation repräsentiert, dass der Fahrer 114 das Objekt nicht erkannt hat, um eine Objektgruppe zu erhalten. Die Einrichtung 128 zum Bereitstellen ist mit der Anzeigeeinrichtung 112 verbunden. Die Einrichtung 128 zum Bereitstellen ist dazu ausgebildet, die Objektinformationen der Objektgruppe zum Anzeigen für den Fahrer 114 bereitzustellen. Damit werden dem Fahrer 114 insbesondere Objekte über die Anzeigeeinrichtung 112 dargestellt, die er noch nicht erkannt hat. Objekte 104, die der Fahrer 114 bereits erkannt hat, werden nicht mehr dargestellt, um den Fahrer nicht vom Umfeld 108 abzulenken.
  • Die Einrichtung 128 zum Bereitstellen kann ferner oder alternativ dazu ausgebildet sein, die um die Erkennungsinformationen ergänzten Objektinformationen an ein anderes Fahrerassistenzsystem bereitzustellen. Die Die Vorrichtung 102 zum Selektieren von Objekten 104 ist optional. Ist keine Vorrichtung 102 zum Selektieren vorgesehen, so kann die von der Vorrichtung 102 zum Ergänzen mit den Erkennungsinformationen ergänzte Objektinformation beispielsweise direkt an ein Fahrerassistenzsystem oder die Anzeigeeinrichtung 112 bereitgestellt werden. Die Anzeigeeinrichtung kann beispielsweise als ein Bildschirm oder als eine Projektionseinrichtung, beispielsweise ein Head-up Display ausgeführt sein.
  • 2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Ergänzen einer, einem Objekt zugeordneten Objektinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Objekt ist in einem Umfeld eines Fahrzeugs angeordnet. Beispielsweise können die Schritte des Verfahrens auf Einrichtungen der in 1 gezeigten Vorrichtung zum Ergänzen ausgeführt werden.
  • Das Verfahren weist einen Schritt 202 des Einlesens, einen Schritt 204 des Auswertens und einen Schritt 206 des Erweiterns auf. Im Schritt 202 des Einlesens wird eine Sensorinformation von einem Fahrererfassungssensor, wie er in 1 dargestellt ist eingelesen. Die Sensorinformation repräsentiert eine Reaktion eines Fahrers des Fahrzeugs auf das sich in einer Blickrichtung des Fahrers befindliche Objekt. Im Schritt 204 des Auswertens wird die Sensorinformation ausgewertet, um eine Erkennungsinformation zu erhalten. Die Erkennungsinformation repräsentiert ein Ergebnis der Auswertung, ob der Fahrer das Objekt erkannt hat. Im Schritt 206 des Erweiterns wird die Objektinformation, die von einer Umfelderfassungseinrichtung bereitgestellt wird, um die Erkennungsinformation erweitert.
  • 3 zeigt eine Darstellung eines Fahrzeugs 100 mit einem System 300 zum zusätzlichen Objektklassifizieren durch eine Blickrichtung des Fahrers gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das System 300 weist einen Radarsensor 302, eine Fahrererfassungseinrichtung mit einem auf einen Fahrer 114 des Fahrzeugs 100 gerichteten Messsystem 304 zur Fahreraugenblickrichtungserkennung und eine Vorrichtung 102 zum Ergänzen auf, wie sie beispielsweise in 1 gezeigt ist.
  • Der Radarsensor 302 weist einen Erfassungsbereich 306 auf, der sich gemäß diesem Ausführungsbeispiel keilförmig vor dem Fahrzeug 100 erstreckt. In dem Erfassungsbereich 306 sind in diesem Ausführungsbeispiel vier Objekte O1, O2, O3, O4 angeordnet, die von dem Radarsensor 302 erfasst werden. Das Objekt O1 ist unter Verwendung einer dem Objekt O1 zugeordneten Objektinformation als Mensch klassifiziert und in dem Erfassungsbereich 306 angeordnet. Eine entsprechende Positionsangabe kann in der dem Objekt O1 zugeordneten Objektinformation gespeichert sein. Das Objekt O1 befindet sich mehr als eine Fahrzeuglänge vor dem Fahrzeug 100. Das Objekt O2 ist am linken Rand des Erfassungsbereichs angeordnet. Das Objekt O2 ist nicht weiter klassifiziert. Das Objekt O3 befindet sich zentral im Erfassungsbereich 306 und ist weiter als das Objekt O1 vom Fahrzeug 100 entfernt. Auch das Objekt O3 ist nicht weiter klassifiziert. Das Objekt O4 befindet sich an einem rechten Rand des Erfassungsbereichs 306, ist nicht klassifiziert und ist weiter von dem Fahrzeug 100 entfernt, als das Objekt O2 und näher am Fahrzeug 100, als das Objekt O1. Zwischen den Objekten O3, O4 ist genügend Platz, um mit dem Fahrzeug 100 hindurchzufahren. Das Objekt O3 befindet sich an einem linken Rand eines voraussichtlichen Fahrpfads des Fahrzeugs 100.
  • Das auf den Fahrer 114 gerichtete Messsystem 304 ist vor dem Fahrer 114 angeordnet und ist ausgebildet, um eine Kopfposition des Fahrers 114 sowie eine Blickrichtung 308 der Augen des Fahrers 114 zu erfassen, solange der Kopf des Fahrers 114 innerhalb eines Erfassungsbereichs 310 des Messsystems 304 angeordnet ist. Der Erfassungsbereich 310 ist hier kegelförmig auf eine gemittelte Position des Kopfs ausgerichtet. Die Blickrichtung 308 ist in diesem Ausführungsbeispiel als „Tunnel“ dargestellt, der ausgehend von einem Augenbereich des Fahrers 114 um eine Fixationsachse 312 zumindest eines der Augen, beziehungsweise des dominanten Auges des Fahrers 114 angeordnet ist. Eine Querschnittsfläche des „Tunnels“ entspricht der Fläche, die der Fahrer 114 ohne Augenbewegung und/oder Kopfbewegung vollständig wahrnehmen kann. Die Fixationsachse 312 verbindet dabei direkt und gradlinig ein Zentrum der Fläche mit dem Auge. Das Messsystem 304 kann aufgrund einer Position der Augen und einer Ausrichtung der Augen an der Position die Lage der Fixationsachse 312 im Raum ermitteln.
  • Das Objekt O3 befindet sich in Blickrichtung 308 des Fahrers 114. Die Vorrichtung 102 ist ausgebildet, um über eine Schnittstelle von dem Radarsensor 302 die Positionen der Objekte O1, O2, O3, O4, beispielsweise als Abstand vom Radarsensor 302 und als Winkel bezogen auf eine Mittelachse des Fahrzeugs 100 als den Objekten O1, O2, O3, O4 zugeordnete Objektinformationen zu empfangen. Des weiteren ist die Vorrichtung 102 ausgebildet, um zusätzliche Objektinformationen über die Objekte O1, O2, O3, O4, beispielsweise die erkannte Klasse „Mensch“ bei dem Objekt O1 und eine aus Sicht des Fahrers 114 sichtbare Fläche der Objekte O1, O2, O3, O4 zu empfangen.
  • Die Vorrichtung 102 ist ferner ausgebildet, um von dem Messsystem 304 Informationen über die Blickrichtung 308 des Fahrers zu empfangen, beispielsweise als Vektor mit Koordinaten zumindest eines Auges als Stützpunkt. Die Vorrichtung 102 ist ausgebildet, um über räumliche Betrachtung zu ermitteln, ob eines oder mehrere der Objekte O1, O2, O3, O4 in der Blickrichtung 308 liegen. In diesem Ausführungsbeispiel ist die Blickrichtung 308 auf einen rechten Rand des Objekts O3 gerichtet. Wenn die Blickrichtung 308 lange genug auf dem Rand des Objekts O3 verharrt, ist eine Wahrscheinlichkeit, dass der Fahrer 114 das Objekt O3 erkannt hat, groß. Dem Objekt O3 kann deshalb ein Attribut „erkannt“ zugeordnet werden und als Erkennungsinformation in einer Objektinformation zu dem Objekt O3 vermerkt werden.
  • Mit anderen Worten zeigt 3 eine beispielhafte Umsetzung des hier vorgeschlagenen Ansatzes. Mithilfe des Radar-Sensors 302 werden die umliegenden Objekte On erkannt und eine Objekterkennung (z. B. ACC) durchgeführt. Das weitere Messsystem 304 ist auf den Fahrer 114 gerichtet und erkennt seine Kopf und Pupillenposition und errechnet hieraus die Blickrichtung 308 des Fahrers 114. Der hier vorgestellte Ansatz bezieht sich jeweils auf die gewonnenen Informationen beider Systeme 302, 304 und der Kombination dieser Daten. Ziel ist es hierbei festzustellen ob der Fahrer 114 das Objekt On, welches vom Radar 302 erkannt wurde schon erblickt hat, oder nicht. Diese zusätzliche Information über das Objekt On erlaubt es verbauten Assistenzsystemen gezielter auf Objekte On zu reagieren. Auch Mensch-Maschine-Schnittstellen Systeme (HMI-Systeme) können so gezielt nur Informationen einblenden, die für den Fahrer 114 relevant, also dem Fahrer 114 noch nicht bewusst sind.
  • 4 zeigt ein Flussdiagramm eines Verfahrens 200 zum Ergänzen einer, einem Objekt zugeordneten Objektinformation gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Beispielsweise können die Schritte des Verfahrens auf Einrichtungen der in 1 gezeigten Vorrichtung zum Ergänzen ausgeführt werden.
  • Das Flussdiagramm bildet eine Entscheidungsschleife für ein je ein Objekt On, wie sie in 3 dargestellt sind, ab. Die Entscheidungsschleife wird für jedes der Objekte On durchgeführt. Nach einem Beginn 400 der Entscheidungsschleife wird in einer Aktion 404 für jedes Objekt On eine Schnittmenge von Objekt On und Blickrichtung vG berechnet. Dafür wird untersucht, ob die Blickrichtung das Objekt trifft. Anschließend erfolgt eine Abfrage 406. In der Abfrage 406 wird abgefragt, ob das Objekt On gemeinsame Punkte mit vG aufweist, also die Schnittmenge größer null ist. Wenn die Abfrage 406 mit „Ja“ 408 beantwortet wird, liegt das Objekt On im Blickvektor vG des Fahrers. Wenn die Abfrage 406 mit „Nein“ 410 beantwortet wird, erblickt der Fahrer das Objekt On nicht. Im Fall von „Ja“ 408 erfolgt eine Aktion 412. In der Aktion 412 wird eine Verweildauer tn des Blickes auf dem Objekt On gemessen. Unter Verwendung der Verweildauer tn wird in einer folgenden Aktion 414 eine Wahrscheinlichkeit pn, dass das Objekt kognitiv wahrgenommen wurde berechnet. Beispielsweise unter Verwendung einer Verarbeitungsvorschrift, wie. pn neu= 10·tn. Im Fall von „Nein“ 410 wird in einer Aktion 416 eine zuvor berechnete bzw. eine zuvor zugewiesene Erkennungswahrscheinlichkeit von 0% beibehalten. Pn neu = Pn alt. Mit dem Zuweisen der neuen Erkennungswahrscheinlichkeit pn neu erreicht die Schleife ihr Ende 402.
  • Die Kombination der Objektdaten On aus dem Radar und der Blickrichtung G des Fahrers kann wie in 4 beschrieben ablaufen. Ein zyklischer Funktionsaufruf errechnet für jedes Objekt On, ob es im Blickbereich des Fahrers ist, und leitet hieraus eine Wahrscheinlichkeit ab, mit der der Fahrer das Objekt (kognitiv) wahrgenommen hat. Objekte On, die neu vom Radar erkannt werden, werden mit einer Wahrscheinlichkeit von 0% initialisiert. Die Radarobjekte On sind mit [Xn, Yn, Zn] Koordinaten und Dimension bekannt. Die Blickrichtung des Fahrers kann als Richtungsvektor vG mit Stützpunkt [XG, YG, ZG] ermittelt werden.
  • Mit anderen Worten zeigt 4 einen Ansatz zur zusätzlichen Objektklassifizierung durch die Blickrichtung des Fahrers oder eine Sichtachse eines Fahrers des Fahrzeugs.
  • Mithilfe der Informationen über Kopfposition und Blickrichtung des Fahrers sowie Einbauposition der verwendeten Sensoren kann der Blick des Fahrers im 3-D-Raum um das Fahrzeug errechnet werden. Aus bereits vorhandenen Sensoren und ihrer angeschlossenen Algorithmen können Informationen über Objekte im Umfeld sowie ihre Klassifikation übernommen werden. Werden nun die Informationen beider Systeme-Blickrichtung und Umgebungsobjekte – vernetzt, kann dadurch erkannt werden welche Objekte sich momentan im Blick des Fahrers befinden. Durch Algorithmen kann nun eine zusätzliche Objektklassifizierung stattfinden, die angibt, wie hoch die Wahrscheinlichkeit ist, dass der Fahrer dieses Objekt komplett erkannt hat und sich der Gefahr bewusst ist.
  • Diese Information kann mehrere Einsatzgebiete finden. Beispielsweise für eine Anpassung von Eingriffsschwellen aktiver Sicherheitssysteme, z. B. Notbremsassistent oder autonome Ausweichfunktionen. Ist beispielsweise bekannt, dass der Fahrer in der Gefahrensituation das gefährdende Objekt nicht im Blick hat, kann frühzeitig ein sanftes Anbremsen eingeleitet werden, damit der Fahrer sich der Situation bewusst wird und so aktiv die Kontrolle übernimmt. Im Fall, dass der Fahrer sich der Situation bewusst ist und dennoch nicht bremst, kann ein vollständig autonomer Bremsvorgang eingeleitet werden, um so einen Unfall zu verhindern. Hierdurch kann die Möglichkeit einer Fehleinschätzung des Fahrers ausgeschlossen bzw. minimiert werden. Beispielsweise kann eine Lenkung der Aufmerksamkeit des Fahrers z. B. durch Signaltöne, Blinklicht, HUD-Einblendungen (Head-up Display-Einblendungen) auf die auftretende, nicht erkannte Gefahr erfolgen. Bei einer Aufmerksamkeitsüberwachung kann, wenn sich der Fahrer längere Zeit vom Verkehrsgeschehen abwendet, (Blick im Fahrzeuginneren) der Fahrer durch einen Signalton auf seine Fahrlässigkeit aufmerksam gemacht werden. Dadurch kann sich der Fahrer wieder dem Verkehrsgeschehen zuwenden. Beispielsweise kann die Information für eine Einblendung von Informationen im HUD, die vom Fahrer nicht bzw. mit geringer Wahrscheinlichkeit erkannt wurden verwendet werden. Z. B. bei einer Schildererkennung. Übersieht der Fahrer ein Verkehrsschild, so kann die von dem Verkehrsschild angezeigte Information, beispielsweise Geschwindigkeitslimits, Überholverbote, etc. im HUD eingeblendet werden, bis der Blick des Fahrers die Information im HUD erfasst.
  • 5 zeigt ein Ablaufdiagramm eines Verfahrens 500 zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Eine Objekterkennung des Fahrzeugs stellt, wie in den 1 und 3 beschrieben, Objektinformationen zu relevanten Objekten bereit. Mit einem beschriebenen Verfahren werden die Objektinformationen um Erkennungsinformation ergänzt.
  • Das Verfahren 500 weist einen Schritt 502 des Einlesens, einen Schritt 504 des Auswählens und einen Schritt 506 des Bereitstellens auf. Im Schritt 502 werden die Objektinformationen zu erkannten Objekten eingelesen. Im Schritt 504 des Auswählens werden einige oder alle der erkannten Objekte ausgewählt, um eine Objektgruppe zu bilden. Dabei werden solche Objekte ausgewählt, deren Erkennungsinformation repräsentiert, dass der Fahrer das Objekt nicht erkannt hat. Im Schritt 506 werden die Objektinformationen der Objektgruppe bereitgestellt. Die Objektinformationen der Objektgruppe können für Risikoabschätzungen und zur Fahrerinformation verwendet werden.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden. Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19951001 A1 [0002]

Claims (10)

  1. Verfahren (200) zum Ergänzen einer Objektinformation, die einem in einem Umfeld (108) eines Fahrzeugs (100) angeordneten Objekt (104) zugeordnet ist, wobei das Verfahren (200) die folgenden Schritte umfasst: Einlesen (202) einer Sensorinformation, die eine Reaktion eines Fahrers (114) des Fahrzeugs (100) auf das sich in einer Blickrichtung (308) des Fahrers (114) befindliche Objekt (104) repräsentiert; Auswerten (204) der Sensorinformation, um eine Erkennungsinformation zu erhalten, wobei die Erkennungsinformation ein Erkennen des Objekts (114) durch den Fahrer (114) anzeigt; und Erweitern (206) der Objektinformation um die Erkennungsinformation.
  2. Verfahren (200) gemäß Anspruch 1, bei dem im Schritt (204) des Auswertens die Erkennungsinformation eine Wahrscheinlichkeit des Erkennens des Objekts (114) durch den Fahrer (114) repräsentiert.
  3. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, bei dem im Schritt (202) des Einlesens die Sensorinformation eine räumliche Lage einer Fixationsachse (312) eines Augenbereichs des Fahrers (114) repräsentiert, und wobei im Schritt (204) des Auswertens eine Verweildauer ausgewertet wird, während der die Fixationsachse (312) auf das Objekt (104) gerichtet ist.
  4. Verfahren (200) gemäß Anspruch 3, bei dem im Schritt (204) des Auswertens die Erkennungsinformation kein Erkennen des Objekts (114) anzeigt, wenn die Fixationsachse (312) kürzer als eine Erkennungsdauer auf das Objekt (104) gerichtet ist und/oder die Erkennungsinformation ein Erkennen des Objekts (114) anzeigt, wenn die die Fixationsachse (312) länger als die Erkennungsdauer auf das Objekt (104) gerichtet ist.
  5. Verfahren (200) gemäß einem der Ansprüche 3 bis 4, bei dem im Schritt (204) des Auswertens die Erkennungsinformation, die das Erkennen des Objekts (104) durch den Fahrer (114) anzeigt auf den Zustand kein Erkennen des Objekts (114) gesetzt wird, wenn die Fixationsachse (312) länger als eine Aufmerksamkeitsspanne nicht auf das Objekt (104) gerichtet ist.
  6. Verfahren (200) gemäß einem der Ansprüche 3 bis 5, bei dem im Schritt (204) des Auswertens die Erkennungsinformation ein Erkennen des Objekts (114) anzeigt, wenn sich eine Position des Objekts (104) relativ zum Fahrzeug (100) um mehr als einen vorbestimmten Wert verändert und die Fixationsachse (312) innerhalb einer Reaktionszeit nicht auf das Objekt (104) gerichtet ist.
  7. Verfahren (500) zum Selektieren von Objekten (O1, O2, O3, O4) in einem Umfeld (108) eines Fahrzeugs (100), wobei eine Objekterkennung des Fahrzeugs (100) ausgebildet ist, um Objektinformationen zu den Objekten (O1, O2, O3, O4) bereitzustellen, und wobei das Verfahren (500) die folgenden Schritte umfasst: Erweitern der Objektinformationen um Erkennungsinformationen gemäß einem Verfahren (200) zum Ergänzen gemäß einem der Ansprüche 1 bis 6; Auswählen (504) derjenigen der Objekte (O1, O2, O4), deren Erkennungsinformation anzeigt, dass der Fahrer (114) das jeweilige Objekt (O1, O2, O4) nicht erkannt hat, um eine Objektgruppe zu erhalten; und Bereitstellen (506) der Objektinformationen der Objektgruppe an eine Schnittstelle zu einem Fahrerassistenzsystem des Fahrzeugs.
  8. Verfahren (500) gemäß Anspruch 7, bei dem im Schritt (504) des Auswählens gefährliche Objekte ausgewählt werden, die von dem Fahrer (114) unerkannt sind und bei denen eine Kollisionsgefahr besteht, wobei im Schritt (506) des Bereitstellens ein Kollisionssignal für ein Fahrerassistenzsystem des Fahrzeugs (100) unter Verwendung der Objektinformationen der gefährlichen Objekte bereitgestellt wird.
  9. Vorrichtung (102, 106), die ausgebildet ist, um die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 8 durchzuführen.
  10. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8, wenn das Programmprodukt auf einer Vorrichtung ausgeführt wird.
DE102012214852.3A 2012-08-21 2012-08-21 Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs Active DE102012214852B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102012214852.3A DE102012214852B4 (de) 2012-08-21 2012-08-21 Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
CN201380044450.4A CN104584102B (zh) 2012-08-21 2013-08-19 用于补充分配给对象的对象信息的方法和用于挑选车辆的环境中的对象的方法
PCT/EP2013/067244 WO2014029738A1 (de) 2012-08-21 2013-08-19 Verfahren zum ergänzen einer einem objekt zugeordneten objektinformation und verfahren zum selektieren von objekten in einem umfeld eines fahrzeugs
US14/420,293 US10009580B2 (en) 2012-08-21 2013-08-19 Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012214852.3A DE102012214852B4 (de) 2012-08-21 2012-08-21 Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102012214852A1 true DE102012214852A1 (de) 2014-02-27
DE102012214852B4 DE102012214852B4 (de) 2024-01-18

Family

ID=49084977

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012214852.3A Active DE102012214852B4 (de) 2012-08-21 2012-08-21 Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs

Country Status (4)

Country Link
US (1) US10009580B2 (de)
CN (1) CN104584102B (de)
DE (1) DE102012214852B4 (de)
WO (1) WO2014029738A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2990936A1 (de) * 2014-08-27 2016-03-02 Toyota Jidosha Kabushiki Kaisha Kommunikation von rauminformationen auf basis von fahreraufmerksamkeitsbeurteilung
EP2993576A1 (de) * 2014-08-27 2016-03-09 Toyota Jidosha Kabushiki Kaisha Kommunikation von extern bezogenen informationen an einen fahrer
WO2016056162A1 (en) * 2014-10-06 2016-04-14 Toyota Jidosha Kabushiki Kaisha Safety system for augmenting roadway objects on a heads-up display
DE102017206585A1 (de) * 2017-04-19 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Insassenunterstützungsverfahren, Insassenunterstützungssystem und Fahrzeug
WO2020030467A1 (de) 2018-08-07 2020-02-13 Volkswagen Aktiengesellschaft Verfahren und steuervorrichtung zum warnen eines fahrers eines kraftfahrzeugs sowie kraftfahrzeug mit einer derartigen steuervorrichtung
DE102019214004A1 (de) * 2019-09-13 2021-03-18 Robert Bosch Gmbh Verfahren zum Steuern einer Vorrichtung in einer Umgebung eines ungeschützten Verkehrsteilnehmers auf Basis eines ermittelten Aufmerksamkeitsgrads des ungeschützten Verkehrsteilnehmers
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung
DE102021214286B3 (de) 2021-12-14 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben eines Kollisionswarnsystems eines Fahrzeugs
DE102021210571A1 (de) 2021-09-23 2023-03-23 Zf Friedrichshafen Ag Computerimplementiertes Verfahren und Vorrichtung zum Assistieren eines Fahrers eines Fahrzeugs, sowie Fahrzeug mit einer solchen Vorrichtung

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786178B1 (en) * 2013-08-02 2017-10-10 Honda Motor Co., Ltd. Vehicle pedestrian safety system and methods of use and manufacture thereof
US9805423B1 (en) 2014-05-20 2017-10-31 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US10540723B1 (en) 2014-07-21 2020-01-21 State Farm Mutual Automobile Insurance Company Methods of providing insurance savings based upon telematics and usage-based insurance
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
EP2993083B1 (de) * 2014-09-04 2023-11-22 Nokia Technologies Oy Vorrichtung, Verfahren und Computerprogramm zur Erkennung von Verkehrsteilnehmern
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US20210118249A1 (en) 2014-11-13 2021-04-22 State Farm Mutual Automobile Insurance Company Autonomous vehicle salvage and repair
CN111880650A (zh) 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
KR102011992B1 (ko) 2015-04-30 2019-08-19 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
JP6427279B2 (ja) 2015-04-30 2018-11-21 グーグル エルエルシー ジェスチャの追跡および認識のための、rfに基づいた微細動作追跡
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10163350B1 (en) 2015-08-28 2018-12-25 State Farm Mutual Automobile Insurance Company Vehicular driver warnings
US11040725B2 (en) * 2015-09-04 2021-06-22 Inrix Inc. Manual vehicle control notification
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US10802477B1 (en) 2016-01-22 2020-10-13 State Farm Mutual Automobile Insurance Company Virtual testing of autonomous environment control system
US10324463B1 (en) 2016-01-22 2019-06-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation adjustment based upon route
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US10395332B1 (en) 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
DE102016201373A1 (de) * 2016-01-29 2017-08-03 Robert Bosch Gmbh Verfahren zu einer Erkennung von Objekten, insbesondere von dreidimensionalen Objekten
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US10671071B2 (en) * 2016-08-09 2020-06-02 Nissan Motor Co., Ltd. Control method and control device of automatic driving vehicle
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10654453B2 (en) * 2017-08-23 2020-05-19 Uatc Llc Systems and methods for low-latency braking action for an autonomous vehicle
US20210139048A1 (en) * 2018-12-05 2021-05-13 Waymo Llc Tree policy planning for autonomous vehicle driving solutions
US11192545B1 (en) 2018-12-05 2021-12-07 Waymo Llc Risk mitigation in speed planning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19951001A1 (de) 1999-10-22 2001-05-31 Bosch Gmbh Robert Vorrichtung zur Darstellung von Informationen in einem Fahrzeug

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983817B2 (en) * 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
US7899616B2 (en) * 1997-10-22 2011-03-01 Intelligent Technologies International, Inc. Method for obtaining information about objects outside of a vehicle
JP2001199296A (ja) * 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
JP2005231450A (ja) * 2004-02-18 2005-09-02 Honda Motor Co Ltd 車両用障害物検出装置
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP2006327527A (ja) * 2005-05-30 2006-12-07 Honda Motor Co Ltd 車両の走行安全装置
JP4353162B2 (ja) * 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
JP4926437B2 (ja) * 2005-09-28 2012-05-09 富士重工業株式会社 車両の運転支援装置
US7884705B2 (en) 2005-12-12 2011-02-08 Panasonic Corporation Safety-drive assistance device
JP5171629B2 (ja) * 2006-09-04 2013-03-27 パナソニック株式会社 走行情報提供装置
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4231884B2 (ja) * 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法
WO2008043852A1 (de) * 2006-10-13 2008-04-17 Continental Teves Ag & Co. Ohg System zur bestimmung von objekten
GB0625912D0 (en) * 2006-12-22 2007-02-07 Bid Instr Ltd Method for visual field testing
JP2009237776A (ja) 2008-03-26 2009-10-15 Mazda Motor Corp 車両用運転支援装置
JP5354514B2 (ja) 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
JPWO2011064831A1 (ja) 2009-11-30 2013-04-11 富士通株式会社 診断装置及び診断方法
KR101231510B1 (ko) 2010-10-11 2013-02-07 현대자동차주식회사 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량
DE102011084367A1 (de) 2011-10-12 2013-04-18 Bayerische Motoren Werke Aktiengesellschaft Feststellen der fahrerseitigen Wahrnehmung eines in der Umgebung eines Kraftfahrzeugs befindlichen Objektes
US9702966B2 (en) * 2013-09-16 2017-07-11 Appareo Systems, Llc Synthetic underwater visualization system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19951001A1 (de) 1999-10-22 2001-05-31 Bosch Gmbh Robert Vorrichtung zur Darstellung von Informationen in einem Fahrzeug

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2990936A1 (de) * 2014-08-27 2016-03-02 Toyota Jidosha Kabushiki Kaisha Kommunikation von rauminformationen auf basis von fahreraufmerksamkeitsbeurteilung
EP2993576A1 (de) * 2014-08-27 2016-03-09 Toyota Jidosha Kabushiki Kaisha Kommunikation von extern bezogenen informationen an einen fahrer
WO2016056162A1 (en) * 2014-10-06 2016-04-14 Toyota Jidosha Kabushiki Kaisha Safety system for augmenting roadway objects on a heads-up display
US9472023B2 (en) 2014-10-06 2016-10-18 Toyota Jidosha Kabushiki Kaisha Safety system for augmenting roadway objects on a heads-up display
DE102017206585A1 (de) * 2017-04-19 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Insassenunterstützungsverfahren, Insassenunterstützungssystem und Fahrzeug
DE102017206585B4 (de) 2017-04-19 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Insassenunterstützungsverfahren, Insassenunterstützungssystem und Fahrzeug
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung
US11485380B2 (en) 2018-08-07 2022-11-01 Volkswagen Aktiengesellschaft Method and control device for warning a driver of a motor vehicle and motor vehicle with such a control device
DE102018213230A1 (de) * 2018-08-07 2020-02-13 Volkswagen Aktiengesellschaft Verfahren und Steuervorrichtung zum Warnen eines Fahrers eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer derartigen Steuervorrichtung
WO2020030467A1 (de) 2018-08-07 2020-02-13 Volkswagen Aktiengesellschaft Verfahren und steuervorrichtung zum warnen eines fahrers eines kraftfahrzeugs sowie kraftfahrzeug mit einer derartigen steuervorrichtung
DE102019214004A1 (de) * 2019-09-13 2021-03-18 Robert Bosch Gmbh Verfahren zum Steuern einer Vorrichtung in einer Umgebung eines ungeschützten Verkehrsteilnehmers auf Basis eines ermittelten Aufmerksamkeitsgrads des ungeschützten Verkehrsteilnehmers
DE102021210571A1 (de) 2021-09-23 2023-03-23 Zf Friedrichshafen Ag Computerimplementiertes Verfahren und Vorrichtung zum Assistieren eines Fahrers eines Fahrzeugs, sowie Fahrzeug mit einer solchen Vorrichtung
DE102021214286B3 (de) 2021-12-14 2023-03-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben eines Kollisionswarnsystems eines Fahrzeugs

Also Published As

Publication number Publication date
US20150229885A1 (en) 2015-08-13
WO2014029738A1 (de) 2014-02-27
DE102012214852B4 (de) 2024-01-18
CN104584102A (zh) 2015-04-29
CN104584102B (zh) 2017-07-11
US10009580B2 (en) 2018-06-26

Similar Documents

Publication Publication Date Title
DE102012214852B4 (de) Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102013210050B4 (de) Neurokognitive Verarbeitung eines Fahrerzustands
DE112014007249B4 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102012216112A1 (de) Verfahren und Informationssystem zur Ermittlung eines vom Fahrer beabsichtigen oder nicht beabsichtigten Fahrspurwechsels bei einer Fahrt eines Fahrzeugs
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102015205685B4 (de) Fahrbahnmarkierungserkennungseinrichtung, fahrbahnmarkierungserkennungsverfahren sowie fahrzeug mit einer fahrbahnmarkierungserkennungseinrichtung
DE102014207802B3 (de) Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers
DE102014008687A1 (de) Verfahren zur Darstellung von Fahrzeugumfeldinformationen eines Kraftfahrzeuges
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102013201545A1 (de) Erstellen eines Umfeldmodells für ein Fahrzeug
DE102014201036A1 (de) Bildbasierte Klassifikation des Fahrerzustands und/oder des Fahrerverhaltens
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016121625A1 (de) Vorrichtung und Verfahren zum Überwachen einer Konzentration eines Fahrers mittels Augenverfolgung
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102017108254A1 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
WO2019037905A1 (de) Verfahren zum betreiben eines assistenzsystems für ein fahrzeug und assistenzsystem
DE102019205542A1 (de) Verfahren und Vorrichtung zur bildhaften Information über Querverkehr auf einer Anzeigevorrichtung eines gefahrenen Fahrzeugs
WO2014032903A1 (de) Verfahren und informationssystem zum filtern von objektinformationen
DE102007052093B4 (de) Erkennung von spontanen Bewegungsänderungen von Fußgängern
DE102008062915B4 (de) Erkennung von Personen, insbesondere von Fußgängern
DE102015212771A1 (de) Vorrichtung zur Erkennung von teilverdeckten beweglichen Objekten für ein Umfelderfassungssystem eines Kraftfahrzeugs
DE102017211555A1 (de) Verfahren zur Überwachung mindestens eines Insassen eines Kraftfahrzeugs, wobei das Verfahren insbesondere zur Überwachung und Erkennung möglicher Gefahrensituationen für mindestens einen Insassen dient
DE102019130037B4 (de) Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division