DE102020124633A1 - Kontextsensitive anpassung einer geländeblickzeit - Google Patents

Kontextsensitive anpassung einer geländeblickzeit Download PDF

Info

Publication number
DE102020124633A1
DE102020124633A1 DE102020124633.1A DE102020124633A DE102020124633A1 DE 102020124633 A1 DE102020124633 A1 DE 102020124633A1 DE 102020124633 A DE102020124633 A DE 102020124633A DE 102020124633 A1 DE102020124633 A1 DE 102020124633A1
Authority
DE
Germany
Prior art keywords
driver
vehicle
score
real
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020124633.1A
Other languages
English (en)
Inventor
Ariel Telpaz
Michael Baltaxe
Donald K. Grimm
Gila Kamhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020124633A1 publication Critical patent/DE102020124633A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/167Control of land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Ophthalmology & Optometry (AREA)
  • Strategic Management (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Educational Technology (AREA)
  • Transportation (AREA)
  • Social Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Game Theory and Decision Science (AREA)
  • Psychiatry (AREA)

Abstract

Verfahren und Systeme beinhalten das Bereitstellen von Informationen aus einer oder mehreren Quellen, um einen Echtzeitkontext zu bestimmen. Ein Verfahren umfasst das Bestimmen einer Situationsbewusstseins-Punktzahl, die auf der Grundlage des Echtzeitkontext ein erforderliches Level an Wachsamkeit anzeigt, das erhalten von Bildern von Augen eines Fahrers, um ein Blickmuster des Fahrers zu erkennen, das Bestimmen einer relevanten Aufmerksamkeits-Punktzahl, die ein Level an Engagement des Fahrers im Echtzeitkontext anzeigt, auf der Grundlage eines Abgleichs zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext, und das Erhalten von Bildern des Fahrers, um das Verhalten des Fahrers zu erkennen. Es wird eine Fahrerbereitschafts-Punktzahl bestimmt, die ein Level der Bereitschaft des Fahrers anzeigt, das Fahren des Fahrzeugs wiederaufzunehmen, basierend auf dem Verhalten des Fahrers. Auf der Grundlage der Situationsbewusstseins-Punktzahl, der relevanten Aufmerksamkeits-Punktzahl und der Fahrerbereitschafts-Punktzahl wird eine Geländeblickzeit ermittelt.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung bezieht sich auf die kontextsensitive Anpassung einer Geländeblickzeit.
  • Semiautonome Fahrzeugsysteme automatisieren viele Aspekte des Betriebs eines Fahrzeugs (z.B. PKW, LKW, landwirtschaftliche Geräte, Baumaschinen, automatisierte Fabrikausrüstung). Zu den semiautonomen Fahrzeugsystemen gehören Kollisionsvermeidung, automatisiertes Bremsen und ähnliches. Einige semiautonome Fahrzeugsysteme (z.B. Super Cruise) erleichtern das Freihandfahren. Diese Freihandfahrsysteme bieten in der Regel ein festes Intervall (als - Geländeblickzeit bezeichnet), während dessen der Fahrer von der Straße wegblicken darf. Basierend auf der Echtzeitsituation kann diese feste Geländeblickzeit jedoch zu kurz oder zu lang sein. Dementsprechend ist es wünschenswert, eine kontextsensitive Anpassung der Geländeblickzeit vorzusehen.
  • BESCHREIBUNG
  • In einer beispielhaften Ausführungsform umfasst ein Verfahren zur Anpassung einer Zeitdauer, während der ein Fahrer, der einen Freihandmodus eines semiautonomen Fahrzeugs benutzt, möglicherweise unaufmerksam auf eine Fahrbahn ist, das Bereitstellen von Informationen aus einer oder mehreren Quellen, um einen Echtzeitkontext zu bestimmen. Der Echtzeitkontext gibt mindestens eine Geschwindigkeit des Fahrzeugs und eine Entfernung zu einem Ziel an. Die eine oder mehrere Quellen umfassen einen oder mehrere Sensoren des Fahrzeugs. Das Verfahren umfasst das Bestimmen einer Situationsbewusstseins-Punktzahl, die auf der Grundlage des Echtzeitkontextes ein erforderliches Level an Wachsamkeit anzeigt, das Erhalten von Bildern von Augen des Fahrers zur Erkennung eines Blickmusters des Fahrers und das Bestimmen einer relevanten Aufmerksamkeits-Punktzahl, die ein Level an Engagement des Fahrers im Echtzeitkontext anzeigt, auf der Grundlage eines Abgleichs zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext. Es werden Bilder des Fahrers erhalten, um das Verhalten des Fahrers zu erkennen. Es wird eine Fahrerbereitschafts-Punktzahl ermittelt, die auf der Grundlage des Verhaltens des Fahrers ein Level der Bereitschaft des Fahrers anzeigt, das Fahren des Fahrzeugs wiederaufzunehmen. Eine Geländeblickzeit wird auf der Grundlage einer Anpassung innerhalb einer Reihe von Zeitdauerwerten unter Verwendung der Situationsbewusstseins-Punktzahl, der relevanten Aufmerksamkeits-Punktzahl und der Fahrerbereitschafts-Punktzahl ermittelt.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Erhalten der Informationen von dem einem oder den mehreren Sensoren des Fahrzeugs auch das Erhalten von Informationen von einer Kamera, einem Radarsystem, einem globalen Navigationssatellitensystem oder einem Lidarsystem.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Erhalten der Informationen aus der einer oder den mehreren Quellen des Fahrzeugs auch das Erhalten von Informationen aus einer Kommunikationsvorrichtung.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale umfasst das Erhalten der Informationen von der Kommunikationsvorrichtung auch das Erhalten von Verkehrsstatus- oder Wetterinformationen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Bestimmen der Situationsbewusstseins-Punktzahl die Verwendung eines maschinellen Lernalgorithmus für die Informationen aus der einen oder den mehreren Quellen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Bestimmen der relevanten Aufmerksamkeits-Punktzahl die Verwendung eines neuronalen Netzes zur Bestimmung des Abgleichs zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Erkennen des Verhaltens des Fahrers das Klassifizieren einer Aktivität des Fahrers und das Klassifizieren einer Pose des Fahrers unter Verwendung von faltenden neuronalen Netzen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Bestimmen der Fahrerbereitschafts-Punktzahl die Verwendung eines vollständig verbundenen faltenden neuronalen Netzes über die Aktivität des Fahrers und die Pose des Fahrers.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren auch das Starten eines Zeitgebers, basierend auf einem Geländeblick des Fahrers, während sich das Fahrzeug im Freihandmodus befindet.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfasst das Verfahren auch die Bereitstellung einer Warnung für den Fahrer, basierend auf dem Erreichen der Geländeblickzeit durch den Zeitgeber.
  • In einer anderen beispielhaften Ausführungsform umfasst ein System zur Anpassung einer Zeitdauer, während der ein Fahrer, der den Freihandmodus eines semiautonomen Fahrzeugs benutzt, möglicherweise unaufmerksam auf eine Fahrbahn ist, eine oder mehrere Quellen zur Bereitstellung von Informationen. Die eine oder mehreren Quellen umfassen einen oder mehrere Sensoren des Fahrzeugs. Das System umfasst auch eine erste Kamera innerhalb des Fahrzeugs, um Bilder von Augen des Fahrers zu erhalten, und eine zweite Kamera innerhalb des Fahrzeugs, um Bilder des Fahrers zu erhalten. Eine Steuerung bestimmt auf der Grundlage der Informationen einen Echtzeitkontext. Der Echtzeitkontext gibt mindestens eine Geschwindigkeit des Fahrzeugs und eine Entfernung zu einem Ziel an. Die eine oder mehrere Quellen umfassen einen oder mehrere Sensoren des Fahrzeugs. Der Steuerung bestimmt eine Situationsbewusstseins-Punktzahl, die auf der Grundlage des Echtzeitkontextes ein erforderliches Level an Wachsamkeit anzeigt, erkennt ein Blickmuster des Fahrers auf der Grundlage der Bilder der Augen des Fahrers und bestimmt eine relevante Aufmerksamkeits-Punktzahl, die ein Level an Engagement des Fahrers im Echtzeitkontext anzeigt, auf der Grundlage eines Abgleichs zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext. Die Steuerung erkennt auch ein Verhalten des Fahrers auf der Grundlage der Bilder des Fahrers, bestimmt eine Fahrerbereitschafts-Punktzahl, die ein Level an Bereitschaft des Fahrers anzeigt, das Fahren des Fahrzeugs wiederaufzunehmen, auf der Grundlage des Verhaltens des Fahrers, und erhält eine Geländeblickzeit auf der Grundlage einer Anpassung innerhalb einer Reihe von Zeitdauerwerten unter Verwendung der Situationsbewusstseins-Punktzahl, der relevanten Aufmerksamkeits-Punktzahl und der Fahrerbereitschafts-Punktzahl.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfassen der eine oder die mehreren Sensoren des Fahrzeugs eine Kamera, ein Radarsystem, ein globales Navigationssatellitensystem oder ein Lidarsystem.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfassen die eine oder mehrere Quellen des Fahrzeugs eine Kommunikationsvorrichtung.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale umfassen die Informationen der Kommunikationsvorrichtung einen Verkehrsstatus oder Wetterinformationen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale bestimmt die Steuerung die Situationsbewusstseins-Punktzahl, indem sie einen maschinellen Lernalgorithmus für die Informationen aus der einen oder den mehreren Quellen verwendet.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale bestimmt die Steuerung die relevante Aufmerksamkeits-Punktzahl, indem sie ein neuronales Netz verwendet, um den Abgleich zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext zu bestimmen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale erkennt die Steuerung das Verhalten des Fahrers, indem sie eine Aktivität des Fahrers klassifiziert und eine Pose des Treibers unter Verwendung von faltenden neuronalen Netzen klassifiziert.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale bestimmt die Steuerung die Fahrerbereitschafts-Punktzahl, indem sie ein vollständig verbundenes faltendes neuronales Netz für die Aktivität des Fahrers und die Pose des Fahrers verwendet.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen startet die Steuerung einen Zeitgeber, basierend auf einem Geländeblick des Fahrers, während sich das Fahrzeug im Freihandmodus befindet.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen liefert die Steuerung dem Fahrer eine Warnung, wenn der Zeitgeber die Geländeblickzeit erreicht.
  • Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Zeichnungen aufgenommen werden.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Details erscheinen lediglich beispielhaft in der folgenden ausführlichen Beschreibung, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein Blockdiagramm eines Fahrzeugs ist, das eine kontextsensitive Anpassung der Geländeblickzeit ermöglicht, gemäß einer oder mehreren Ausführungsformen;
    • 2 ein Blockdiagramm ist, in dem die Funktionalität der Komponenten des Fahrzeugs detailliert dargestellt ist, um eine kontextsensitive Anpassung der Geländeblickzeit zu ermöglichen, gemäß einer oder mehreren Ausführungsformen; und
    • 3 ein Prozessablauf eines Verfahrens zur Umsetzung der Geländeblickzeit ist, die gemäß einer oder mehreren Ausführungsformen bestimmt wird.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung hat lediglich beispielhaften Charakter und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Es ist zu verstehen, dass in den Zeichnungen durchgehend entsprechende Referenzziffern auf gleiche oder entsprechende Teile und Merkmale hinweisen.
  • Wie bereits erwähnt, kann das Freihandfahren in einigen semiautonomen Fahrzeugen möglich sein. Wie ebenfalls erwähnt, erlauben diese Freihandsysteme im Allgemeinen eine feste Geländeblick-Zeitdauer, während der der Fahrer nicht auf die Straße achten muss. Diese Fahrzeuge können mit Fahrerüberwachungssystemen und anderen Sensoren ausgestattet sein, um das Freihandfahren und das Auferlegen der festen Geländeblickzeit zu erleichtern. Bei geringem Verkehrsaufkommen und wenn die Umstände es rechtfertigen, kann die feste Geländeblickzeit kürzer als nötig sein. In ähnlicher Weise kann bei starkem Verkehr oder einem Notfallszenario die Wachsamkeit des Fahrers vor Ablauf der festgelegten Geländeblickzeit gefordert sein.
  • Die Ausführungsformen der hier beschriebenen Systeme und Verfahren beziehen sich auf die kontextsensitive Anpassung der Geländeblickzeit. Mit Hilfe von Informationen von Sensoren, die auch die Sensoren des Freihandsystems sein können, wird die relative Wachsamkeit bestimmt, die durch die Echtzeitbedingungen und den aktuellen Zustand des Fahrers erforderlich ist. Diese Kontextinformationen werden verwendet, um die Dauer einer dynamischen Geländeblickzeit innerhalb eines Bereichs anzupassen. Konkret werden drei Kategorien von Punktzahlen gewichtet und summiert, um die Art und Weise zu bestimmen, wie die dynamische Geländeblickzeit angepasst werden sollte. Die erste Punktzahlkategorie bezieht sich auf das erforderliche Wachsamkeitslevel, und die zweite und dritte Kategorie beziehen sich auf den aktuellen Fahrerzustand. Die zweite Punktzahlkategorie gibt das aktuelle Level eines Engagements des Fahrers im Fahrzeugeinsatz an. Dies wird durch die Erkennung eines Blickmusters des Fahrers ermittelt. Die dritte Punktzahlkategorie gibt das aktuelle Level einer Bereitschaft des Fahrers an, seine Fahrtätigkeit wieder aufzunehmen. Dieser wird durch die Erkennung der aktuellen Aktivität des Fahrers ermittelt.
  • Entsprechend einer beispielhaften Ausführungsform ist 1 ein Blockdiagramm eines Fahrzeugs 100, das eine kontextsensitive Anpassung der Geländeblickzeit ermöglicht. Das in 1 gezeigte exemplarische Fahrzeug 100 ist ein Automobil 101. Das Fahrzeug 100 enthält mehrere Sensoren, die sowohl das Freihandfahren als auch die kontextsensitive Anpassung erleichtern. Die in 1 beispielhaft gezeigten Sensoren sind nicht dazu gedacht, die Anzahl und die Anordnung der Sensoren nach alternativen Ausführungsformen zu begrenzen. Eine Kamera 120 ist an der Vorder- und Rückseite des Fahrzeugs 100 gezeigt. Zusätzliche Kameras 120 können so positioniert werden, dass sie z.B. ein Sichtfeld an den Seiten des Fahrzeugs 100 haben. Ein Radarsystem 130 wird ebenfalls an der Vorder- und Rückseite des Fahrzeugs 100 gezeigt. Ein Lidarsystem 140 wird auf dem Dach des Fahrzeugs 100 gezeigt.
  • Ein globales Navigationssatellitensystem (GNSS) 150 (z.B. Global Positioning System (GPS)) ist ebenfalls auf dem Dach des Fahrzeugs 100 abgebildet. Das GNSS 150 liefert Standortinformationen und erleichtert die präzise Kartierung, die das Freihandfahren erfordert. Zwei Innenkameras 125a und 125b (allgemein als 125 bezeichnet) sind abgebildet. Eine der Innenkameras 125a kann sich im Armaturenbrett befinden und so positioniert werden, dass sie z.B. Bilder von Augen des Fahrers des Fahrzeugs 100 liefert. Diese Bilder würden ein Blickmuster des Fahrers anzeigen. Die andere Innenkamera 125b kann so positioniert werden, dass sie Bilder des Fahrers erhält, um z.B. festzustellen, welche Handlungen der Fahrer gerade ausführt. Gemäß alternativen Ausführungsformen kann sowohl für die Blick- als auch für die Verhaltenserkennung nur eine Innenkamera 125 verwendet werden, oder es können mehr als zwei Kameras 125 verwendet werden.
  • Ein Steuerung 110 ist auch im Fahrzeug 100 abgebildet. Gemäß alternativen Ausführungsformen kann die Steuerung 110 ein Satz von Steuerungen 110 sein, die miteinander kommunizieren, um die Funktion des Freihandfahrens und die kontextsensitive Anpassung der Geländeblickzeit gemäß einer oder mehreren Ausführungsformen durchzuführen. Die Funktionalität der Steuerung 110 wird unter Bezugnahme auf 2 weiter erörtert. Der Steuerung 110 umfasst eine Verarbeitungsschaltung, die eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher, der ein oder mehrere Software- oder Firmware-Programme ausführt, eine kombinierte Logikschaltung und/oder andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen, umfassen kann. Die Steuerung 110 enthält zusätzlich die Kommunikationsfähigkeit zur Kommunikation mit anderen Fahrzeugen in der Fahrzeug-zu-Fahrzeug-Kommunikation (V2V), zur Kommunikation mit der Infrastruktur in der Fahrzeug-zu-Infrastruktur-Kommunikation (V2I) oder zur Kommunikation mit irgendeiner anderen Einheit in der Fahrzeug-zu-Alles-Kommunikation (V2X). Die Kommunikation durch die Steuerung 110 kann z.B. das Erhalten von Wetterinformationen und das Erhalten von Verkehrsinformationen außerhalb des Sichtfeldes der Sensoren des Fahrzeuges 100 erleichtern.
  • 2 ist ein Blockdiagramm 200, in dem die Funktionalität der Komponenten des Fahrzeugs 100 detailliert dargestellt ist, um eine kontextsensitive Anpassung der Geländeblickzeit gemäß einer oder mehreren Ausführungsformen zu ermöglichen. Wie dargestellt, werden der Steuerung 110 Eingaben von einer oder mehreren Kameras 120, dem Radarsystem 130, dem Lidarsystem 140, dem GNSS 150 und einer oder mehreren Innenraumkameras 125 zur Verfügung gestellt. Die Informationen, die von der Kamera 120, dem Radarsystem 130, dem Lidarsystem 140 und GNSS 150 geliefert werden, werden verwendet, um eine Echtzeitkontext-Erkennung bei Block 210 durchzuführen. Der Echtzeitverkehr und andere Faktoren, die als Teil der Kontexterfassung in Block 210 bereitgestellt werden, werden bewertet, um das Level der Wachsamkeit zu bestimmen, der durch den Echtzeitkontext bei Block 240 erforderlich ist. Die Prozesse in den Blöcken 210 und 240 werden weiter detailliert.
  • In Block 220 werden Informationen von einer Innenkamera 125, die Augen des Fahrers erkennt, zur Blickmustererkennung verwendet. In Block 250 wird die Echtzeitkontext-Erkennung (aus Block 210), die die Bewegungen des Automobils 100 anzeigt, mit dem in Block 220 erkannten Blickmuster verglichen. Der Vergleich zeigt das aktuelle Level eines Engagements des Fahrers an. Das heißt, der Vergleich zeigt an, ob der Blick des Fahrers mit der Bedienung des Fahrzeugs 100 im Freihandfahrmodus übereinstimmt. Zum Beispiel wird das Blickmuster (aus Block 220) mit dem Echtzeitkontext (aus Block 210) verglichen, um festzustellen, ob der Fahrer nach links geschaut hat, um die Bewegung des Fahrzeugs 100 während einer Linkskurve zu verfolgen. Die Vorgänge in den Blöcken 220 und 250 werden weiter detailliert.
  • In Block 230 werden Informationen von einer Innenkamera 125, die eine Aktivität und Pose des Fahrers erkennt (z.B. Sprechen mit den Händen am Lenkrad, Halten eines Objekts mit dem Fuß auf dem Sitz), zur Erkennung des Fahrerverhaltens verwendet. In Block 260 werden die Informationen zum Fahrerverhalten (aus Block 230) zusammen mit den Blickmusterinformationen (aus Block 220) verwendet, um das aktuelle Level an Bereitschaft des Fahrers zu bestimmen. Wenn sich der Fahrer z.B. gemäß den Informationen zur Fahreraktivität aus Block 230 nicht bewegt und die Augen des Fahrers gemäß den Blickmusterinformationen aus Block 220 geschlossen sind, dann schläft der Fahrer wahrscheinlich und zeigt einen relativ niedrigen Bereitschaftslevel, die Kontrolle über das Fahrzeug wiederaufzunehmen 100. Ähnlich verhält es sich, wenn der Fahrer mit beiden Händen isst oder einen Fuß auf dem Fahrersitz hat. Wenn der Fahrer mit beiden Händen isst oder einen Fuß auf dem Fahrersitz hat, zeigt der Fahrer gemäß den Informationen zur Fahrertätigkeit aus Block 230 ein relativ geringes Level an Bereitschaft, die Kontrolle über das Fahrzeug 100 wiederaufzunehmen. Die Vorgänge in den Blöcken 230 und 260 werden weiter detailliert.
  • Das erforderliche Level an Wachsamkeit (aus Block 240) kann als eine erforderliche Situationsbewusstseins-Punktzahl SSA angesehen werden. Das Level an Engagements des Fahrers in Bezug auf die Bewegung des Fahrzeugs 100 (aus Block 250) kann als relevante Aufmerksamkeits-Punktzahl SRA angesehen werden. Das Level an Bereitschaft des Fahrers zur Wiederaufnahme der Fahrt (aus Block 260) kann als eine Fahrerbereitschafts-Punktzahl SDR angesehen werden. Jede dieser Punktzahlen kann, wie in 2 dargestellt, gewichtet werden. So kann die Situationsbewusstseins-Punktzahl SSA mit der Gewichtung W1, die relevante Aufmerksamkeits-Punktzahl SRA mit der Gewichtung W2 und die Fahrerbereitschafts-Punktzahl SDR mit der Gewichtung W3 multipliziert werden. In Block 270 werden die gewichteten Punkte zur Bestimmung der Geländeblickzeit innerhalb des festgelegten Bereichs verwendet. Dies kann z.B. bedeuten, dass die Geländeblickzeit von dem aktuell eingestellten Wert erhöht oder verringert wird. Die Gewichtung W1, W2, W3, die auf die Punktzahl aus jedem der Vorgänge 240, 250, 260 angewandt wird, kann auf der Grundlage empirischer Studien oder einer überwachten Lerntechnik bestimmt werden. Die gewichteten Punktzahlen werden addiert, um die Geländeblickzeit entlang eines Kontinuums zu verschieben (z.B. 4 Sekunden auf 10 Sekunden). Anstelle der Geländeblickzeit kann auch ein Verhältnis von Straßenblickzeit und Geländeblickzeit bestimmt und verfolgt werden, gemäß alternativen Ausführungsformen.
  • Die Vorgänge in den Blöcken 210 und 240 werden weiter diskutiert. In Block 210 werden Informationen aus verschiedenen Quellen (z.B. Kamera 120, Radarsystem 130, Lidarsystem 140, GNSS 150, Kommunikation durch Steuerung 110) gewonnen, um den Echtzeitkontext zu erfassen. So können z.B. Licht- und Wetterbedingungen durch die Steuerung 110 über die Kommunikation erfasst werden. Straßenstruktur- und Navigationsinformationen wie die Anzahl der Fahrspuren, die Art der Fahrbahnmarkierungen und deren Zustand, die Art der Straße (z.B. städtisch, ländlich), der Krümmungsgrad der Straße, die Unfallhistorie am Unfallort, die Art der erforderlichen Abbiegung, die erforderliche Geschwindigkeitsänderung (z.B. Verlassen einer Autobahn in eine Landstraße oder umgekehrt) und die Entfernung zum Ziel können aus Sensoren und Kommunikation abgeleitet werden. Spezifisch für das Fahrzeug 100 können die Geschwindigkeit, die Zentrierung in der Fahrspur, die Beschleunigung, der Kurs, die Fahrspur, die Gierrate und das nächste Manöver bestimmt werden. Zusätzlich können die Position, die relative Geschwindigkeit, der Kurs, der Typ und die relative Beschleunigung eines oder mehrerer anderer Fahrzeuge (z.B. eines Folgefahrzeugs) bestimmt werden.
  • Auf der Grundlage der in Block 210 ermittelten Informationen kann zur Bestimmung des erforderlichen Wachsamkeitslevels in Block 240 ein maschinelles Lernmodell herangezogen werden. Ein Random-Forest-Regressionsmodell ist zum Beispiel ein Algorithmus für überwachtes Lernen, der aus Entscheidungsbäumen aufgebaut ist. Die Entscheidungsbäume werden während des Trainings erstellt und auf verschiedenen Datenproben trainiert. Innerhalb jedes einzelnen Entscheidungsbaums wird das Aufteilungskriterium für jeden Knoten auf der Grundlage einer zufälligen Zufallsteilprobe der Eingangsdatenvariablen (d.h. der in Block 210 erfassten Informationen) bestimmt. Die Zufallsproben ermöglichen es, die Überanpassung des Regressionsmodells zu überwinden, wodurch die Verallgemeinerbarkeit des Regressionsmodells erhöht wird und verhindert wird, dass das Regressionsmodell auf den ursprünglichen Datensatz beschränkt wird. Das nichtlineare maschinelle Lernmodell gibt die durchschnittliche Vorhersage (Regression) der einzelnen Bäume aus. Das Ergebnis der Random-Forest-Regression oder eines anderen maschinellen Lernmodells ist die Situationsbewusstseins-Punktzahl SSA.
  • Die Prozesse in den Blöcken 220 und 250 werden weiter diskutiert. Bei Block 220 werden Bilder der Augen des Fahrers verwendet, um das Blickmuster des Fahrers zu erkennen. Das Blickmuster basiert auf dem Anteil der Blicke pro Pixel oder Bin. Das heißt, die Dichte des Fokus des Fahrers über eine bestimmte Anzahl von Sekunden gibt das Blickmuster an. In Block 250 wird diese Information mit dem Echtzeitkontext und insbesondere mit dem vom Fahrzeug 100 durchgeführten Manöver verglichen. Dieser Vergleich zeigt die Hervorhebung des Manövers gegenüber dem Blickmuster des Fahrers, der das Fahrzeug 100 aufgrund des Freihandfahrens nicht kontrolliert. Beispielsweise kann der Fahrer das Bewusstsein des Fahrzeug 100 -Kontexts nachweisen, indem er an Kreuzungen nach links oder rechts blickt, indem er in einen Seiten- oder Rückspiegel blickt, indem er zur Seite blickt, um die Bewegung von Fußgängern zu verfolgen, indem er in Kurven auf der Fahrbahn blickt oder indem er an Kreuzungen auf eine Ampel blickt. Der Vergleich des Blickmusters und des Echtzeitkontextes kann z. B. mit Hilfe eines neuronalen Netzes durchgeführt werden. Im Wesentlichen wird der Abgleich zwischen dem Blickmuster des Fahrers und der Fahraufgabe des Fahrzeugs 100 durch das neuronale Netz bestimmt. Dies liefert die relevante Aufmerksamkeits-Punktzahl SRA.
  • Die Vorgänge in den Blöcken 230 und 260 werden weiter diskutiert. In Block 230 werden Bilder des Fahrers verwendet, um die vom Fahrer ausgeführte Tätigkeit und die Pose des Fahrers zu erkennen. Ein faltendes neuronales Netz (CNN) kann verwendet werden, um die Aktivität des Fahrers zu klassifizieren. Der Fahrer kann z.B. einen Gegenstand halten, lesen, telefonieren, sprechen, während er die Hände bewegt, oder er kann neutral sein. Ein weiteres CNN kann verwendet werden, um die Pose des Fahrers zu klassifizieren. Dieser CNN kann den Abstand zwischen den Händen des Fahrers und dem Lenkrad, den Abstand zwischen dem Fuß des Fahrers und dem Gas- oder Bremspedal, den Abstand zwischen den Händen des Fahrers und den Bedienelementen des Infotainmentsystems bestimmen und bestimmen, ob der Fahrer z. B. zum Fahren oder zum Zurücklehnen richtig sitzt. Zusätzlich können biometrische Daten (z.B. Herzfrequenz) des Fahrers erhoben werden. Mit all diesen Informationen als Eingaben können vollständig verbundene Schichten eines CNN in Block 260 verwendet werden, um das Bereitschaftslevel des Fahrers zu bestimmen, die Fahrerbereitschafts-Punktzahl SDR.
  • 3 ist ein Prozessablauf eines Verfahrens 300 zur Umsetzung der gemäß einer oder mehreren Ausführungsformen ermittelten Geländeblickzeit. Gemäß einer beispielhaften Ausführungsform können die in 3 dargestellten Verfahren nur dann umgesetzt werden, wenn die Freihandfunktion im Fahrzeug 100 aktiviert ist. Bei Block 310 kann der Zeitgeber gestartet werden, nachdem die Freihandfunktion aktiviert ist und der Fahrer von der Straße weg schaut. Die Blickmustererkennung bei Block 220 (2) kann verwendet werden, um Zeiten zu bestimmen, zu denen der Fahrer auf die Straße und ins Gelände blickt. Bei Block 320 bezieht sich die Aufzeichnung der Dauer darauf, den Zeitgeber laufen zu lassen, nachdem er gestartet wurde (bei Block 310). Jedes Mal, wenn der Fahrer wieder einen Blick auf die Straße wirft, kann der Zeitgeber zurückgesetzt werden. So können die Vorgänge in Block 310 und 320 aufgrund eines oder mehrerer Blicke des Fahrers auf die Straße wiederholt werden. Sobald der Zeitgeber in Block 320 läuft, wird in Block 330 geprüft, ob die Zeit für den Geländeblick erreicht ist. Diese Geländeblickzeit wird anhand einer oder mehrerer Ausführungsformen bestimmt, wie unter Bezugnahme auf 2 näher erläutert. Die Geländeblickzeit kann sich z.B. aus einer Anpassung innerhalb eines Kontinuums entsprechend der Summe der gewichteten Punktzahlen ergeben. kann der Fahrer in Block 340 gewarnt werden. Wenn aufgrund der Überprüfung bei Block 330 die Geländeblickzeit erreicht ist, kann der Fahrer bei Block 340 alarmiert werden. Die Warnungen in Block 340 können über akustische, haptische oder andere verfügbare Ausgänge ausgegeben werden.
  • Während die obige Offenbarung unter Bezugnahme auf beispielhafte Ausführungsformen beschrieben wurde, wird es von den Fachleuten verstanden werden, dass verschiedene Änderungen vorgenommen werden können und Elemente davon durch Äquivalente ersetzt werden können, ohne von ihrem Anwendungsbereich abzuweichen. Es ist daher beabsichtigt, dass die vorliegende Offenbarung nicht auf die einzelnen offenbarten Ausführungsformen beschränkt ist, sondern alle Ausführungsformen einschließt, die in ihren Umfang fallen.

Claims (10)

  1. Verfahren zum Anpassen einer Zeitdauer, während der ein Fahrer, der einen Freihandmodus eines semiautonomen Fahrzeugs verwendet, auf einer Fahrbahn unaufmerksam sein kann, wobei das Verfahren umfasst: Erhalten von Informationen von einer oder mehreren Quellen, um einen Echtzeitkontext zu bestimmen, wobei der Echtzeitkontext zumindest eine Geschwindigkeit des Fahrzeugs und eine Entfernung zu einem Ziel anzeigt, wobei die eine oder die mehreren Quellen einen oder mehrere Sensoren des Fahrzeugs umfassen; Bestimmen einer Situationsbewusstseins-Punktzahl, die ein erforderliches Level an Wachsamkeit angibt, basierend auf dem Echtzeitkontext; Erhalten von Bildern von Augen des Fahrers zur Erkennung eines Blickmusters des Fahrers; Bestimmen einer relevanten Aufmerksamkeits-Punktzahl, die ein Level an Engagement des Fahrers im Echtzeitkontext anzeigt, basierend auf einem Abgleich zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext; Erhalten von Bildern des Fahrers, um das Verhalten des Fahrers zu erkennen; Bestimmen einer Fahrerbereitschafts-Punktzahl, die ein Level an Bereitschaft des Fahrers anzeigt, das Fahren des Fahrzeugs wiederaufzunehmen, basierend auf dem Verhalten des Fahrers; und Ermitteln einer Geländeblickzeit auf der Grundlage einer Anpassung innerhalb einer Reihe von Zeitdauerwerten unter Verwendung der Situationsbewusstseins-Punktzahl, der relevanten Aufmerksamkeits-Punktzahl und der Fahrerbereitschafts-Punktzahl.
  2. Verfahren nach Anspruch 1, wobei das Erhalten der Informationen von dem einen oder mehreren Sensoren des Fahrzeugs das Erhalten von Informationen von einer Kamera, einem Radarsystem, einem globalen Navigationssatellitensystem oder einem Lidarsystem umfasst, das Erhalten der Informationen von der einen oder mehreren Quellen des Fahrzeugs das Erhalten von Informationen von einer Kommunikationsvorrichtung umfasst, und das Erhalten der Informationen von der Kommunikationsvorrichtung das Erhalten von Verkehrsstatus- oder Wetterinformationen umfasst.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen der Situationsbewusstseins-Punktzahl das Verwenden eines maschinellen Lernalgorithmus für die Informationen aus der einen oder mehreren Quellen umfasst, und das Bestimmen der relevanten Aufmerksamkeits-Punktzahl das Verwenden eines neuronalen Netzes umfasst, um den Abgleich zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext zu bestimmen.
  4. Verfahren nach Anspruch 1, wobei das Erfassen des Verhaltens des Fahrers das Klassifizieren einer Aktivität des Fahrers und das Klassifizieren einer Pose des Fahrers unter Verwendung von faltenden neuronalen Netzen umfasst, und das Bestimmen der Fahrerbereitschafts-Punktzahl das Verwenden eines vollständig verbundenen faltenden neuronalen Netzes über die Aktivität des Fahrers und die Pose des Fahrers umfasst.
  5. Verfahren nach Anspruch 1, ferner umfassend das Starten eines Zeitgebers auf der Grundlage eines Geländeblicks durch den Fahrer, während sich das Fahrzeug im Freihandmodus befindet, und das Bereitstellen einer Warnung an den Fahrer auf der Grundlage des Erreichens der Geländeblickzeit durch den Zeitgeber.
  6. System zur Anpassung einer Zeitdauer, während der ein Fahrer, der einen Freihandmodus eines semiautonomen Fahrzeugs verwendet, auf einer Fahrbahn unaufmerksam sein kann, wobei das System umfasst: eine oder mehrere Quellen, die zur Bereitstellung von Informationen konfiguriert sind, wobei die eine oder die mehreren Quellen einen oder mehrere Sensoren des Fahrzeugs umfassen; eine erste Kamera innerhalb des Fahrzeugs, die so konfiguriert ist, dass sie Bilder von Augen des Fahrers erhält; eine zweite Kamera innerhalb des Fahrzeugs, die so konfiguriert ist, dass sie Bilder des Fahrers erhält; und eine Steuerung, die konfiguriert ist, um einen Echtzeitkontext auf der Grundlage der Informationen zu bestimmen, wobei der Echtzeitkontext mindestens eine Geschwindigkeit des Fahrzeugs und eine Entfernung zu einem Ziel anzeigt, wobei die eine oder die mehreren Quellen einen oder mehrere Sensoren des Fahrzeugs umfassen, um eine Situationsbewusstseins-Punktzahl zu bestimmen, die ein erforderliches Level an Wachsamkeit auf der Grundlage des Echtzeitkontextes anzeigt, um ein Blickmuster des Fahrers auf der Grundlage der Bilder der Augen des Fahrers zu erfassen, um eine relevante Aufmerksamkeits-Punktzahl zu bestimmen, die ein Level an Engagement des Fahrers im Echtzeitkontext anzeigt, auf der Grundlage eines Abgleichs zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext, um ein Verhalten des Fahrers auf der Grundlage der Bilder des Fahrers zu erkennen, um eine Fahrerbereitschafts-Punktzahl zu bestimmen, die ein Level an Bereitschaft des Fahrers anzeigt, das Fahren des Fahrzeugs wiederaufzunehmen, auf der Grundlage des Verhaltens des Fahrers, und um eine Geländeblickzeit auf der Grundlage einer Anpassung innerhalb einer Reihe von Zeitdauerwerten unter Verwendung der Situationsbewusstseins-Punktzahl, der relevanten Aufmerksamkeits-Punktzahl und der Fahrerbereitschafts-Punktzahl zu erhalten.
  7. System nach Anspruch 6, wobei der eine oder die mehreren Sensoren des Fahrzeugs eine Kamera, ein Radarsystem, ein globales Navigationssatellitensystem oder ein Lidarsystem umfassen, die eine oder die mehreren Quellen des Fahrzeugs eine Kommunikationseinrichtung umfassen und die Informationen von der Kommunikationseinrichtung Verkehrsstatus- oder Wetterinformationen umfassen.
  8. System nach Anspruch 6, wobei die Steuerung so konfiguriert ist, dass sie die Situationsbewusstseins-Punktzahl unter Verwendung eines maschinellen Lernalgorithmus anhand der Informationen aus der einen oder den mehreren Quellen bestimmt, und die Steuerung so konfiguriert ist, dass sie die relevante Aufmerksamkeits-Punktzahl unter Verwendung eines neuronalen Netzes bestimmt, um den Abgleich zwischen dem Blickmuster des Fahrers und dem Echtzeitkontext zu bestimmen.
  9. System nach Anspruch 6, wobei die Steuerung so konfiguriert ist, dass sie das Verhalten des Fahrers durch Klassifizieren einer Aktivität des Fahrers und Klassifizieren einer Pose des Fahrers unter Verwendung von faltenden neuronalen Netzen erfasst, und die Steuerung so konfiguriert ist, dass sie die Fahrerbereitschafts-Punktzahl unter Verwendung eines vollständig verbundenen faltenden neuronalen Netzes über die Aktivität des Fahrers und die Pose des Fahrers bestimmt.
  10. System nach Anspruch 6, wobei die Steuerung zusätzlich so konfiguriert ist, dass sie einen Zeitgeber auf der Grundlage eines Geländeblicks des Fahrers startet, während sich das Fahrzeug im Freihandmodus befindet, und die Steuerung zusätzlich so konfiguriert ist, dass sie dem Fahrer eine Warnung bereitstellt, wenn der Zeitgeber die Geländeblickzeit erreicht.
DE102020124633.1A 2019-10-23 2020-09-22 Kontextsensitive anpassung einer geländeblickzeit Pending DE102020124633A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/661,665 US11587461B2 (en) 2019-10-23 2019-10-23 Context-sensitive adjustment of off-road glance time
US16/661,665 2019-10-23

Publications (1)

Publication Number Publication Date
DE102020124633A1 true DE102020124633A1 (de) 2021-04-29

Family

ID=75379331

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020124633.1A Pending DE102020124633A1 (de) 2019-10-23 2020-09-22 Kontextsensitive anpassung einer geländeblickzeit

Country Status (3)

Country Link
US (1) US11587461B2 (de)
CN (1) CN112699721B (de)
DE (1) DE102020124633A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11565653B2 (en) 2020-01-03 2023-01-31 Aptiv Technologies Limited Vehicle occupancy-monitoring system
EP3845431A3 (de) * 2020-01-06 2021-07-28 Aptiv Technologies Limited Fahrerüberwachungssystem
CN114092923A (zh) * 2021-11-25 2022-02-25 福州大学 一种基于眼动行为评价驾驶员情境意识的方法及装置
US20230192100A1 (en) * 2021-12-22 2023-06-22 Arriver Software Llc Awareness checker for enhancing collaborative driving supervision
US11718314B1 (en) 2022-03-11 2023-08-08 Aptiv Technologies Limited Pedestrian alert system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
GB2525840B (en) * 2014-02-18 2016-09-07 Jaguar Land Rover Ltd Autonomous driving system and method for same
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
JP6237685B2 (ja) * 2015-04-01 2017-11-29 トヨタ自動車株式会社 車両制御装置
WO2016169582A1 (en) * 2015-04-20 2016-10-27 Bayerische Motoren Werke Aktiengesellschaft Apparatus and method for controlling a user situation awareness modification of a user of a vehicle, and a user situation awareness modification processing system
FR3048542A1 (fr) * 2016-03-01 2017-09-08 Valeo Comfort & Driving Assistance Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile
JP6699831B2 (ja) * 2016-04-28 2020-05-27 トヨタ自動車株式会社 運転意識推定装置
US20180154903A1 (en) * 2016-09-20 2018-06-07 Faraday&Future Inc. Attention monitoring method and system for autonomous vehicles
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
JP7290567B2 (ja) * 2016-11-07 2023-06-13 ナウト,インコーポレイテッド 運転者の注意散漫決定のためのシステム及び方法
US10467488B2 (en) * 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving
JP2021530069A (ja) * 2018-06-26 2021-11-04 カッツ,イテイ 状況的ドライバ監視システム
JP7210929B2 (ja) * 2018-08-07 2023-01-24 トヨタ自動車株式会社 運転意識推定装置
CN113631884A (zh) * 2019-03-29 2021-11-09 华为技术有限公司 基于驾驶疲劳地图的个性化路线选择
CN110188655A (zh) * 2019-05-27 2019-08-30 上海蔚来汽车有限公司 驾驶状态评价方法、系统及计算机存储介质
EP3970060A1 (de) * 2019-06-10 2022-03-23 Huawei Technologies Co., Ltd. Fahreraufmerksamkeitserfassung mittels wärmekarten
US11507857B2 (en) * 2019-10-01 2022-11-22 TeleLingo Systems and methods for using artificial intelligence to present geographically relevant user-specific recommendations based on user attentiveness

Also Published As

Publication number Publication date
US20210125521A1 (en) 2021-04-29
CN112699721A (zh) 2021-04-23
CN112699721B (zh) 2023-08-25
US11587461B2 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
AT518444B1 (de) Verfahren zum Erzeugen von Steuerdaten für ein regelbasiertes Unterstützen eines Fahrers
AT518489B1 (de) Fahrerassistenzsystem zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
DE602004007083T2 (de) Fahreradaptives Kollisionswarnsystem
DE102017208159B4 (de) Verfahren zum Betreiben einer Fahrerassistenzvorrichtung eines Kraftfahrzeugs, Fahrerassistenzvorrichtung und Kraftfahrzeug
DE102014109936B4 (de) Interaktives automatisiertes Fahrsystem
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE102017103973A1 (de) Autonome Fahrzeugsteuerung unter Berücksichtigung der Fahreraufmerksamkeit
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE102017103972A1 (de) Autonome Fahrzeugsteuerung unter Berücksichtigung eines Wahrscheinlichkeitsfaktors
DE102017103971A1 (de) Autonome Fahrzeugsteuerung mit Vertrauensfaktor
DE102017103969A1 (de) Autonome Fahrzeugsteuerung mit Risikofaktor
DE102017103970A1 (de) Übergang zwischen autonomen Fahrzeugsteuerungsleveln
DE102018208598A1 (de) Fahrzeug-Regel/Steuer-System und -Verfahren und Fahrt-Assistenz-Server
DE102017101238A1 (de) Spracherkennungs-systeme und verfahren zum automatisierten fahren
DE102014205391A1 (de) Vorrichtung zur Vorhersage von Fahrzustandsübergängen
DE112016007059T5 (de) Fahrassistenzvorrichtung
DE102020124755A1 (de) Intelligente eskalationsstrategie für ein autonomes fahrzeug
DE10352596A1 (de) Warnvorrichtung für ein Fahrzeug
DE112017000101T5 (de) Fahrassistenzvorrichtung
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE112017007258T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades
WO2021058205A1 (de) Verfahren zum betreiben eines fahrzeuges
DE102019106122A1 (de) Automatisiertes Fahrsystem
DE112017007248T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades

Legal Events

Date Code Title Description
R012 Request for examination validly filed