DE102022119038A1 - Systeme und verfahren bezüglich aufmerksamkeit und handplatzierung eines fahrers - Google Patents

Systeme und verfahren bezüglich aufmerksamkeit und handplatzierung eines fahrers Download PDF

Info

Publication number
DE102022119038A1
DE102022119038A1 DE102022119038.2A DE102022119038A DE102022119038A1 DE 102022119038 A1 DE102022119038 A1 DE 102022119038A1 DE 102022119038 A DE102022119038 A DE 102022119038A DE 102022119038 A1 DE102022119038 A1 DE 102022119038A1
Authority
DE
Germany
Prior art keywords
hand
steering wheel
driver
determining
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022119038.2A
Other languages
English (en)
Inventor
Keith Weston
Michael Alan McNees
Andrew Denis Lewandowski
Brendan Diamond
Jordan Barrett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102022119038A1 publication Critical patent/DE102022119038A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • B60W2510/202Steering torque
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

In dieser Schrift werden Systeme und Verfahren bezüglich Aufmerksamkeit und Handplatzierung eines Fahrers offenbart. Ein beispielhaftes Verfahren beinhaltet Bereitstellen von Warnnachrichten an einen Fahrer eines Fahrzeugs basierend auf Lenkradeingabe oder Hand-Rad-Kontakt durch den Fahrer. Die Warnnachrichten werden gemäß einem ersten Schema, wenn die Lenkradeingabe über einem Schwellenwert liegt, und gemäß einem zweiten Schema, wenn die Lenkradeingabe unter einem Schwellenwert liegt und Bilder, die durch eine Kamera in dem Fahrzeug erlangt werden, angeben, dass sich mindestens eine Hand des Fahrers an dem Lenkrad befindet, bereitgestellt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf Systeme und Verfahren, die Bilderkennung und maschinelles Lernen nutzen, um die Position einer Fahrerhand an einem Lenkrad zu überwachen.
  • ALLGEMEINER STAND DER TECHNIK
  • Einige Fahrzeuge können mit Fahrerassistenz- und/oder Fahreraufmerksamkeitssystemen ausgestattet sein, die Lenkradkontakt oder -eingabe überwachen können. Die Systeme können einen Fahrer warnen, wenn er für einen Zeitraum unzureichenden Lenkradkontakt oder unzureichende Lenkradeingabe bereitgestellt hat. In einigen Fällen können die Sensoren, die Lenkradkontakt oder -eingabe detektieren, Betriebsparameter aufweisen, die falsch-positive Ergebnisse erzeugen. Diese falsch-positiven Ergebnisse können zu Warnnachrichten führen, die dem Fahrer versehentlich und/oder zu häufig angezeigt werden, was die Benutzererfahrung mit unnötigen und übermäßigen Popup-Nachrichten oder Warnungen beeinträchtigen kann.
  • KURZDARSTELLUNG
  • Diese Systeme und Verfahren können verwendet werden, um die Anzahl oder Häufigkeit (z. B. Frequenz) von Warnnachrichten zu reduzieren, die Fahrern dargestellt werden. Diese Warnnachrichten können den Fahrer anweisen, seine Hände an dem Lenkrad zu platzieren. Während diese Arten von Warnungen wertvoll sind, wenn sie angemessen bereitgestellt werden, kann eine übermäßige Bereitstellung dieser Nachrichten für den Fahrer nervend sein.
  • Die Systeme und Verfahren können in Verbindung mit einem Fahrzeugsystem verwendet werden, das sicherstellt, dass sich die Hände des Benutzers an dem Lenkrad und/oder in der richtigen Position befinden. Ein beispielhaftes Verfahren kann das Aufnehmen von Bildern von einer bordeigenen Bildgebungsvorrichtung einschließen. Es können Bildverarbeitungstechniken angewandt werden, um Merkmale und Eigenschaften (Lenkrad- und Handpositionen) zu isolieren. Merkmale könnten Finger, Fingerknöchel, Handgelenke sowie deren Ausrichtungen an einem Lenkrad beinhalten, wenn eine Hand das Lenkrad hält oder dieses anderweitig berührt.
  • Es kann ein abgrenzungsbasierter Algorithmus angewandt werden, um ungleiche Pixel zu identifizieren. Ein Teilmengenbild kann unter Verwendung von Techniken zur adaptiven Schwellenwertbildung verarbeitet werden, um sich verändernde Beleuchtungsbedingungen zu berücksichtigen. Dann können Rauschfilterung und Bildschärfung angewandt werden. Ein Kantendetektionsalgorithmus kann erneut angewandt werden, um unerwünschte und unnötige Bildinformationen weiter zu entfernen. Dann können erneut Rauschfilterung und Bildschärfung angewandt werden. Das Bild kann dann mit einem Array von bekannten registrierten Bildern für Handpositionen und -winkel an einer Kontrollfläche verglichen werden. Dann kann eine normalisierte Korrelationswertmatrix berechnet werden. Die resultierenden Werte stellen eine Genauigkeitskorrelation für den Hand-Rad-Kontakt dar. Der Algorithmus kann dann auf Schwellenwerte für die Hand-Rad-Drehkraft neu abgestimmt werden, um Fehlauslösungen und falsche Warnungen zu minimieren.
  • Ein beispielhaftes Handpositionsüberwachungssystem der vorliegenden Offenbarung kann mit elektronischen Horizontdaten und GPS-Positionsbestimmung kombiniert sein, um zu bestimmen, wie gerade die Straße ist und wie konstant der Kurs des Fahrers in den letzten hundert Metern gewesen. Wenn die Straße gerade ist, der Fahrer einen konstanten Kurs beibehalten hat und der Fahrer die Hände am Rad hat und auf die Straße vor ihm schaut, dann kann die Frequenz, mit der dem Fahrer Warnungen bereitgestellt werden, reduziert werden. Zusätzliche Logik kann für widrige Betriebs-/Wetterbedingungen umgesetzt sein, sodass das Fahrzeug verstehen kann, wann der Benutzer wahrscheinlich Handschuhe (kaltes Wetter/windig/usw.) oder andere Handbedeckungen tragen wird, welche die Genauigkeit/Leistungsfähigkeit der Bilderkennung beeinträchtigen könnten. Wenn der Benutzer nicht mag, dass eine Innenkamera seine Hände überwacht, kann er zu einem alternativen Verfahren wechseln (das Hand-Rad-Drehkraft verwendet, um zu bestimmen, ob sich die Hände des Fahrers an dem Rad befinden). In einigen Fällen können die Hand-Drehkraft-Methodik und die Bilderkennungssysteme in Kombination verwendet werden, wobei die Hand-Drehkraft verwendet wird, wenn die Hand-Drehkraftwerte über einem Schwellenwert liegen, und wobei die Bilderkennung verwendet wird, wenn die Hand-Drehkraftwerte unter dem Schwellenwert liegen.
  • Figurenliste
  • Eine detaillierte Beschreibung wird im Hinblick auf die beigefügten Zeichnungen dargelegt. Die Verwendung derselben Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten als die in den Zeichnungen veranschaulichten genutzt werden und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht enthalten. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext austauschbar verwendet werden können.
    • 1 veranschaulicht eine beispielhafte Architektur, in der die Systeme und das Verfahren der vorliegenden Offenbarung angewandt werden können.
    • 2 ist ein Ablaufdiagramm eines beispielhaften Verfahrens zur Bildverarbeitung, das verwendet werden kann, in Übereinstimmung mit der vorliegenden Offenbarung.
    • 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens zum Sicherstellen von Aufmerksamkeit eines Fahrers und einer Analyse der Handplatzierung zum Reduzieren von Warnnachrichten, die einem Fahrer dargestellt werden.
    • 4 ist ein Ablaufdiagramm eines anderen beispielhaften Verfahrens zum Sicherstellen von Aufmerksamkeit eines Fahrers und einer Analyse der Handplatzierung zum Reduzieren von Warnnachrichten, die einem Fahrer dargestellt werden.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 abbildet, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die Architektur 100 beinhaltet ein Fahrzeug 102. Das Fahrzeug 102 beinhaltet ein Lenkrad 104, eine Kamera 106, ein fortschrittliches Fahrerassistenzsystem (advanced driver assistance system - ADAS 110) und eine Mensch-Maschine-Schnittstelle (human-machine interface - HMI 112).
  • Ein Fahrer 114 kann das Fahrzeug 102 fahren, indem er eine oder mehrere Hände, wie etwa eine Hand 116, an dem Lenkrad 104 platziert. Der Fahrer 114 stellt dem Lenkrad 104 in Form von Handkontakt und/oder Druck, der/die durch einen Lenkradeingabesensor 118 bestimmt werden kann/können, Eingabe bereit. Der Lenkradeingabesensor 118 kann einen Drehkraftsensor beinhalten, der bestimmt, wann der Fahrer Drehkraft auf das Lenkrad 104 anwendet. Wenngleich ein Drehkraftsensor in Betracht gezogen wird, können andere Lenkradeingabesensoren verwendet werden, die zum Detektieren von Hand-Lenkrad-Interaktionen verwendet werden, wie etwa kapazitive Sensoren, Drucksensoren und dergleichen.
  • Im Allgemeinen kann das Fahrzeug 102 dem Fahrer Nachrichten bereitstellen, die den Fahrer informieren, wenn Lenkradeingabe fehlt. Zum Beispiel kann dem Benutzer durch die HMI 112 eine Warnnachricht dargestellt werden, damit er seine Hand/Hände an dem Lenkrad platziert, wenn Signale von dem Lenkradeingabesensor 118 angeben, dass der Fahrer unaufmerksam ist (z. B. seine Hände nicht an dem Lenkrad hat). Diese Nachrichten können als Hand-an-Rad-Nachrichten („HOOD“-Nachrichten) bezeichnet werden. Die HMI 112 kann ein Infotainmentsystem, eine Frontanzeige, die auf eine Windschutzscheibe projiziert wird, und/oder ein Fahrer-Kombiinstrument, das hinter dem Lenkrad 104 positioniert ist, beinhalten.
  • Im Allgemeinen werden keine Warnnachrichten ausgelöst, wenn der Hand-Rad-Drehkraftwert über dem festgelegten Schwellenwert liegt. Wenn der Hand-Rad-Drehkraftwert unter dem festgelegten Schwellenwert liegt, können Warnnachrichten ausgelöst werden. Es versteht sich, dass die Empfindlichkeit oder die Betriebsparameter des Lenkradeingabesensors 118 dazu führen können, dass dem Fahrer eine fehlerhafte, irrtümliche und/oder übermäßige Anzahl an Warnnachrichten dargestellt wird. Anders ausgedrückt kann ein Hand-Rad-Drehkraftwert unter einen Schwellenwert fallen, der in Newton pro Meter (oder einer anderen akzeptablen Einheiten) gemessen wird, was dazu führt, dass das ADAS 110 eine Warnung auslöst.
  • In einigen Fällen oder Fahrbedingungen muss der Fahrer jedoch keine Hand-Rad-Drehkraft ausüben, um Kontrolle über das Fahrzeug beizubehalten und Aufmerksamkeit des Fahrers sicherzustellen, wobei der Hand-Rad-Drehkraftwert unter diesen Schwellenwert fallen kann, was zu Nachrichten führt. Als Beispiel, wenn Hand-Drehkraftwerte verwendet werden, um zu bestimmen, ob sich die Hände des Benutzers an dem Lenkrad befinden, und der Fahrer das Fahrzeug reibungslos bedient, ohne ausreichend Drehkraft auf das Lenkrad anzuwenden, können Warnnachrichten dargestellt werden, obwohl der Fahrer aufmerksam ist und die Kontrolle hat.
  • Wenn die Straße, auf der das Fahrzeug fährt, relativ gerade ist, muss der Fahrer möglicherweise keine Drehkraft auf das Lenkrad anwenden, und es können fälschlicherweise Warnnachrichten dargestellt werden. Die Hand-Rad-Drehkraft kann auch niedrig sein, wenn der Fahrer dem ADAS 110 ermöglicht, das Fahrzeug halbautonom zu steuern. Dabei handelt es sich lediglich um Beispiele und sie sollen nicht einschränkend sein.
  • In diesen Fällen oder anderen ähnlichen Fällen kann das ADAS 110 dazu angepasst sein, zu bestimmen, dass der Fahrer mindestens eine Hand an dem Lenkrad hat, obwohl der Lenkradeingabesensor 118 angibt, dass sich die Hand des Fahrers nicht an dem Lenkrad befindet. Der zusätzliche Prozess zum Bestimmen, dass sich eine Hand des Fahrers an dem Lenkrad befindet, kann verwendet werden, um zu bestätigen, dass der Fahrer die Kontrolle über das Fahrzeug hat und aufmerksam ist.
  • In einigen Fällen umfasst das ADAS 110 einen Prozessor 120 und einen Speicher 122 zum Speichern von Anweisungen. Der Prozessor 120 führt im Speicher 122 gespeicherte Anweisungen aus, um beliebige in dieser Schrift offenbarte Verfahren durchzuführen. Im Allgemeinen kann der Speicher 122 Lenkradeingabesensorverarbeitungslogik 126 und Bildverarbeitungslogik 128 speichern. Wenn auf Vorgänge Bezug genommen wird, die durch das ADAS 110 oder das Fahrzeug 102 durchgeführt werden, schließt dies implizit die Ausführung von Anweisungen durch den Prozessor 120 ein. Ganz allgemein kann das ADAS 110 dazu konfiguriert sein, Bilderkennung und maschinelles Lernen zu verwenden, um die Handposition des Fahrers zu überwachen. In einigen Fällen kann das ADAS 110 dazu konfiguriert sein, Eingaben von dem Lenkradeingabesensor 118 und Bildern von der Kamera 106 zu verwenden. Das ADAS 110 kann Signale von dem Lenkradeingabesensor 118 als primäre oder anfängliche Eingabe verwenden. Wenn jedoch eine Fahrereingabe für das Lenkrad fehlt (z. B. ist eine Hand-Rad-Drehkraft niedrig), kann das ADAS 110 Bilder verarbeiten, um zu bestimmen, ob sich mindestens eine der Hände des Fahrers an dem Rad befindet. Diese Art der Bildverarbeitung kann als sekundäres oder zusätzliches Verfahren verwendet werden, um Aufmerksamkeit des Fahrers und Hand-Rad-Interaktion sicherzustellen.
  • Die Kamera 106 kann dazu angepasst sein, Bilder eines Bereichs 124 um das Lenkrad 104 des Fahrzeugs 102 herum zu erlangen. Dies kann Erlangen von Bildern nicht nur des Lenkrads, sondern auch eines Bereichs um das Lenkrad 104 herum beinhalten, um zu identifizieren, wann eine Hand des Fahrers das Lenkrad 104 berührt oder annähernd berührt. Wenngleich eine Kamera offenbart wird, kann das ADAS 110 Bilder von verschiedenen Kameras verwenden, die innerhalb der Kabine des Fahrzeugs 102 positioniert sind. Jede dieser Kameras kann Bilder des Bereichs um das Lenkrad herum erlangen.
  • Das ADAS 110 kann dazu angepasst sein, Bilder zu verwenden, um die Handposition zu identifizieren und Rückmeldungen zu integrieren, um Störungen durch Warnnachrichten zu minimieren, wenn der Fahrer eine oder beide Hände an dem Rad hat und geradeaus schaut. Somit können Bilder durch das ADAS 110 verarbeitet werden, um sicherzustellen, dass der Fahrer sowohl geradeaus schaut (z. B. sind die Augen auf die Straße gerichtet) als auch mindestens eine Hand an dem Rad hat.
  • Im Allgemeinen wird die Reduzierung der Menge oder Häufigkeit von Warnnachrichten relativ dazu gemessen, wie das ADAS 110 konfiguriert ist, um ohne Bildverarbeitung zu arbeiten. Zum Beispiel während einer typischen Fahrt, die mehrere hundert Meilen lang ist, kann das ADAS 110 ohne Bildverarbeitung zum Bestimmen der Hand-Rad-Interaktion, irrtümlich Dutzende von Nachrichten darstellen. Wenn das ADAS in Übereinstimmung mit der vorliegenden Offenbarung konfiguriert ist, können diese Nachrichten in Abhängigkeit von der tatsächlichen Aufmerksamkeit und/oder den tatsächlichen Hand-Rad-Interaktionen des Fahrers auf die Hälfte oder weniger reduziert werden.
  • In einigen Fällen ist das ADAS 110 dazu konfiguriert, Bildverarbeitung unter Verwendung verschiedener Algorithmen durchzuführen. Zum Beispiel kann der durch das ADAS 110 umgesetzte Bilderkennungsprozess Verwenden einer Handgestenformel einschließen: M = i , j [ ( ƒ i j ƒ m ) × ( g i j g m ) ] [ i , j ( ƒ i j ƒ m ) 2 × i , j ( g i j g m ) 2 ]
    Figure DE102022119038A1_0001
  • Die Handgestenformel kann verwendet werden, um eine normalisierte Korrelationswertmatrix zu erstellen, die verwendet werden kann, um einen Ähnlichkeitsgrad zwischen einem bekannten oder registrierten Handbild an einer Kontrollflächeneingabe und dem/den aktuell über die Kamera 106 aufgenommenen Bild(ern) zu bestimmen. Es versteht sich, dass ƒij einen Helligkeitswert einer Pixeladresse für ein registriertes/bekanntes Handbild darstellt, gij einen Helligkeitswert einer Pixeladresse für das von der Bildgebungsvorrichtung aufgenommene Bild darstellt, ƒm mittlere Helligkeitswerte für ein registriertes/bekanntes Handbild darstellt und gm mittlere Helligkeitswerte für das von der Bildgebungsvorrichtung aufgenommene Bild darstellt.
  • Die Formel und Logik, die durch das ADAS 110 verwendet werden, können den Fehlergrad zwischen dem, was als eine physische Hand an einer Kontrollfläche bestimmt wird, und einem fälschlich detektierten Objekt an der Kontrollfläche verringern. In einigen Fällen kann das ADAS 110 Bilder verarbeiten, um eine Anzahl an Fingern in unmittelbarer Nähe des Lenkrads zu zählen und zu prüfen.
  • Es kann ein Array von Bildhandpositionen an der Kontrollfläche an verschiedenen Stellen generiert und bewertet werden, um eine einhändige und zweihändige Bedienung des Lenkrads 104 zu bestimmen. Dies würde 360°-Handpositionen um die Kontrollfläche herum bereitstellen. Das ADAS 110 kann einen Kontakt mit Kontrollflächen angemessen vorhersagen, wenn die Korrelationswerte aus der vorstehenden Gleichung im Bereich von 0,85 bis 0,90 liegen. Um Rauschen zu entfernen, können zusätzliche Filter zusammen mit der vorstehend erstellten Korrelationsmatrix verwendet werden.
  • In einigen Fällen kann das ADAS 110 eine Bildverarbeitungstechnik, die als Segmentierung (Kante gekoppelt mit einem Abschnitt) bekannt ist, als primäres Mittel zum Extrahieren von Handbildern aus den von der Bildaufnahmevorrichtung empfangenen Bildern umsetzen.
  • 2 veranschaulicht ein beispielhaftes Verfahren zur Bildverarbeitung, das durch das ADAS 110 genutzt werden kann. Im Allgemeinen kann die Bildverarbeitungslogik Segmentierungstechniken zusammen mit Korrelationsprüfungen und Rauschfilterung nutzen, um falsche Angaben zu verbessern.
  • Das Verfahren beinhaltet einen Schritt 202 des Aufnehmens von Bildern unter Verwendung einer bordeigenen Bildgebungsvorrichtung, wie etwa einer Kamera. Das Verfahren kann einen Schritt 204 des Anwendens von Bildverarbeitungstechniken beinhalten, um Merkmale und Eigenschaften zu isolieren. Zum Beispiel können die Bildverarbeitungstechniken verwendet werden, um Lenkrad- und Handposition(en) zu bestimmen.
  • Das Verfahren kann einen Schritt 206 des Anwendens eines abgrenzungsbasierten Algorithmus beinhalten, um ungleiche Pixel in den Bildern zu identifizieren. In einem Beispiel kann der abgrenzungsbasierte Algorithmus Kanten-/Abschnittsdetektion beinhalten, um zwischen Pixeln, die ein Lenkrad angeben, und Pixeln, die eine Hand angeben, zu unterscheiden. In einigen Fällen können die Pixel, die entweder als Lenkrad oder Hand identifiziert werden, weiter verarbeitet werden. Die verbleibenden Teile der Bilder können ignoriert werden. In Schritt 208 kann ein Teilmengenbild des Bilds/der Bilder unter Verwendung von Techniken zur adaptiven Schwellenwertbildung verarbeitet werden, um Veränderungen der Beleuchtungsbedingungen zu berücksichtigen.
  • Das Verfahren kann auch einen Schritt 210 des Anwendens von Rauschfilterung und Bildschärfung beinhalten. In einigen Fällen kann das Verfahren einen Schritt 212 des erneuten Anwendens des Kantendetektionsalgorithmus beinhalten, um unerwünschte und unnötige Bildinformationen weiter zu entfernen. Ein optionaler Schritt 214 beinhaltet ein zweitmaliges Anwenden von Rauschfilterung und Bildschärfung.
  • Als Nächstes beinhaltet das Verfahren einen Schritt 216 des Vergleichens eines verarbeiteten Bilds mit einem Array von bekannten registrierten Bildern für Handpositionen und -winkel auf (einer) Kontrollfläche(n). Somit wird das verarbeitete Bild mit einem Trainingssatz von Bildern verglichen, die zuvor in Bezug auf Handpositionen an Kontrollflächen, wie etwa Lenkrädern, verarbeitet und kategorisiert wurden.
  • Das Verfahren kann auch einen Schritt 218 des Berechnens einer normalisierten Korrelationswertmatrix für die Bilder relativ zu dem Trainingssatz beinhalten. Die normalisierte Korrelationswertmatrix gibt an, wie nahe das verarbeitete Bild im Vergleich zu einem oder mehreren Bildern in dem Trainingssatz ist. Es versteht sich, dass die resultierenden Werte eine Genauigkeitskorrelation für den Hand-Rad-Kontakt darstellen. Unter Verwendung dieser berechneten Werte kann das Verfahren einen Schritt 220 des Reduzierens einer Anzahl oder Häufigkeit von Warnnachrichten basierend auf den Genauigkeitskorrelationen beinhalten. Das heißt, wenn die Bildverarbeitung angibt, dass sich die Hand des Fahrers wahrscheinlich an dem Lenkrad befindet, kann die Bereitstellung von Warnnachrichtungen reduziert oder beseitigt werden. In einem alternativen Prozess, wenn sich die Hand des Fahrers wahrscheinlich an dem Lenkrad befindet, kann das ADAS Schwellenwerte in Bezug auf die Hand-Rad-Drehkraft selektiv einstellen, um Fehlauslösungen und falsche Warnungen zu minimieren.
  • Zusätzlich zum Verwenden von Bildverarbeitung zum Identifizieren von Fahrerkontrolle können diese Merkmale mit zusätzlichen Verfahren kombiniert werden. Zum Beispiel kann die Handpositionsüberwachung durch das ADAS 110 mit elektronischen Horizontdaten und GPS-Positionsdaten kombiniert werden, um zu bestimmen, wann eine Straße gerade ist und wie konstant der Kurs des Fahrers über einen Zeitraum oder eine Entfernung gewesen ist. Zum Beispiel kann das ADAS 110 bestimmen, wie konsistent der Kurs des Fahrzeugs in den letzten hundert Metern gewesen ist. Wenn das ADAS 110 unter Verwendung der elektronischen Horizontdaten bestimmt, dass die Straße gerade ist, und der Fahrer basierend auf GPS-Positionsdaten einen konstanten Kurs beibehalten hat, kann das ADAS 110 eine Anzahl an Warnnachrichten reduzieren oder beseitigen. Die Straße kann als gerade betrachtet werden, wenn die elektronischen Horizontdaten angeben, dass es unwahrscheinlich ist, dass das Fahrzeug 102 innerhalb einer vorbestimmten Entfernung vor dem Fahrzeug 102 auf eine Kurve trifft. Als Beispiel kann das ADAS 110 Bilder verarbeiten, die von der Straße vor dem Fahrzeug erlangt werden, um zu bestimmen, dass das Fahrzeug für mehrere hundert Meter nicht auf eine Kurve treffen wird. Die elektronischen Horizontdaten können durch Kameras gesammelt werden, die außerhalb des Fahrzeugs positioniert sind. Ähnliche Daten können aus einer Karte bezogen werden, die in einem Navigationssystem des Fahrzeugs verwendet wird.
  • In einigen Fällen erfolgt diese Reduzierung oder Beseitigung erst, nachdem das ADAS 110 zuerst bestimmt hat, dass der Fahrer seine Hände an dem Lenkrad hat. In noch anderen Fällen kann das ADAS 110 auch eine Reduzierung oder Beseitigung von Warnnachrichten ermöglichen, nachdem das ADAS 110 bestimmt hat, dass der Fahrer geradeaus schaut (z. B. die Augen auf die Straße vor sich gerichtet sind). In einigen Fällen erfolgt die Reduzierung oder Beseitigung von Warnnachrichten, wenn das ADAS 110 bestimmt hat, (1) dass sich die Hand/Hände des Fahrers an dem Lenkrad befindet/befinden; (2) der Fahrer geradeaus schaut; (3) dass die Straße gerade oder wahrscheinlich gerade ist; und (4) dass sich das Fahrzeug für einen Zeitraum oder eine Entfernung auf einem konstanten Kurs befunden hat. In einigen Fällen kann das ADAS 110 dazu konfiguriert sein, Warnnachrichten basierend auf einer oder mehrerer dieser Bestimmungen zu reduzieren. Die Reduzierung von Warnnachrichten kann basierend darauf, wie viele dieser Bestimmungen vorgenommen werden, zunehmen. Zum Beispiel können Warnnachrichten um eine erste Menge, wenn nur eine Bestimmung vorgenommen wird, um eine zweite Menge, wenn zwei vorgenommen werden, und so weiter reduziert werden.
  • Die Handgesten-Bilderkennungslogik kann ferner dazu angepasst sein, nachteilige Betriebs- und/oder Wetterbedingungen zu kompensieren, was es dem ADAS 110 ermöglicht, zu bestimmen, wann der Fahrer wahrscheinlich Handschuhe oder andere Handbedeckungen trägt, welche die Bilderkennungsgenauigkeit und/oder -leistungsfähigkeit beeinträchtigen könnten. Zum Beispiel kann das ADAS 110 von einem bordeigenen Wetterdatenmodul, wie etwa einem bordeigenen Thermometer, Wetterinformationen erlangen. Wetterdaten können auch von einer Online-Ressource erlangt werden, wenn das Fahrzeug ein vernetztes Fahrzeug ist, das unter Verwendung eines drahtlosen Verbindungsprotokolls auf ein Netzwerk zugreifen kann. Wetterinformationen, wie etwa niedrige Temperatur oder Wind, können angeben, dass die Hände des Fahrers durch eine Bedeckung, wie etwa Handschuhe, verdeckt sein können. Das ADAS 110 kann diese Informationen nutzen, um einzustellen, wie die Bilderkennungslogik Pixel verarbeitet. Allgemein kann die Bilderkennungslogik nicht nur nach hautfarbenen Pixeln sondern in einem größeren Bereich von Farben suchen sowie allgemeine Handformen identifizieren. Ganz allgemein kann das ADAS 110 bestimmen, wann die Hand des Fahrers mit der Bedeckung verdeckt ist, indem die Bedeckung basierend auf Kontextinformationen vorhergesagt wird. Die Kontextinformationen können Wetterdaten beinhalten, es können jedoch auch andere Faktoren verwendet werden, wie etwa ein Dienstplan. Wenn der Fahrer zum Beispiel ein Auslieferungsfahrer ist, der zwischen 8 und 17 Uhr arbeitet, dann kann der Fahrer zu Schutzzwecken Handschuhe tragen. Das ADAS 110 kann dazu konfiguriert sein, während dieser Stunden zu kompensieren und anzunehmen, dass der Fahrer Handschuhe trägt.
  • Das ADAS 110 kann dazu konfiguriert sein, es einem Fahrer zu ermöglichen, selektiv einzustellen, wie Warnungen kommuniziert und kalibriert werden. Zum Beispiel kann es dem Fahrer ermöglicht werden, Warnnachrichten vollständig auszuschalten. Der Fahrer kann auch ändern, wie häufig Nachrichten dargestellt werden, unabhängig von den tatsächlichen gemessenen Fahrbedingungen oder Lenkrad-Hand-Interaktionen. Wenn diese Arten von Warnsystemen vorgeschrieben sind, der Benutzer jedoch nicht mag, dass eine Innenkamera seine Hände überwacht, kann er auf das standardmäßige (bestehende) und möglicherweise nervende Verfahren der Handdetektion umschalten.
  • 3 zeigt ein beispielhaftes Verfahren der vorliegenden Offenbarung. Das Verfahren kann einen Schritt 302 des Bestimmens eines Fehlens von Eingabe durch eine Hand eines Fahrers in Bezug auf ein Lenkrad eines Fahrzeugs beinhalten. Dies kann Verwenden eines beliebigen Verfahrens oder Mechanismus beinhalten, das/der bestimmt, wann eine Hand eines Fahrers nicht in physischem Kontakt mit dem Lenkrad steht, wie etwa Drehkraftsensoren oder kapazitive Berührung. In einigen Fällen beinhaltet das Bestimmen des Fehlens von Eingabe Bestimmen, dass ein Hand-Drehkraftwert unter einem Hand-Drehkraftschwellenwert liegt.
  • Wie vorstehend angemerkt, können dem Fahrer normalerweise Warnnachrichten dargestellt werden, wenn das Fehlen von Eingabe für einen Zeitraum oder über eine bestimmte Entfernung auftritt. Um jedoch falsch-positive und übermäßige Warnungen zu reduzieren, kann das Verfahren einen Schritt 304 des Bestimmens einer Handposition einer Hand eines Fahrers relativ zu einem Lenkrad eines Fahrzeugs unter Verwendung von Bildern, die für einen Bereich um das Lenkrad herum erlangt werden, beinhalten. Wie vorstehend angemerkt, gibt die Handposition an, ob die Hand des Fahrers das Lenkrad berührt oder nicht. Somit kann bestimmt werden, dass sich die Hand des Fahrers in Kontakt mit oder nahe dem Lenkrad befindet, obwohl durch den/die primären Hand-Lenkrad-Sensor(en) das Fehlen von Eingabe erfasst wird.
  • Wenn basierend auf Bildverarbeitung bestimmt wird, dass die Hand vorhanden ist, kann das Verfahren einen Schritt 306 des selektiven Reduzierens einer Anzahl oder Häufigkeit von Warnnachrichten, wenn bestimmt wird, dass sich die Hand des Fahrers an dem Lenkrad befindet, im Vergleich zu der Anzahl oder Häufigkeit von Warnnachrichten, die basierend auf nur dem Fehlen von Eingabe dargestellt würden, beinhalten. Somit gibt es eine Anzahl oder Häufigkeit (z. B. Frequenz) von Nachrichten, die ausschließlich basierend auf dem Fehlen von Eingabe, wie in Schritt 302 bestimmt, dargestellt würde. Das Verfahren reduziert die Anzahl oder Häufigkeit (z. B. Frequenz) von Nachrichten, wenn in Schritt 304 die Hand des Fahrers detektiert wird.
  • Das Verfahren kann auch einen Schritt 308 des Bewertens elektronischer Horizontdaten und Positionsdaten für das Fahrzeug beinhalten, um zu bestimmen, wann das Fahrzeug für einen Zeitraum einen konstanten Kurs beibehalten hat. Diese Bestimmung kann in Kombination mit der in Schritt 304 vorgenommenen Bestimmung verwendet werden, um die Darstellung von Warnnachrichten zu reduzieren.
  • 4 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren beinhaltet einen Schritt 402 des Bereitstellens von Warnnachrichten an einen Fahrer eines Fahrzeugs basierend auf Lenkradeingabe oder Hand-Rad-Kontakt durch den Fahrer. Die Warnnachrichten werden gemäß einem ersten Schema, wenn die Lenkradeingabe über einem Schwellenwert liegt, und gemäß einem zweiten Schema, wenn die Lenkradeingabe unter einem Schwellenwert liegt und Bilder, die durch eine Kamera in dem Fahrzeug erlangt werden, angeben, dass sich mindestens eine Hand des Fahrers an dem Lenkrad befindet, bereitgestellt. Das erste Schema kann Bereitstellen von Warnnachrichten mit einer ersten Frequenz beinhalten. Das zweite Schema kann Bereitstellen von Warnnachrichten mit einer zweiten Frequenz beinhalten, wobei die zweite Frequenz kleiner als die erste Frequenz ist.
  • Als Nächstes kann das Verfahren einen Schritt 404 des Bewertens elektronischer Horizontdaten und Positionsdaten für das Fahrzeug beinhalten, um zu bestimmen, wann das Fahrzeug für einen Zeitraum einen konstanten Kurs beibehalten hat. Das zweite Schema wird verwendet, wenn das Fahrzeug den konstanten Kurs für den Zeitraum beibehalten hat.
  • Wie vorstehend angemerkt, können basierend auf dem Fahrkontext verschiedene Prozesse zum Kompensieren verwendet werden. Somit kann das Verfahren einen Schritt 406 des Bestimmens basierend auf Kontextinformationen, wann die Hand des Fahrers durch eine Bedeckung verdeckt ist, sowie einen Schritt 408 des Kompensierens von Fehlern bei der Bilderkennung, die zum Verarbeiten der Bilder verwendet wird, wenn die Bedeckung bestimmt wird, beinhalten. In einigen Fällen kann das Verfahren einen Schritt 410 des Bestimmens anhand der Bildern beinhalten, dass der Fahrer geradeaus schaut. Es können einer oder mehrere der Schritte 406-410 verwendet werden, um die Bildverarbeitungslogik zu verbessern oder abzustimmen.
  • Umsetzungen der in dieser Schrift offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer beinhalten oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere von in dieser Schrift behandelten Prozessoren und Systemspeichern. Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen.
  • Wenngleich der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen konkreter Sprache beschrieben worden ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.
  • Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben worden sind, versteht es sich, dass diese lediglich als Beispiele und nicht zur Einschränkung dargestellt worden sind. Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne von Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich in Übereinstimmung mit den folgenden Ansprüchen und deren Äquivalenten definiert werden.Die vorangehende Beschreibung ist zum Zwecke der Veranschaulichung und Beschreibung dargestellt worden.Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die exakte offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich.Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridumsetzungen der vorliegenden Offenbarung zu bilden. Zum Beispiel können beliebige der unter Bezugnahme auf eine konkrete Vorrichtung oder Komponente beschriebenen Funktionen durch eine andere Vorrichtung oder eine andere Komponente durchgeführt werden. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“ , „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß einer Ausführungsform ist der Prozessor dazu konfiguriert, die Darstellung der Warnnachricht durch selektives Reduzieren einer Anzahl oder Häufigkeit der Warnnachricht zu verändern.
  • Gemäß einer Ausführungsform ist der Prozessor dazu konfiguriert, elektronische Horizontdaten und Positionsdaten für das Fahrzeug zu bewerten, um zu bestimmen, wann das Fahrzeug für einen Zeitraum einen konstanten Kurs beibehalten hat.
  • Gemäß einer Ausführungsform ist der Prozessor zu Folgendem konfiguriert: Bestimmen, wann die Hand des Fahrers mit einer Bedeckung verdeckt ist; und Kompensieren von Fehlern bei der Bilderkennung, die verwendet wird, um die Bilder zu verarbeiten, wenn die Bedeckung vorhanden ist.
  • Gemäß einer Ausführungsform ist der Prozessor dazu konfiguriert, die Bedeckung basierend auf Kontextinformationen vorherzusagen.
  • Gemäß einer Ausführungsform ist der Prozessor dazu konfiguriert, die Kamera dazu zu veranlassen, Bilder eines Bereichs um das Lenkrad herum zu erlangen.

Claims (15)

  1. Verfahren, das Folgendes umfasst: Bestimmen eines Fehlens von Eingabe durch eine Hand eines Fahrers in Bezug auf ein Lenkrad eines Fahrzeugs; Bestimmen einer Handposition der Hand des Fahrers relativ zu dem Lenkrad des Fahrzeugs unter Verwendung von Bildern, die für einen Bereich um das Lenkrad herum erlangt werden, wobei die Handposition angibt, ob die Hand des Fahrers das Lenkrad berührt oder nicht; und selektives Reduzieren einer Anzahl oder Häufigkeit von Warnnachrichten, wenn bestimmt wird, dass sich die Hand des Fahrers an dem Lenkrad befindet, im Vergleich zu der Anzahl oder Häufigkeit von Warnnachrichten, die basierend auf nur dem Fehlen von Eingabe dargestellt würden.
  2. Verfahren nach Anspruch 1, wobei das Bestimmen des Fehlens von Eingabe Bestimmen umfasst, dass ein Hand-Drehkraftwert unter einem Hand-Drehkraftwertschwellenwert liegt.
  3. Verfahren nach Anspruch 1, das ferner Bewerten elektronischer Horizontdaten und Positionsdaten für das Fahrzeug umfasst, um zu bestimmen, wann das Fahrzeug für einen Zeitraum einen konstanten Kurs beibehalten hat.
  4. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Bestimmen, wann die Hand des Fahrers mit einer Bedeckung verdeckt ist; und Kompensieren von Fehlern bei der Bilderkennung, die verwendet wird, um die Bilder zu verarbeiten, wenn die Bedeckung bestimmt wird.
  5. Verfahren nach Anspruch 4, wobei das Bestimmen, wann die Hand des Fahrers mit der Bedeckung verdeckt ist, Vorhersagen der Bedeckung basierend auf Kontextinformationen umfasst.
  6. Verfahren, das Folgendes umfasst: Bestimmen von Warnnachrichten an einen Fahrer eines Fahrzeugs basierend auf einer Lenkradeingabe oder eines Hand-Rad-Kontakts durch den Fahrer an einem Lenkrad, wobei die Warnnachrichten gemäß (i) einem ersten Schema, wenn die Lenkradeingabe über einem Schwellenwert liegt, und (ii) einem zweiten Schema, wenn die Lenkradeingabe unter dem Schwellenwert liegt und Bilder, die durch eine Kamera in dem Fahrzeug erlangt werden, angeben, dass sich eine Hand des Fahrers an dem Lenkrad befindet, bestimmt werden.
  7. Verfahren nach Anspruch 6, wobei die Lenkradeingabe einen Hand-Drehkraftwert umfasst.
  8. Verfahren nach Anspruch 6, das ferner Bewerten elektronischer Horizontdaten und Positionsdaten für das Fahrzeug umfasst, um zu bestimmen, wann das Fahrzeug für einen Zeitraum einen konstanten Kurs beibehalten hat, wobei das zweite Schema verwendet wird, wenn das Fahrzeug für den Zeitraum den konstanten Kurs beibehalten hat.
  9. Verfahren nach Anspruch 6, das ferner Folgendes umfasst: Bestimmen basierend auf Kontextinformationen, wann die Hand des Fahrers mit einer Bedeckung verdeckt ist; und Kompensieren von Fehlern bei der Bilderkennung, die verwendet wird, um die Bilder zu verarbeiten, wenn die Bedeckung bestimmt wird.
  10. Verfahren nach Anspruch 6, das ferner Bestimmen anhand der Bilder umfasst, dass der Fahrer geradeaus schaut.
  11. Verfahren nach Anspruch 10, das ferner Isolieren von Merkmalen und Eigenschaften des Lenkrads und der Hand anhand der Bilder zusammen mit relativen Positionen des Lenkrads und der Hand umfasst.
  12. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen ungleicher Pixel in den Bildern unter Verwendung von Kantendetektion; und Verarbeiten der ungleichen Pixel unter Verwendung von adaptiver Schwellenwertbildung, um verschiedene Beleuchtungsbedingungen zu berücksichtigen.
  13. Verfahren nach Anspruch 12, das ferner erneutes Anwenden der Kantendetektion umfasst, um unerwünschte und unnötige Bildinformationen weiter zu entfernen.
  14. Verfahren nach Anspruch 13, das ferner Vergleichen der Bilder mit einem Array von bekannten registrierten Bildern für Handpositionen und -winkel an einer Kontrollfläche umfasst, um zu bestimmen, wann sich die Hand an dem Lenkrad befindet.
  15. Fahrzeug, das Folgendes umfasst: einen Lenkradeingabesensor; eine Kamera; ein fortschrittliches Fahrerassistenzsystem, das einen Prozessor und einen Speicher umfasst, wobei der Prozessor Anweisungen für Folgendes ausführt: Bestimmen eines Fehlens von Eingabe durch eine Hand eines Fahrers in Bezug auf ein Lenkrad des Fahrzeugs basierend auf Signalen, die von dem Lenkradeingabesensor empfangen werden, wobei dem Fahrer eine Warnnachricht dargestellt wird, wenn das Fehlen von Eingabe für einen Zeitraum auftritt; Bestimmen einer Handposition der Hand des Fahrers relativ zu dem Lenkrad des Fahrzeugs unter Verwendung von Bildern, die von der Kamera erlangt werden, wobei die Handposition angibt, ob die Hand des Fahrers das Lenkrad berührt oder nicht; und Verändern einer Darstellung der Warnnachricht, wenn bestimmt wird, dass sich die Hand des Fahrers an dem Lenkrad befindet und das Fehlen von Eingabe vorliegt.
DE102022119038.2A 2021-08-09 2022-07-28 Systeme und verfahren bezüglich aufmerksamkeit und handplatzierung eines fahrers Pending DE102022119038A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/397,737 2021-08-09
US17/397,737 US11654922B2 (en) 2021-08-09 2021-08-09 Driver attention and hand placement systems and methods

Publications (1)

Publication Number Publication Date
DE102022119038A1 true DE102022119038A1 (de) 2023-02-09

Family

ID=84975197

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022119038.2A Pending DE102022119038A1 (de) 2021-08-09 2022-07-28 Systeme und verfahren bezüglich aufmerksamkeit und handplatzierung eines fahrers

Country Status (3)

Country Link
US (1) US11654922B2 (de)
CN (1) CN115703471A (de)
DE (1) DE102022119038A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116061952B (zh) * 2023-03-07 2023-10-13 德力新能源汽车有限公司 驾驶状态检测方法、系统、电子设备及可读取存储介质

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5874892A (en) * 1998-01-23 1999-02-23 Antonellis; Domenico Vehicle warning system
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
EP1877991A4 (de) * 2005-05-06 2009-11-11 Jerome Arnold Power Schlafwarneinrichtung
DE102010013243A1 (de) 2010-03-29 2011-09-29 Audi Ag Verfahren zur Ermittlung von auf die Blickrichtung eines Fahrers und die Position der Hände des Fahrers bezüglich des Lenkrads bezogenen Informationen in einem Kraftfahrzeug und Kraftfahrzeug
US9292093B2 (en) * 2010-11-18 2016-03-22 Alpine Electronics, Inc. Interface method and apparatus for inputting information with air finger gesture
WO2012135018A2 (en) * 2011-03-25 2012-10-04 Tk Holdings Inc. System and method for determining driver alertness
JP5905691B2 (ja) * 2011-09-26 2016-04-20 トヨタ自動車株式会社 車両用操作入力装置
JP5593339B2 (ja) 2012-02-07 2014-09-24 日本システムウエア株式会社 自動車のステアリングハンドルを用いるジェスチャー認識装置と手の認識方法及びそのプログラム
EP2835793B1 (de) * 2012-04-02 2018-10-10 Toyota Jidosha Kabushiki Kaisha Fahrhilfevorrichtung
EP2682318B1 (de) * 2012-07-03 2015-01-28 Volvo Car Corporation Motorfahrzeugkollisionswarnsystem
US11334066B2 (en) * 2013-03-27 2022-05-17 Pixart Imaging Inc. Safety monitoring apparatus and method thereof for human-driven vehicle
TWI511092B (zh) * 2013-03-27 2015-12-01 原相科技股份有限公司 用於載人行動載具的安全監控裝置及安全監控方法
US9616898B2 (en) * 2013-12-12 2017-04-11 Ford Global Technologies, Llc System and method for determining effective road grade characteristic
GB2525840B (en) * 2014-02-18 2016-09-07 Jaguar Land Rover Ltd Autonomous driving system and method for same
US9620018B2 (en) * 2014-10-17 2017-04-11 Hyundai Motor Company Apparatus and method for controlling lane keeping of vehicle
DE102015202433A1 (de) * 2015-02-11 2016-08-11 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen einer Lenkaktion eines Fahrers eines Fahrzeugs
JP2017024520A (ja) * 2015-07-21 2017-02-02 株式会社デンソー ステアリング制御装置
US20170291544A1 (en) * 2016-04-12 2017-10-12 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive alert system for autonomous vehicle
JP7005933B2 (ja) * 2017-05-09 2022-01-24 オムロン株式会社 運転者監視装置、及び運転者監視方法
KR102395288B1 (ko) * 2017-05-18 2022-05-09 현대자동차주식회사 홀로그램 표시 제어 장치 및 방법, 그리고 차량 시스템
WO2019163010A1 (ja) * 2018-02-21 2019-08-29 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
ES2726001A1 (es) * 2018-03-28 2019-10-01 Nieva Ignacio Javier Ochoa Sistema de detección de "Actividades de riesgo durante la conducción" basado en el control de la posición de ambas manos agarrando el volante
WO2020002972A1 (en) 2018-06-29 2020-01-02 Tibopo D.O.O. Method and system for assessing position of hands on a steering wheel of a vehicle
JP7155682B2 (ja) * 2018-07-10 2022-10-19 株式会社ジェイテクト 接触状態検出装置、接触状態検出方法及びプログラム
FR3089328B1 (fr) * 2018-12-03 2021-07-23 Valeo Comfort & Driving Assistance Dispositif et procédé de détection de la distraction d’un conducteur d’un véhicule
CN110341713A (zh) 2019-07-12 2019-10-18 东南(福建)汽车工业有限公司 一种基于摄像头的驾驶员手握方向盘监测系统和方法
EP3795441A1 (de) * 2019-09-17 2021-03-24 Aptiv Technologies Limited Verfahren und vorrichtung zur bestimmung einer schätzung der fähigkeit eines fahrzeugfahrers zur übernahme der steuerung eines fahrzeugs
JP7255438B2 (ja) * 2019-10-01 2023-04-11 トヨタ自動車株式会社 車載インターフェース装置および自動車
TWI718700B (zh) * 2019-10-08 2021-02-11 和碩聯合科技股份有限公司 用於車輛的盲點偵測裝置、其方法、及方向盤裝置
EP3845431A3 (de) * 2020-01-06 2021-07-28 Aptiv Technologies Limited Fahrerüberwachungssystem
JP7409239B2 (ja) * 2020-07-01 2024-01-09 トヨタ自動車株式会社 ドライバ監視システム

Also Published As

Publication number Publication date
US20230041371A1 (en) 2023-02-09
CN115703471A (zh) 2023-02-17
US11654922B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
DE102017130041A1 (de) Automatische leckerkennung bei fahrzeugen
DE102015114614A1 (de) Betrieb eines Totwinkelassistenten bei einem Fahrzeug mit Anhänger
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
DE112019004143T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
DE102012223730A1 (de) Vorrichtung und verfahren zum einstellen einer parkposition auf basis eines av-bildes
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102015104934A1 (de) Verfahren zum Bereitstellen von Freirauminformationen in einem Umgebungsbereich eines Kraftfahrzeugs als Sensor-Rohdaten an einer Kommunikationsschnittstelle, Sensoreinrichtung, Verarbeitungseinrichtung und Kraftfahrzeug
DE112017008149B4 (de) Vorrichtung für eine von einem Fahrzeug ausgehende Kommunikation, Verfahren zum Kommunizieren von einem Fahrzeug nach außen Informationsverarbeitungsvorrichtung und computerlesbares Medium
EP3038011A1 (de) Verfahren zum Bestimmen des Abstands eines Objekts von einem Kraftfahrzeug mittels einer monokularen Bilderfassungseinrichtung
DE102013226476B4 (de) Bildverarbeitungsverfahren und -system eines rundumsicht-überwachungssystems
DE102019128840A1 (de) Fahrassistenzgerät
DE102020206659A1 (de) Multi-hypothesen-objektverfologung für automatisierte fahrsysteme
DE102020211939A1 (de) Objektidentifizierung in einer mobilen arbeitsmaschine
DE102019106122A1 (de) Automatisiertes Fahrsystem
DE102022119038A1 (de) Systeme und verfahren bezüglich aufmerksamkeit und handplatzierung eines fahrers
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE112020005622B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Computerprogramm
DE102021003567A1 (de) Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
DE102021111132A1 (de) Verfahren und system zur erkennung eines falsch fahrenden fahrzeugs
DE102022130540A1 (de) Systeme und verfahren zur vermeidung von fehldetektionen von verfolgten objekten in der umgebenden umgebung eines fahrzeugs
DE112014003725B4 (de) Verfahren und System zur Feststellung von Fahrmerkmalen bei einem Fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE