DE102021132749A1 - Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung - Google Patents

Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung Download PDF

Info

Publication number
DE102021132749A1
DE102021132749A1 DE102021132749.0A DE102021132749A DE102021132749A1 DE 102021132749 A1 DE102021132749 A1 DE 102021132749A1 DE 102021132749 A DE102021132749 A DE 102021132749A DE 102021132749 A1 DE102021132749 A1 DE 102021132749A1
Authority
DE
Germany
Prior art keywords
user
vehicle
facial features
landmark
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021132749.0A
Other languages
English (en)
Inventor
Ali Hassani
Ryan Edwin Hanson
Lawrence Chikeziri Amadi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102021132749A1 publication Critical patent/DE102021132749A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Lock And Its Accessories (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Ein Verfahren zum Aufrechterhalten einer Verfolgung unter Verwendung nicht identifizierbarer biometrischer Daten beinhaltet ein Bestimmen einer Identität eines Benutzers über ein Computerbildsystem unter Verwendung eines Satzes von Gesichtsmerkmalen, ein Zuordnen des Satzes von Gesichtsmerkmalen zu einem Kopf und einem sekundären menschlichen Orientierungspunkt, der nicht den Satz von Gesichtsmerkmalen beinhaltet, und ein Bestimmen, dass der Satz von Gesichtsmerkmalen durch ein Computerbildsystem nicht lokalisiert werden kann. Das Verfahren beinhaltet ein Verfolgen des Benutzers über das Computerbildsystem unter Verwendung des Kopfes und des sekundären menschlichen Orientierungspunkts.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft ein biometrisches Erkennungsmodul, das zwischen Kopfdrehungen oder anderen Benutzerpositionen interpolieren kann, um die Verzögerungszeit der Gesichtserkennung zu reduzieren und die Positionsverfolgung von Gesichtsmerkmalen einer Person zu optimieren.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fahrzeugwillkommensmodus ist ein Merkmal, das auf einem System mit passivem Funkschlüssel und Smartphone-als-Schlüssel (phone-as-a-key - PaaK) angeboten wird. Unter Verwendung eines Vorrichtungsstandorts begrüßt das Fahrzeug einen Benutzer, wenn der Benutzer eine Detektionszone innerhalb eines bestimmten Abstands von der Fahrzeughaut erreicht hat. Bildbasierte Biometrik, wie etwa Gesichtserkennung (Face Recognition - FR), kann eine ähnliche Funktionalität ermöglichen, wenn der Benutzer unter Verwendung eines Wahrnehmungssystems an dem Fahrzeug verfolgt wird. Unter Verwendung von Bildverarbeitungstechniken ist es möglich, eine Schätzung der Position mit relativer Genauigkeit innerhalb des linearen Abschnitts der in dem Fahrzeugwahrnehmungssystem verwendeten Kameralinse zu erhalten.
  • Herausforderungen bei der kontinuierlichen Verfolgung derselben Person können auftreten, wenn die Person ihren Kopf oder Oberkörper dreht, was biometrische Marker verdecken kann, die verwendet werden, um die Gesichtsmerkmale der Person kontinuierlich zu verfolgen und zu authentifizieren. Eine Kopfdrehung über ungefähr 30 Grad von der Sichtlinie der Kamera des Wahrnehmungssystems hinaus kann die Komplexität der biometrischen Erkennungsdetektion erhöhen. Dies kann zu einem Fehlschlagen des Benutzerpositionsverfolgungsprozesses, einer erhöhten Verzögerungszeit bei der Detektion von Gesichtsmerkmalen eines Benutzers und einer erhöhten Leerlauflast aufgrund zusätzlicher erforderlicher Bildberechnungen durch das System führen. Darüber muss unter Umständen, nachdem die Kopfdrehung des Benutzers eine Lücke in dem kontinuierlichen Verfolgungsprozess verursacht hat, der Timer des Fahrzeugwillkommensmodus jedes Mal neu gestartet werden, wenn der Benutzer seinen Kopf gedreht hat, was die Nützlichkeit der Willkommensfunktionen verringern kann.
  • Die Offenbarung in dieser Schrift wird in Bezug auf diese und andere Erwägungen dargelegt.
  • KURZDARSTELLUNG
  • In einigen Ausführungsformen kann ein biometrisches Erkennungsmodul zwischen Kopfdrehungen oder anderen Benutzerpositionen interpolieren, um die Verzögerungszeit der Gesichtserkennung zu reduzieren und die Positionsverfolgung von Gesichtsmerkmalen einer Person zu optimieren. Nachdem die Person authentifiziert wurde, kann ein biometrisches Erkennungsmodul eine Position der Person unter Verwendung anderer Elemente des Körpers, die für das Sichtfeld der Kamera agnostischer sind, wie etwa des Kopfs und des Oberkörpers, kontinuierlich verfolgen.
  • Das biometrische Erkennungsmodul kann eine letzte bekannte zugeordnete Identifizierung (ID) des Benutzers nutzen, bis eine klare Frontalansicht des Gesichts des Benutzers in das Bildfeld zurückkehrt. Dies ermöglicht eine genauere Verfolgung des Benutzers, reduziert die Verzögerungszeit und reduziert zudem die Rechenlast, die erforderlich ist, um den Benutzer über einen Zeitraum unter Verwendung von Gesichtserkennung (FR) zu authentifizieren, wenn der Benutzer unter Umständen in merkwürdigen Winkeln zum Sichtfeld der Kamera positioniert ist. Das Durchführen dieses Prozesses kann ein Abtasten eines Bildfelds des Gesichts des Benutzers, wenn sich der Kopf des Benutzers innerhalb eines nominalen Sichtfelds in Bezug auf ein Fahrzeugwahrnehmungssystem befindet, beinhalten. Das biometrische Erkennungsmodul charakterisiert Gesichtseigenschaften in dem Bildfeld, um den Benutzer zu authentifizieren, und speichert dann das abgetastete Gesichtsbild vorübergehend in einem sicheren Speicher, einschließlich einer Benutzer-ID, die dem authentifizierten Benutzer zugeordnet ist, und eines Standorts des authentifizierten Körperabschnitts in der abgetasteten Bildebene. Wenn sich der Kopf über den nominalen Bereich hinaus dreht oder sich nicht mehr durch das biometrische Erkennungsmodul unterscheiden lässt, kann das System die Kopfdrehung interpolieren, indem es den Kopf, der dem zuvor authentifizierten Gesicht zugeordnet ist, verfolgt und eine sekundäre menschliche Eigenschaft, bei der es sich um ein Körperteil, ein Objekt, ein Kleidungsdesign oder andere mögliche Erkennungsmerkmale handeln, verfolgt. Das biometrische Erkennungsmodul kann die Interpolation fortsetzen, bis entweder der Kopf und die sekundäre menschliche Körpereigenschaft nicht länger detektiert werden können oder bis der Kopf zu einem nominalen Winkel zurückkehrt. Bei einer Rückkehr zum nominalen Bereich würde die Gesichtserkennung wieder aufgenommen und der gespeicherte Wert entsprechend aktualisiert werden.
  • Der sekundäre menschliche Orientierungspunkt kann eine Position eines sichtbaren Körperteils oder sichtbarer Gelenke, ein Wort oder Satz, das/der auf der Kleidung der Person angezeigt wird, oder gut erkennbare Besitztümer, die von der Person getragen werden können, wie etwa eine Handtasche, ein Paket, eine Tasche oder ein anderes Objekt, beinhalten. Verfahren zum Verfolgen dieser menschlichen Orientierungspunkte können Blob-Detektion und Konturanalyse des Kopfes, Haar-Kaskadendetektion von Körpern, 2-D- und 3-D-Schätzung der Haltung eines Menschen zum Verfolgen der Bewegung von Skelettfiguren und optischen Fluss unter Verwendung von Kalman-Filtern zum Vorhersagen der Positionsänderungen beinhalten.
  • Das biometrische Erkennungsmodul kann ferner Gangerkennung verwenden, um ergänzende Informationen bereitzustellen, die Anzeichen der Benutzerabsicht bereitstellen. Die Gangerkennungsinformationen können das Gehtempo und die Bewegungsbahn des Benutzers charakterisieren, während er sich dem Fahrzeug nähert oder von diesem weggeht, was die Konfidenz darüber erhöhen kann, ob der Benutzer beabsichtigt, sich dem Fahrzeug zum Zugang zu nähern (und/oder das Fahrzeug zu verlassen). Das System kann den Gang unter Verwendung des dem biometrischen Erkennungsmodul zugeordneten Fahrzeugwahrnehmungssystems und von Computerbildwerkzeugen, welche die Bewegung menschlicher Skelette (Körperteile und Gelenke) verfolgen, berechnen. Bei Verwendung mit einem Fahrzeug kann das biometrische Erkennungsmodul den Gang des Benutzers bestimmen, was die Last im abgeschalteten Zustand optimieren kann, indem Begrüßungsmerkmale (Willkommensmodus usw.) nur dann aktiviert werden, wenn der Absichtskonfidenzwert einen Schwellenwert überschreitet.
  • Diese und andere Vorteile der vorliegenden Offenbarung werden in dieser Schrift im Detail bereitgestellt.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten als die in den Zeichnungen veranschaulichten genutzt werden und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext austauschbar verwendet werden können.
    • 1 bildet eine beispielhafte Rechenumgebung ab, in der Techniken und Strukturen zum Bereitstellen der in dieser Schrift offenbarten Systeme und Verfahren umgesetzt sein können.
    • Die 2A bis 2H veranschaulichen Gesichtserkennungsszenarien, die gemäß der vorliegenden Offenbarung beschrieben sind.
    • Die 3A bis 3F bilden Aspekte der Interpolation unter Verwendung sekundärer Merkmale gemäß der vorliegenden Offenbarung ab.
    • 4 veranschaulicht ein beispielhaftes Kraftfahrzeugsteuersystem, das dazu programmiert ist, eine Kopfverfolgungsinterpolation gemäß der vorliegenden Offenbarung bereitzustellen.
    • 5 veranschaulicht ein Funktionsschema und eine beispielhafte Architektur für ein biometrisches Authentifizierungs- und Insassenüberwachungssystem für Fahrzeuge gemäß der vorliegenden Offenbarung.
    • 6 bildet ein Ablaufdiagramm gemäß der vorliegenden Offenbarung ab.
  • DETAILLIERTE BESCHREIBUNG
  • Die Offenbarung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen der Offenbarung gezeigt sind, ausführlicher beschrieben und soll nicht einschränkend sein.
  • Viele Fahrzeuge beinhalten eine Smartphone-als-Schlüssel(PaaK)-Funktion, die das Fahrzeug in einen Willkommensmodus versetzt, wenn sich die passive Schlüsselvorrichtung innerhalb der Detektionszone des Fahrzeugs befindet. Auf Grundlage eines relativ genauen Standorts der Vorrichtung kann ein Fahrzeug im Willkommensmodus den Benutzer begrüßen, sobald er sich innerhalb eines bestimmten Abstands von der Fahrzeughaut befindet (z. B. innerhalb der Detektionszone).
  • Bildbasierte Biometrik, wie etwa Gesichtserkennung (FR), ist in der Lage, eine ähnliche Funktionalität zu ermöglichen, wenn der Benutzer ordnungsgemäß verfolgt wird. Unter Verwendung von Bildverarbeitungstechniken ist es möglich, eine Schätzung der Position mit relativer Genauigkeit innerhalb des linearen Abschnitts der Linse zu erhalten. Kopfdrehungen stellen jedoch eine Herausforderung dar. Wenn der Benutzer seinen Kopf über ungefähr 30 Grad von einer geraden Position in Bezug auf den Kamerawinkel hinaus dreht, nimmt die Komplexität der Orientierungspunktdetektion erheblich zu und wird schließlich bei ausreichender Drehverschiebung unmöglich. Bei herkömmlichen Systemen kann die Positionsverfolgung fehlschlagen und kann die Verzögerungszeit für die Gesichtsidentifizierungsschritte zunehmen. Darüber hinaus können herkömmliche Gesichtserkennungssysteme aufgrund von zusätzlichen Bildberechnungen und eines Neustarts des Willkommensmodus jedes Mal, wenn der Kopf über den 30-Grad-Winkel hinaus gedreht wird, eine erhöhten Last im abgeschalteten Zustand mit sich bringen.
  • 1 bildet eine beispielhafte Rechenumgebung 100 ab, die ein Fahrzeug 105 beinhalten kann, das einen Fahrzeugcomputer 145 und eine Fahrzeugsteuereinheit (Vehicle Control Unit - VCU) 165 umfasst, die in der Regel eine Vielzahl elektronischer Steuereinheiten (electronic control units - ECUs) 117 beinhaltet, die in Kommunikation mit dem Fahrzeugcomputer 145 und einem biometrischen Erkennungssystem 107 angeordnet sind. Eine mobile Vorrichtung 120, die einem Benutzer 140 und dem Fahrzeug 105 zugeordnet sein kann, kann sich unter Verwendung drahtgebundener und/oder drahtloser Kommunikationsprotokolle und -sendeempfänger mit dem Fahrzeugcomputer 145 verbinden. Die mobile Vorrichtung 120 kann über ein oder mehrere Netzwerke 125, die über einen oder mehrere drahtlose Kanäle 130 kommunizieren können, kommunikativ mit dem Fahrzeug 105 gekoppelt sein und/oder sich unter Verwendung von Protokollen der Nahfeldkommunikation (near field communication - NFC), Bluetooth®-Protokollen, WLAN, Ultrabreitband (Ultra-Wide Band - UWB) und anderen möglichen Techniken der Datenverbindung und des Datenaustauschs direkt mit dem Fahrzeug 105 verbinden. Die mobile Vorrichtung 120 kann als passive Schlüsselvorrichtung konfiguriert und/oder programmiert sein, die einem Smartphone-als-Schlüssel(PaaK)-Fahrzeugschlüsselsystem zugeordnet ist.
  • Das Fahrzeug 105 kann zudem ein globales Positionsbestimmungssystem (GPS) 175 empfangen und/oder mit einem solchen in Kommunikation stehen. Das GPS 175 kann ein Satellitensystem (wie in 1 abgebildet) sein, wie etwa das globale Navigationssatellitensystem (GLNSS), Galileo oder ein Navigationssystem oder anderes ähnliches System. In anderen Aspekten kann das GPS 175 ein terrestrisches Navigationsnetzwerk oder eine beliebige andere Art von Positionsbestimmungstechnik sein, die auf dem Gebiet der drahtlosen Navigationsunterstützung bekannt ist.
  • Der Fahrzeugcomputer 145 kann eine elektronische Fahrzeugsteuerung, die einen oder mehrere Prozessoren 150 und Speicher 155 aufweist, sein oder eine solche beinhalten. Der Fahrzeugcomputer 145 kann in einigen beispielhaften Ausführungsformen in Kommunikation mit der mobilen Vorrichtung 120 und mit einem oder mehreren Servern 170 angeordnet sein. Der eine oder die mehreren Server 170 Teil einer Cloud-basierten Recheninfrastruktur sein und einem Telematik-Dienstbereitstellungsnetzwerk (Service Delivery Network - SDN) zugeordnet sein und/oder ein solches beinhalten, das dem Fahrzeug 105 und anderen Fahrzeugen (in 1 nicht gezeigt), die Teil einer Fahrzeugflotte sein können, digitale Datendienste bereitstellt.
  • Wenngleich es als Hochleistungsfahrzeug veranschaulicht ist, kann das Fahrzeug 105 die Form eines anderen Personen- oder Nutzfahrzeugs, wie zum Beispiel eines Autos, eines Lastwagens, eines Crossover-Fahrzeugs, eines Vans, eines Minivans, eines Taxis, eines Busses usw., annehmen und dazu konfiguriert und/oder programmiert sein, verschiedene Arten von Kraftfahrzeugantriebssystemen zu beinhalten. Beispielhafte Antriebssysteme können verschiedene Arten von Antriebssträngen mit Brennkraftmaschine (internal combustion engine - ICE) beinhalten, die einen mit Benzin, Diesel oder Erdgas angetriebenen Verbrennungsmotor mit herkömmlichen Antriebskomponenten, wie etwa einem Getriebe, einer Antriebswelle, einem Differential usw., aufweisen. In einer anderen Konfiguration kann das Fahrzeug 105 als Elektrofahrzeug (electric vehicle - EV) konfiguriert sein. Insbesondere kann das Fahrzeug 105 ein Batterie-EV(BEV)-Antriebssystem beinhalten oder als Hybrid-EV (HEV) mit einem unabhängigen bordeigenen Triebwerk oder Plug-in-HEV (PHEV), das einen HEV-Antriebsstrang beinhaltet, der mit einer externen Leistungsquelle verbunden werden kann, und/oder einen parallelen oder seriellen Hybridantriebsstrang mit einem Verbrennungsmotortriebwerk und einem oder mehreren EV-Antriebssystemen beinhaltet, konfiguriert sein. HEVs können ferner Batterie- und/oder Superkondensatorbänke zur Leistungsspeicherung, Schwungradleistungsspeichersysteme oder andere Leistungserzeugungs- und -speicherinfrastrukturen beinhalten. Das Fahrzeug 105 kann ferner als Brennstoffzellenfahrzeug (fuel cell vehicle - FCV), das unter Verwendung einer Brennstoffzelle flüssigen oder festen Kraftstoff in nutzbare Leistung umwandelt, (z. B. mit einem Antriebsstrang für ein Fahrzeug mit Wasserstoffbrennstoffzelle (hydrogen fuel cell vehicle - HFCV) usw.) und/oder mit einer beliebige Kombination dieser Antriebssysteme und Komponenten konfiguriert sein.
  • Außerdem kann das Fahrzeug 105 ein manuell gefahrenes Fahrzeug sein und/oder dazu konfiguriert und/oder programmiert sein, in einem vollständig autonomen (z. B. fahrerlosen) Modus (z. B. Autonomiestufe 5) oder in einem oder mehreren teilautonomen Modi betrieben zu werden. Beispiele für teilautonome Modi sind auf dem Fachgebiet weitgehend als Autonomiestufen 0 bis 5 bekannt. Ein autonomes Fahrzeug mit Autonomiestufe 0 beinhaltet unter Umständen keine autonomen Fahrfunktionen. Ein autonomes Fahrzeug (autonomous vehicle - AV) mit Autonomiestufe 1 kann im Allgemeinen eine einzelne automatisierte Fahrerassistenzfunktion, wie etwa Lenk- oder Beschleunigungsassistenz, beinhalten. Die adaptive Geschwindigkeitsregelung ist ein solches Beispiel für ein System der Autonomiestufe 1, das Aspekte sowohl der Beschleunigung als auch der Lenkung beinhaltet. Autonomie der Stufe 2 in Fahrzeugen kann eine Teilautomatisierung der Lenk- und Beschleunigungsfunktionalität bereitstellen, wobei das eine oder die mehreren automatisierten Systeme durch einen menschlichen Fahrer überwacht werden, der nicht automatisierte Vorgänge wie etwa Bremsen und andere Steuerungen, durchführt. Autonomie der Stufe 3 in einem Fahrzeug kann im Allgemeinen eine bedingte Automatisierung und Steuerung von Fahrfunktionen bereitstellen. Beispielsweise beinhaltet eine Fahrzeugautonomie der Stufe 3 in der Regel „Umgebungsdetektions“-Fähigkeiten, bei denen das Fahrzeug unabhängig von einem vorhandenen Fahrer informierte Entscheidungen treffen kann, wie etwa Beschleunigen vorbei an einem sich langsam bewegenden Fahrzeug, während der vorhandene Fahrer jederzeit bereit ist, wieder die Steuerung des Fahrzeugs zu übernehmen, wenn das System nicht in der Lage ist, die Aufgabe auszuführen. Eine Autonomie der Stufe 4 beinhaltet Fahrzeuge, die hohe Autonomiestufen aufweisen und unabhängig von einem menschlichen Fahrer funktionieren können, aber dennoch Bedienelemente für den Menschen für einen Übersteuerungsbetrieb beinhalten. Eine Automatisierung der Stufe 4 kann zudem einen Selbstfahrmodus ermöglichen, der als Reaktion auf einen vordefinierten bedingten Auslöser eingreift, wie etwa eine Straßengefahr oder einen Systemausfall. Eine Autonomie der Stufe 5 ist autonomen Fahrzeugsystemen zugeordnet, die keine menschlichen Eingaben für den Betrieb erfordern und im Allgemeinen keine Bedienelemente für menschliche Fahrer beinhalten.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung kann das biometrische Erkennungssystem 107 dazu konfiguriert und/oder programmiert sein, mit einem Fahrzeug betrieben zu werden, das eine Steuerung des autonomen Fahrzeugs der Stufe 0 bis Stufe 5 aufweist. Dementsprechend kann das biometrische Erkennungssystem 107 einige Aspekte einer Steuerung des Fahrzeugs 105 durch einen Menschen bereitstellen, wenn das Fahrzeug als AV konfiguriert ist.
  • Die mobile Vorrichtung 120 beinhaltet im Allgemeinen einen Speicher 123 zum Speichern von Programmanweisungen, die einer Anwendung 135 zugeordnet sind, die bei Ausführung durch einen Prozessor 121 der mobilen Vorrichtung Aspekte der offenbarten Ausführungsformen durchführt. Die Anwendung (oder „App“) 135 kann Teil des biometrischen Erkennungssystem 107 sein oder dem biometrischen Erkennungssystem 107 Informationen bereitstellen und/oder Informationen von dem biometrischen Erkennungssystem 107 empfangen.
  • In einigen Aspekten kann die mobile Vorrichtung 120 mit dem Fahrzeug 105 über den einen oder die mehreren drahtlosen Kanäle 130 kommunizieren, die verschlüsselt und zwischen der mobilen Vorrichtung 120 und einer Telematiksteuereinheit (Telematics Control Unit - TCU) 160 eingerichtet sein können. Die mobile Vorrichtung 120 kann unter Verwendung eines drahtlosen Senders (in 1 nicht gezeigt), welcher der TCU 160 an dem Fahrzeug 105 zugeordnet ist, mit der TCU 160 kommunizieren. Der Sender kann mit der mobilen Vorrichtung 120 unter Verwendung eines drahtlosen Kommunikationsnetzwerks kommunizieren, wie zum Beispiel des einen oder der mehreren Netzwerke 125. Der eine oder die mehreren drahtlosen Kanäle 130 kommunizieren der Abbildung in 1 nach über das eine oder die mehreren Netzwerke 125 und über eine oder mehrere Direktverbindungen 133. Der eine oder die mehreren drahtlosen Kanäle 133 können verschiedene Niedrigenergieprotokolle beinhalten, die zum Beispiel Bluetooth®-, BLE- oder andere Nahfeldkommunikations(NFC)-Protokolle beinhalten.
  • Das eine oder die mehreren Netzwerke 125 veranschaulichen ein Beispiel für eine beispielhafte Kommunikationsinfrastruktur, in der die verbundenen Vorrichtungen, die in verschiedenen Ausführungsformen dieser Offenbarung erörtert werden, kommunizieren können. Das eine oder die mehreren Netzwerke 125 können das Internet, ein privates Netzwerk, ein öffentliches Netzwerk oder eine andere Konfiguration sein und/oder beinhalten, die unter Verwendung eines oder mehrerer bekannter Kommunikationsprotokolle betrieben werden, wie zum Beispiel Transmission Control Protocol/Internet Protocol (TCP/IP), Bluetooth®, WLAN auf Grundlage des Standards 802.11 des Institute of Electrical and Electronics Engineers (IEEE), Ultrabreitband (UWB) und Mobilfunktechnologien, wie etwa Time Division Multiple Access (TDMA), Code Division Multiple Access (CDMA), High Speed Packet Access (HSPDA), Long-Term Evolution (LTE), Global System for Mobile Communications (GSM) und Fifth Generation (5G), um nur einige Beispiele zu nennen.
  • Der Kraftfahrzeugcomputer 145 kann in einem Motorraum des Fahrzeugs 105 (oder an anderer Stelle in dem Fahrzeug 105) installiert sein und als Funktionsteil des biometrischen Erkennungssystems 107 gemäß der Offenbarung betrieben werden. Der Fahrzeugcomputer 145 kann einen oder mehrere Prozessoren 150 und einen computerlesbaren Speicher 155 beinhalten.
  • Der eine oder die mehreren Prozessoren 150 können in Kommunikation mit einer oder mehreren Speichervorrichtungen angeordnet sein, die in Kommunikation mit den jeweiligen Rechensystemen angeordnet sind (z. B. dem Speicher 155 und/oder einer oder mehreren externen Datenbanken, die in 1 nicht gezeigt sind). Der eine oder die mehreren Prozessoren 150 können den Speicher 155 nutzen, um Programme in Code zu speichern und/oder Daten zum Durchführen von Aspekten gemäß der Offenbarung zu speichern. Der Speicher 155 kann ein nichttransitorischer computerlesbarer Speicher zum Speichern von Programmcode zur biometrischen Erkennung sein. Der Speicher 155 kann ein beliebiges oder eine Kombination von flüchtigen Speicherelementen (z. B. dynamischem Direktzugriffsspeicher (dynamic random access memory - DRAM), synchronem dynamischen Direktzugriffsspeicher (SDRAM) usw.) beinhalten und ein beliebiges oder mehrere beliebige nichtflüchtige Speicherelemente (z. B. löschbaren programmierbaren Festwertspeicher (erasable programmable read-only memory - EPROM), Flash-Speicher, elektronisch löschbaren programmierbaren Festwertspeicher (EEPROM), programmierbaren Festwertspeicher (PROM) usw.) beinhalten.
  • Die VCU 165 kann sich einen Leistungsbus 178 mit dem Fahrzeugcomputer 145 teilen und dazu konfiguriert und/oder programmiert sein, die Daten zwischen Systemen des Fahrzeugs 105, verbundenen Servern (z. B. dem einen oder den mehreren Servern 170) und anderen Fahrzeugen (in 1 nicht gezeigt), die als Teil einer Fahrzeugflotte betrieben werden, zu koordinieren. Die VCU 165 kann eine beliebige Kombination der ECUs 117 beinhalten oder mit diesen kommunizieren, wie zum Beispiel ein Karosseriesteuermodul (Body Control Module - BCM) 193, ein Motorsteuermodul (Engine Control Module - ECM) 185, ein Getriebesteuermodul (Transmission Control Modul - TCM) 190, die TCU 160, eine Karosserie- und Netzwerkkommunikationssteuerung (Body and Network Communication Controller - BANCC) 187 usw. In einigen Aspekten kann die VCU 165 Aspekte des Fahrzeugs 105 steuern und einen oder mehrere Anweisungssätze, die von der auf der mobilen Vorrichtung 120 betriebenen Anwendung 135, einem oder mehreren von dem biometrischen Erkennungssystem 107 empfangenen Anweisungssätzen und/oder von einer AV-Steuerung (in 1 nicht gezeigt) empfangenen Informationen empfangen werden, umsetzen.
  • Die TCU 160 kann dazu konfiguriert und/oder programmiert sein, Fahrzeugvernetzung für drahtlose Rechensysteme innerhalb und außerhalb des Fahrzeugs 105 bereitzustellen, und kann einen Navigations(NAV)-Empfänger 188 zum Empfangen und Verarbeiten eines GPS-Signals von dem GPS 175, ein Bluetooth®-Low-Energy(BLE)-Modul (BLEM) 195, einen WLAN-Sendeempfänger, einen Ultrabreitband(UWB)-Sendeempfänger und/oder andere drahtlose Sendeempfänger (in 1 nicht gezeigt) beinhalten, die zur drahtlosen Kommunikation zwischen dem Fahrzeug 105 und anderen Systemen, Computern und Modulen konfigurierbar sein können. Die TCU 160 kann über einen Bus 180 in Kommunikation mit den ECUs 117 angeordnet sein. In einigen Aspekten kann die TCU 160 als Knoten in einem CAN-Bus Daten abrufen und Daten senden.
  • Das BLEM 195 kann eine drahtlose Kommunikation unter Verwendung von Bluetooth®- und Bluetooth-Low-Energy®-Kommunikationsprotokollen durch das Übertragen und/oder Hören nach Übertragungen kleiner Ankündigungspakete herstellen und Verbindungen mit reagierenden Vorrichtungen herstellt, die gemäß in dieser Schrift beschriebenen Ausführungsformen konfiguriert sind. Zum Beispiel kann das BLEM 195 GATT-(Generic Attribute Profile)Vorrichtungskonnektivität für Clientvorrichtungen beinhalten, die auf GATT-Befehle und -Anfragen reagieren oder diese initiieren und sich direkt mit der mobilen Vorrichtung 120 und/oder einem oder mehreren Schlüsseln (die zum Beispiel den Transponder 179 beinhalten können) verbinden.
  • Der Bus 180 kann als Controller-Area-Network(CAN)-Bus konfiguriert sein, der mit einem seriellen Multimaster-Busstandard zum Verbinden von zwei oder mehr der ECUs 117 als Knoten unter Verwendung eines nachrichtenbasierten Protokolls organisiert ist, das dazu konfiguriert und/oder programmiert sein kann, den ECUs 117 zu ermöglichen, miteinander zu kommunizieren. Der Bus 180 kann ein Highspeed-CAN sein (der Bit-Geschwindigkeiten von bis zu 1 Mbit/s auf dem CAN, 5 Mbit/s auf einem CAN mit flexibler Datenrate (CAN-FD) aufweisen kann) oder ein solches beinhalten und kann ein Lowspeed- oder fehlertolerantes CAN (bis zu 125 Kbit/s) beinhalten, das in einigen Konfigurationen eine lineare Buskonfiguration verwenden kann. In einigen Aspekten können die ECUs 117 mit einem Host-Computer (z. B. dem Fahrzeugcomputer 145, dem biometrischen Erkennungssystem 107 und/oder dem/den Server(n) 170 usw.) kommunizieren und können auch ohne die Notwendigkeit eines Host-Computers miteinander kommunizieren. Der Bus 180 kann die ECUs 117 derart mit dem Fahrzeugcomputer 145 verbinden, dass der Fahrzeugcomputer 145 Informationen aus den ECUs 117 abrufen, Informationen an diese senden und anderweitig mit diesen interagieren kann, um gemäß Ausführungsformen der vorliegenden Offenbarung beschriebene Schritte durchzuführen. Der Bus 180 kann CAN-Busknoten (z. B. die ECUs 117) über einen Zweidrahtbus miteinander verbinden, das ein verdrilltes Paar mit einer charakteristischen Nennimpedanz sein kann. Der Bus 180 kann zudem unter Verwendung anderer Kommunikationsprotokolllösungen umgesetzt werden, wie etwa Media Oriented Systems Transport (MOST) oder Ethernet. In anderen Aspekten kann der Bus 180 ein drahtloser fahrzeuginterner Bus sein.
  • Die VCU 165 kann verschiedene Verbraucher direkt über die Kommunikation über den Bus 180 steuern oder eine derartige Steuerung in Verbindung mit dem BCM 193 umsetzen. Die ECUs 117, die in Bezug auf die VCU 165 beschrieben wurden, werden nur für beispielhafte Zwecke beschrieben und sollen nicht einschränkend oder ausschließend sein. Eine Steuerung und/oder Kommunikation mit anderen nicht in 1 gezeigten Steuermodulen ist möglich und eine derartige Steuerung wird in Betracht gezogen.
  • In einem Ausführungsbeispiel können die ECUs 117 Aspekte des Fahrzeugbetriebs und der Kommunikation unter Verwendung von Eingaben durch menschliche Fahrer, Eingaben von einer Steuerung des autonomen Fahrzeugs, dem biometrischen Erkennungssystem 107 und/oder über drahtlose Signaleingaben, die über den/die drahtlosen Kanal/Kanäle 133 von anderen verbundenen Vorrichtungen, wie etwa unter anderem der mobilen Vorrichtung 120, empfangen werden, steuern. Die ECUs 117 können, wenn sie als Knoten in dem CAN-Bus 180 konfiguriert sind, jeweils eine zentrale Verarbeitungseinheit (CPU), eine CAN-Steuerung und/oder einen Transceiver (in 1 nicht gezeigt) beinhalten. Zum Beispiel ist es, obwohl die mobile Vorrichtung 120 in 1 der Darstellung nach über das BLEM 195 mit dem Fahrzeug 105 verbunden ist, möglich und wird in Betracht gezogen, dass der eine oder die mehreren drahtlosen Kanäle 133 zudem oder alternativ zwischen der mobilen Vorrichtung 120 und einer oder mehreren der ECUs 117 über den einen oder die mehreren jeweiligen Transceiver, die dem einen oder den mehreren Modulen zugeordnet sind, hergestellt werden können.
  • Das BCM 193 beinhaltet im Allgemeinen die Integration von Sensoren, Fahrzeugleistungsindikatoren und variablen Drosseln, die den Fahrzeugsystemen zugeordnet sind, und kann prozessorbasierte Leistungsverteilungsschaltungen beinhalten, die Funktionen steuern können, die der Fahrzeugkarosserie zugeordnet sind, wie etwa Lichter, Fenster, Sicherheit, Türverriegelungen und Zugangssteuerung und verschiedene Komfortsteuerungen. Das BCM 193 kann auch als Gateway für Bus- und Netzwerkschnittstellen betrieben werden, um mit entfernten ECUs (in 1 nicht gezeigt) zu interagieren.
  • Das BCM 193 kann eine beliebige oder mehrere Funktionen aus einem breiten Spektrum von Fahrzeugfunktionen koordinieren, einschließlich Energieverwaltungssystemen, Alarmen, Wegfahrsperren, Fahrer- und Mitfahrerzugriffsautorisierungssystemen, Phone-as-a-Key(PaaK)-Systemen, Fahrerassistenzsystemen, AV-Steuersystemen, elektrischen Fensterhebern, Zentralverriegelung, Aktoren und anderer Funktionalität usw. Das BCM 193 kann für Fahrzeugenergieverwaltung, Außenbeleuchtungssteuerung, Scheibenwischerfunktionalität, elektrische Fensterheber- und Zentralverriegelungsfunktionalität, Heizungs-, Lüftungs- und Klimatisierungssysteme und Fahrerintegrationssysteme konfiguriert sein. In anderen Aspekten kann das BCM 193 die Funktionalität von Zusatzausrüstung steuern und/oder für die Integration einer derartigen Funktionalität zuständig sein.
  • In einigen Aspekten kann das Fahrzeug 105 eine oder mehrere Türzugangsplatten (Door Access Panels - DAPs) beinhalten, die an einer oder mehreren Türaußenflächen einer oder mehrerer Fahrzeugtüren 198 angeordnet und mit einer DAP-Steuerung (in 1 nicht gezeigt) verbunden sind. In einigen Aspekten kann ein Benutzer 140 die Option haben, in ein Fahrzeug einzusteigen, indem er eine persönliche Identifikationsnummer (PIN) an einer einem Fahrzeug zugeordneten Außenschnittstelle eintippt. Die Benutzerschnittstelle kann als Teil einer Schnittstelle einer Türzugangsplatte (DAP), eines drahtlosen Tastenfelds, einer mobilen Vorrichtung oder einer anderen Schnittstelle beinhaltet sein. Das DAP-System, das als Teil der BANCC 187 oder einer anderen der ECUs 117 beinhaltet sein kann, kann eine Schnittstelle beinhalten und/oder mit dieser verbunden sein, mit der ein Mitfahrer einer Fahrgemeinschaft, ein Benutzer (oder ein beliebiger anderer Benutzer, wie etwa der Benutzer 140) Berechtigungsnachweise zur Identifikation eingeben und Informationen von dem System empfangen kann. In einem Aspekt kann die Schnittstelle eine an einer Fahrzeugtür 198 angeordnete DAP 191 sein oder beinhalten, die eine Schnittstellenvorrichtung beinhaltet, von der aus der Benutzer mit dem System interagieren kann, indem er seine eindeutige Kennung aus einer Liste auswählt und persönliche Identifikationsnummern (PINs) und andere nicht persönlich identifizierende Informationen eingibt. In einigen Ausführungsformen kann die Schnittstelle eine mobile Vorrichtung, ein Tastenfeld, eine drahtlose oder drahtgebundene Eingabevorrichtung, ein Fahrzeug-Infotainmentsystem und/oder dergleichen sein. Dementsprechend versteht es sich, dass, obwohl eine DAP in Bezug auf Ausführungsformen in dieser Schrift beschrieben ist, die Schnittstelle alternativ eine oder mehrere andere Arten von Schnittstellen sein kann, die vorstehend beschrieben sind.
  • Die BANCC 187, die in Bezug auf 5 genauer beschrieben wird, kann Sensor- und Prozessorfunktionalität und -hardware beinhalten, um die Benutzer- und Vorrichtungsauthentifizierung zu erleichtern und Insassenanpassungen und -unterstützung bereitzustellen, die maßgeschneiderte Erfahrungen für Fahrzeuginsassen bereitstellen.
  • Die BANCC 187 kann sich mit einer Fahrerassistenzsteuerung (Driver Assist Controller-DAC) 199 verbinden, die dazu konfiguriert und/oder programmiert ist, biometrische Authentifizierungssteuerungen bereitzustellen, einschließlich zum Beispiel Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung und/oder anderer Informationen, die der Charakterisierung, Identifizierung und/oder Verifizierung für andere menschliche Faktoren zugeordnet sind, wie etwa Gangerkennung, Körperwärmesignaturen, Augennachverfolgung usw. Die VCU 165 kann in einigen beispielhaften Ausführungsformen die DAC 199 nutzen, um Sensorinformationen von Sensoren zu erhalten, die im Innenraum des Fahrzeugs und/oder außen an diesem angeordnet sind (die Sensoren sind in 1 nicht gezeigt) und die Sensorinformationen zur Identifizierung biometrischer Marker, die in einem sicheren Datenspeicher für biometrische Daten (in 1 nicht gezeigt) in dem Fahrzeug 105 und/oder über den einen oder die mehreren Server 170 gespeichert werden, zu charakterisieren. In anderen Aspekten kann die DAC 199 zudem dazu konfiguriert und/oder programmiert sein, Fahrerassistenz der Stufe 1 und/oder Stufe 2 zu steuern, wenn das Fahrzeug 105 Fahrfunktionen für autonome Fahrzeuge der Stufe 1 oder Stufe 2 beinhaltet. Die DAC 199 kann mit einem Fahrzeugwahrnehmungssystem (Vehicle Perception System - VPS) 186 verbunden sein und/oder dieses beinhalten, das interne und externe sensorische Systeme beinhalten kann (die in Bezug auf 5 ausführlicher beschrieben sind). Die sensorischen Systeme können dazu konfiguriert und/oder programmiert sein, Sensordaten zu erhalten, die zur biometrischen Authentifizierung verwendet werden können. Wenngleich das Fahrzeugwahrnehmungssystem 186 der Abbildung nach Sensoren an einer einzelnen Stelle aufweist, versteht es sich, dass das Fahrzeug 105 Sensoren beinhalten kann, die an mehreren Stellen außen am Fahrzeug und im Innenraum angeordnet sind.
  • Der eine oder die mehreren Prozessoren 150 können zudem in Verbindung mit dem einen oder den mehreren sicheren Prozessoren 150 Zugriff auf das Fahrzeug 105 bereitstellen, indem die Tür 198 auf Grundlage der Schlüsseleinschaltanfrage und/oder der Authentifizierungsnachricht (Schlüsseleinschaltanfrage und Authentifizierungsnachricht in 1 nicht gezeigt), die im Cache-Speicher des Fahrzeugcomputers 145 gespeichert sind, entriegelt wird. Die sichere Prozessorinitialisierungsanweisung kann den einen oder die mehreren sicheren Prozessoren 150 initialisieren, indem Anweisungen gesendet werden, die den einen oder die mehreren sicheren Prozessoren 150 „wecken“, indem ein Leistungsmodusprofil von einem Niedrigenergiezustand zu einem höheren Energiezustand geändert wird. Nach der Initialisierung können der eine oder die mehreren sicheren Prozessoren 150 die im Cache-Speicher des Fahrzeugcomputers 145 gespeicherte Authentifizierungsnachricht (in 1 nicht gezeigt) verifizieren, bevor die Tür 198 entriegelt wird. Der eine oder die mehreren Prozessoren 150 können ferner Fahrzeugzugang auf Grundlage biometrischer Identifikationsmerkmale gemäß Ausführungsformen der vorliegenden Offenbarung bereitstellen.
  • Aspekte der vorliegenden Offenbarung beinhalten zudem auf Annäherungsdetektion basierende Funktionen, wie etwa einen Fahrzeugwillkommensmodus, einen Fahrzeugannäherungsentriegelungsmodus und weitere mögliche Funktionen. Wie in 1 gezeigt, nähern sich der Abbildung nach die Benutzer 140 dem Fahrzeug 105, wobei der Kopf des Benutzers 140A in Richtung des Benutzers 140B gedreht ist. In einem Aspekt kann der Winkel 168 der Kopfdrehung des Benutzers 140A Gesichtsorientierungspunkte verdecken, die verwendet werden, um diese Person zu identifizieren. Die Gesichtsmerkmale des Benutzers 140B können dagegen in Bezug auf den VPS-Aspektwinkel 167 nicht verdeckt sein, wobei die relative Differenz des Kopfdrehwinkels 169 in Bezug auf den VPS-Aspektwinkel 167 klein ist.
  • In dem in 1 abgebildeten Beispiel kann die Identität des Benutzers 140B durch das biometrische Erkennungssystem 107 ermittelt werden. Das biometrische Erkennungssystem 107 kann eine Kopfverfolgungsinterpolation auf Grundlage der Sicherheitsanforderungen des jeweiligen Merkmals durchführen. Allerdings kann sich eine positive Identitätsverfolgung während der gesamten Dauer der Nähe der Benutzer 140A und 140B zu dem Fahrzeug 105 ändern, zum Beispiel wenn sich der Benutzer 140B umdrehen würde, sodass er von dem Fahrzeug 105 abgewandt ist. In einigen Aspekten kann Fahrzeugfunktionen ein relatives Risiko zugeordnet sein, das dem Erhalten einer positiven Identität zugeordnet ist. Zum Beispiel erfordern Personalisierungs- und Begrüßungsfunktionen unter Umständen keine erhöhten Sicherheitssteuerungen, wobei eine anfängliche Authentifizierung von Gesichtsmerkmalen ausreichend sein kann, um die Personalisierung oder Begrüßung bereitzustellen oder zu ermöglichen. In diesem Beispiel kann der Benutzer 140B authentifiziert sein, sodass die VCU 165 die interpolierte erkannte ID (z. B. die anfängliche Authentifizierung unter Verwendung der festgestellten Gesichtserkennung) selbst dann als ausreichend zum Aktivieren der Fahrzeugwillkommensmodusnachrichten, der Beleuchtungsbetätigung usw. betrachten kann, wenn die Identitätsverfolgung kurz unterbrochen ist. Für sicherheitsbasierte Funktionen, wie etwa Entriegelung bei Annäherung und passiven Zugang kann die VCU 165 einen Echtzeit-Gesichtserkennungsprozess erfordern, der nachfolgend genauer beschrieben wird. Eine Rückmeldung kann durch eine externe Beleuchtung des Fahrzeugs oder ein dediziertes biometrisches Rückmeldungssystem bereitgestellt werden, um zu identifizieren, wann das Gesicht des Benutzers als gültig für die Authentifizierung betrachtet wird.
  • Die Verfolgung kann eine lokale Region von Interesse beinhalten, sodass nur an den erwarteten Standorten in dem Bild nach dem Gesicht gesucht wird (reduzierte Rechenlast). Dies kann zudem Downsampling beinhalten, wenn nur eine Gesichtsverfolgung zur Personalisierung durchgeführt wird, um die Berechnung weiter zu reduzieren
  • In der Rechensystemarchitektur des Fahrzeugcomputers 145, der VCU 165, des VPS 186 und/oder des biometrischen Erkennungssystems 107, die unter Bezugnahme auf 1 beschrieben wurde, können bestimme Rechenmodule weggelassen sein. Es versteht sich ohne Weiteres, dass die in 1 abgebildete Rechenumgebung ein Beispiel für eine Umsetzung gemäß der vorliegenden Offenbarung ist und somit nicht als einschränkend oder ausschließend betrachtet werden sollte.
  • Die 2A, 2B, 2C, 2D, 2E, 2F, 2G und 2H veranschaulichen Gesichtserkennungsszenarien gemäß der vorliegenden Offenbarung. 2A veranschaulicht eine Person 201, die sich in dem Sichtfeld eines durch das VPS 186 erhaltenen Bildes befinden kann. Die Person beinhaltet im Allgemeinen einen Kopf 205. 2B veranschaulicht einen Satz von Gesichtsmerkmalen 210, der einem eindeutigen Identitätsprofil eines Benutzers (z. B. der in 1 abgebildeten Benutzer 140A und 140B) zugeordnet sein kann. Wenngleich es außerhalb des Umfangs der vorliegenden Offenbarung liegt, versteht der Fachmann auf dem Gebiet der Gesichtserkennungssysteme, dass die Gesichtserkennung eine beliebige Anzahl menschlicher Orientierungspunkte, einschließlich zum Beispiel Gesichtsorientierungspunkts-Erkennungsmerkmalen, beinhalten kann. 2C veranschaulicht eine Identität eines Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen 210, wobei die Merkmale im normalen Sichtfeld des VPS 186 zu sehen waren. Gleichermaßen können Gesichtserkennungsalgorithmen zudem dazu programmiert und/oder konfiguriert sein, sekundäre Charakteristiken zu erkennen, wie etwa Nichtgesichtsmerkmale, Objekte und räumliche Beziehungen zwischen beliebigen der erkannten Merkmale und Objekte.
  • Wie in 2D gezeigt, kann, wenn der Satz von Gesichtsmerkmalen 210 nach der Identitätsauthentifizierung in 2C verdeckt wird, die kontinuierliche Identitätskette unterbrochen sein, sodass die positive Identität der Person nicht bekannt ist.
  • In einigen Aspekten kann das System die Identität der Person erneut authentifizieren, wie in 2E gezeigt, sobald die Person zu einem sichtbaren Kopfdrehungswinkel zurückkehrt, sodass die Gewichtsmerkmale 210 für das biometrische Erkennungssystem 107 wieder zu sehen sind.
  • In anderen Aspekten kann das biometrische Erkennungssystem 107 bestimmen, dass die Person nicht erneut authentifiziert wurde, wie in 2F gezeigt. Dieses Szenario kann auf vielerlei Weise auftreten, wie etwa, wenn sich eine Gruppe von Personen dem Fahrzeug 105 nähert und es sich bei einer oder mehreren der Personen um einen autorisierten Benutzer handelt, sich dieser aber derart dreht, dass der Satz von Gesichtsmerkmalen, der zur positiven Identifizierung des autorisierten Benutzers verwendet wird, verdeckt ist. Wenn das Fahrzeug 105 eine andere Person in der Gruppe ins Auge fasst (die einen getrennten und nicht authentifizierten Satz von Gesichtsmerkmalen aufweist), ist diese Person nicht authentifiziert, wie in 2F gezeigt. Die Benutzerpositionsverfolgung kann zudem als Reaktion auf eine Kopfdrehung (2G) oder durch Verdecken von Gesichtsmerkmalen mit einer Brille oder anderen Kleidungsstücken (2H) usw. unterbrochen werden oder fehlschlagen.
  • In einigen Aspekten kann das biometrische Erkennungssystem 107, um mit Unterbrechungen oder Fehlschlägen der Benutzerpositionsverfolgung umzugehen, Gesichtsbilder interpolieren, indem es Zuordnungen zu anderen leicht erkennbaren sekundären menschlichen Orientierungspunkten bildet. Die 3A, 3B, 3C, 3D und 3E bilden Aspekte der Interpolation unter Verwendung verschiedener sekundärer menschlicher Orientierungspunkte gemäß der vorliegenden Offenbarung ab.
  • 3A zeigt den Satz von Gesichtsmerkmalen 210, der in einem Bildfeld der Person 201 ermittelt wurde. Jedes Mal, wenn sich der Kopf 205 der Person innerhalb eines nominalen Sichtfelds des VPS 186 (in 1 gezeigt) befindet, kann das biometrische Erkennungssystem 107 vorübergehend ein letztes gültiges abgetastetes Gesichtsbild speichern, das den Satz von Gesichtsmerkmalen 210 beinhaltet. Das System 107 kann die Person 201 authentifizieren, indem es den Satz von Gesichtsmerkmalen 210 mit sicher gespeicherten biometrischen Vergleichsdaten (in 3 nicht gezeigt) abgleicht, eine erkannte Benutzer-ID identifizieren und die erkannte Benutzer-ID in einem Computerspeicher (z. B. dem in 1 abgebildeten Speicher 155) speichern. Das System 107 kann einen Verfolgungsindex für menschliche Orientierungspunkte mithilfe der erkannten Benutzer-ID, eines Feldstandorts, der eine relative Position in der Bildebene für den Satz von Gesichtsmerkmalen 210 in dem zuletzt abgetasteten Bild angibt, und eines Feldstandorts, der eine relative Position in der Bildebene für einen sekundären menschlichen Orientierungspunkt angibt, aktualisieren. Der sekundäre menschliche Orientierungspunkt kann einen Oberkörper 305, wie in 3C abgebildet, einen sichtbaren Körperteil 310, wie in 3E gezeigt, ein Kleidungsstück 320, wie in 3D gezeigt, ein Paket oder einen anderen Gegenstand 315, der von dem Benutzer getragen wird, wie in 3E gezeigt, einen oder mehrere Schlüsselpunkte 340, die dem Körper des Benutzers zugewiesen und zugeordnet sind, zum Beispiel Punkte, die den Augen, den Ohren, dem Hals, den Schultern, den Ellbogen, den Handgelenken oder der Taille des Benutzers zugeordnet sind, einschließlich einer Identifizierung der Beziehung und eines relativen Abstands zwischen diesen Schlüsselpunkten 340, oder ein anderes durch den Prozessor identifizierbares Objekt oder Merkmal, das hier nicht aufgeführt ist, beinhalten.
  • Gemäß einer Ausführungsform kann das biometrische Erkennungssystem 107, wenn der Benutzer 140 seinen Kopf über einen nominalen Bereich (z. B. bis zu 30 Grad in Bezug auf einen zentralen Sichtwinkel der VPS-Kamera, bis zu 25 Grad, bis zu 40 Grad oder bis zu einem anderen nominalen Schwellenwert) hinaus dreht, unter Verwendung des Verfolgungsindex für menschliche Orientierungspunkte interpolieren, indem es die erkannte Benutzer-ID und den zugehörigen Kopf 205 und sekundären menschlichen Orientierungspunkt verfolgt. Andere Orientierungspunkte, wie etwa die Position sichtbarer Körperteile/-gelenke, Worte auf der Kleidung 330, Symbole auf der Kleidung 325 oder andere gut erkennbare Besitztümer und Gegenstände wie eine Handtasche könnten als ergänzende Daten ebenfalls verwendet werden.
  • In einigen Aspekten kann das System 107 die Interpolation fortsetzen, bis entweder der Kopf und der sekundäre menschliche Orientierungspunkt nicht mehr detektiert werden können oder der Kopf zu einem nominalen Winkel zurückkehrt, wodurch eine klare Sicht auf den Satz von Gesichtsmerkmalen 210 bereitgestellt wird.
  • Das Verfolgen einer Position in Bezug auf das Bildfeld kann auf verschiedene bekannte Weisen erfolgen. Um einige aufzulisten, kann das biometrische Erkennungssystem 107 schätzen, wo sich ein Blob von Pixeln befindet (das heißt, ein vorhergesagter Standort auf Grundlage eines Bewegungsbahnfaktors, eines Zeitfaktors, eines Schwellenwerts für Fehler, Gewichtungsfaktoren usw.). Der eine oder die mehreren Prozessoren 150 können eine Konturanalyse des Kopfes 205 durchführen, um die ovale Kontur zu definieren, die den Kopf 205 der Person darstellt, und optische Flusstechniken unter Verwendung eines Kalman-Filters nutzen, um die Positionsänderungen vorherzusagen. In anderen Aspekten kann eine Haar-Kaskaden-Detektionstechnik verwendet werden, um die hierin beschriebenen sekundären menschlichen Orientierungspunkte zu detektieren und/oder können 2D- und 3D-Schätztechniken für die Haltung eines Menschen zum Verfolgen der Bewegung der Person 201 verwendet werden. Andere Techniken sind möglich und derartige Techniken werden für die Durchführung dieser Schritte in Betracht gezogen.
  • In einigen Aspekten kann es vorteilhaft sein, zusätzliche Informationen bereitzustellen, welche die Sicherheit für den Fahrzeugzugang und -betrieb erhöhen. 4 veranschaulicht ein beispielhaftes Kraftfahrzeugsteuersystem, das dazu programmiert ist, eine Gangverfolgung bereitzustellen, die mit der beschriebenen Kopfverfolgungsinterpolation gemäß der vorliegenden Offenbarung verwendet werden kann.
  • 4 bildet eine beispielhafte Betriebsumgebung ab, in welcher der Benutzer 140 von dem Fahrzeug 105 weggeht, gemäß einer beispielhaften Ausführungsform. In einigen Aspekten kann ein System 500 zur biometrischen Authentifizierung und Insassenüberwachung (unter Bezugnahme auf 5 genauer beschrieben) Schritte zum Bestimmen der Absicht eines Benutzers durch Identifizieren und Charakterisieren des Gangs des Benutzers, während sich der Benutzer 140 dem Fahrzeug 105 nähert oder von diesem weggeht, durchführen. In einigen Aspekten kann der Benutzer 140 eine passive Schlüsselvorrichtung 405 bei sich tragen. Gemäß hierin beschriebenen Ausführungsformen kann das Gehtempo des Benutzers 140, während er sich dem Fahrzeug 105 nähert oder von diesem weggeht, als ein Wert in Bezug auf die Zeit charakterisiert werden. In anderen Aspekten kann das Fahrzeug 105 die Gangmessungen durchführen und/oder kann das Insassenüberwachungssystem 500 den Gang unter Verwendung einer Kombination beider Messungen bestimmen, um die Absicht des Benutzers zu bestimmen. Das System 500 kann den wahrgenommenen Gangwert 420 unter Verwendung von Bildverfahren zum Verfolgen von Bewegungen des menschlichen Skeletts (Körperteilen und Gelenken) berechnen. Dieser Schritt kann die Last im abgeschalteten Zustand optimieren, indem Begrüßungsfunktionen (Willkommensmodus usw.) nur dann aktiviert werden, wenn der Absichtskonfidenzwert einen Schwellenwert überschreitet.
  • In einer beispielhaften Ausführungsform kann das biometrische Erkennungssystem 107 Gangerkennung nutzen, um zusätzliche Konfidenz darüber hinzuzufügen, ob der Benutzer 140 beabsichtigt, sich dem Fahrzeug 105 zu nähern, um Zugang zu erhalten. Das System 400 kann den wahrgenommenen Gangwert 420 unter Verwendung eines oder mehrerer bekannter Computerbildverfahren zum Verfolgen von Bewegungen des menschlichen Skeletts (Körperteilen und Gelenken) berechnen, wobei die Gangmessung 415 dazu beitragen könnte, die Last im abgeschalteten Zustand zu optimieren, indem Begrüßungsfunktionen (Willkommensmodus usw.) nur dann aktiviert werden, wenn der Absichtskonfidenzwert einen Schwellenwert überschreitet.
  • In einem anderen Aspekt kann das System 400 Gangerkennung nutzen, um die Konfidenz darüber zu erhöhen (d. h. eine geschätzte Wahrscheinlichkeit dafür zu erhöhen), ob der Benutzer 140 beabsichtigt, das Fahrzeug 105 zu verlassen oder der Benutzer 140 lediglich in der Nähe umherwandert. Zum Beispiel kann das System 400, wenn der Benutzer 140 lediglich ausgestiegen ist um frische Luft zu schnappen oder ein Foto zu machen, einen Umherwanderdetektionsmodus beinhalten, der identifiziert, dass der Benutzer beabsichtig, letztendlich zu dem Fahrzeug 105 zurückzukehren. Auf diese Weise kann das System 400 eine gangbasierte Absichtserkennung nutzen, um zusätzliche Konfidenz darüber hinzuzufügen, wann das Fahrzeug 105 eine Verriegelung aktivieren sollte. Dieser Ansatz könnte zudem umgekehrt werden, um zur Sicherheit immer eine Verriegelung zu aktivieren, wenn das Umherwandern detektiert wird, und die Verriegelung dann erst wieder zu lösen, wenn sich der Benutzer direkt vor der Fahrzeugtür befindet.
  • In einer beispielhaften Ausführungsform kann das System 400 eine Verriegelung (in 4 nicht gezeigt) auf Grundlage des Gangs des Benutzers auslösen, um diese in einen verriegelten Zustand oder einen nicht verriegelten Zustand zu betätigen. In einem anderen Aspekt kann das System auf Grundlage des Gangs bestimmen, dass der Benutzer von dem Fahrzeug weggeht, und als Reaktion auf das Bestimmen, dass der Benutzer von dem Fahrzeug weggeht, die Fahrzeugverriegelung auslösen, um die in den verriegelten Zustand zu betätigen.
  • 5 veranschaulicht ein Funktionsschema einer beispielhaften Architektur eines Systems 500 zur biometrischen Authentifizierung und Insassenüberwachung, das verwendet werden kann, um Fahrzeugzugang und Signalauthentifizierung unter Verwendung biometrischer Informationen und anderer menschlicher Faktoren bereitzustellen und Benutzerunterstützung und -personalisierung für das Fahrzeug 105 bereitzustellen, gemäß der vorliegenden Offenbarung.
  • Das System 500 zur biometrischen Authentifizierung und Insassenüberwachung kann Signale einer passiven Vorrichtung von einer für passiven Zugang und passiven Start (passive entry passive start - PEPS) konfigurierten Vorrichtung, wie etwa der mobilen Vorrichtung 120, einer passiven Schlüsselvorrichtung, wie etwa dem Funkschlüssel 179, authentifizieren und Fahrzeugzugang und Signalauthentifizierung unter Verwendung biometrischer Informationen und anderer menschlicher Faktoren bereitstellen. Das System 500 zur biometrischen Authentifizierung und Insassenüberwachung kann zudem Benutzerunterstützung und - personalisierung bereitstellen, um die Erfahrung des Benutzers mit dem Fahrzeug 105 zu verbessern. Das System 500 zur biometrischen Authentifizierung und Insassenüberwachung kann die BANCC 187 beinhalten, die in Kommunikation mit der DAC 199, der TCU 160, dem BLEM 195 und einer Vielzahl anderer Fahrzeugsteuerungen 501 angeordnet sein kann, die Fahrzeugsensoren, Eingabevorrichtungen und Mechanismen beinhalten können. Beispiele für die Vielzahl anderer Fahrzeugsteuerungen 501 können das Fahrzeugwahrnehmungssystem 186, einen oder mehrere Makrokondensatoren 505, die Fahrzeugaufweckdaten 506 senden können, den einen oder die mehreren Türgriffe 196, die PEPS-Aufweckdaten 507 senden können, einen oder mehrere NFC-Leser 509, die NFC-Aufweckdaten 510 senden können, die DAPs 191, die DAP-Aufweckdaten 512 senden, einen Zündschalter 513, der ein Zündschalterbetätigungssignal 516 senden kann und/oder einen Bremsschalter 515, der ein Bremsschalterbestätigungssignal 518 senden kann, sowie weitere mögliche Komponenten beinhalten.
  • Die DAC 199 kann ein biometrisches Erkennungsmodul 597 beinhalten und/oder mit einem solchen verbunden sein, das in Kommunikation mit der DAC 199 über ein Sensor-Eingangs/Ausgangs(E/A)-Modul 503 angeordnet ist. Die BANCC 187 kann sich mit der DAC 199 verbinden, um biometrische Authentifizierungssteuerungen bereitzustellen, einschließlich zum Beispiel Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung und/oder anderer Informationen, die der Charakterisierung, Identifizierung und/oder Verifizierung für andere menschliche Faktoren zugeordnet sind, wie etwa Gangerkennung, Körperwärmesignaturen, Augennachverfolgung usw.
  • Die DAC 199 kann dazu konfiguriert und/oder programmiert sein, biometrische Authentifizierungssteuerungen für das Fahrzeug 105 bereitzustellen, einschließlich zum Beispiel Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung und/oder anderer Informationen zum Bereitstellen von Authentifizierung, die Charakterisierung, Identifizierung, Insassenerscheinungsbild, Insassenstatus und/oder Verifizierung für andere menschliche Faktoren zugeordnet sind, wie etwa Gangerkennung, Körperwärmesignaturen, Augennachverfolgung usw. Die DAC 199 kann die Sensorinformationen von einem externen Sensorsystem 581 erhalten, das Sensoren beinhalten kann, die außen an dem Fahrzeug oder in Vorrichtungen, die sich mit dem Fahrzeug 105 verbinden können, wie etwa in der mobilen Vorrichtung 120 und/oder dem Funkschlüssel 179, angeordnet sind.
  • Die DAC 199 kann sich ferner mit einem internen Sensorsystem 581 verbinden, das eine beliebige Anzahl von Sensoren beinhalten kann, die in dem Fahrzeuginnenraum (z. B. der Fahrzeugkabine, die in 5 nicht abgebildet ist) konfiguriert sind. Das externe Sensorsystem 581 und das interne Sensorsystem 583 können sich mit einer oder mehreren Trägheitsmesseinheiten (inertial measurement units - IMUs) 584, Kamerasensoren 585, Fingerabdrucksensoren 587 und/oder anderen Sensoren 589 verbinden und/oder solche beinhalten und erhalten biometrische Daten, die zur Charakterisierung der Sensorinformationen zur Identifizierung biometrischer Marker, die in einem sicheren Datenspeicher für biometrische Daten (in 5 nicht gezeigt) in dem Fahrzeug 105 gespeichert werden, verwendet werden können. Die DAC 199 kann über das Sensor-E/A-Modul 503 Sensordaten von dem internen und dem externen Sensorsystem 583 und 581 erhalten, die ein oder mehrere Antwortsignale 579 der externen Sensoren und ein oder mehrere Antwortsignale 575 der internen Sensoren (gemeinsam als Sensordaten bezeichnet) beinhalten können. Die DAC 199 (und insbesondere das biometrische Erkennungsmodul 597) kann die Sensordaten 579 und 575 charakterisieren, Insassenerscheinungsbild- und -statusinformationen 590 generieren, die durch die BANCC 187 gemäß den beschriebenen Ausführungsformen verwendet werden können.
  • Das interne und das externe Sensorsystem 583 und 581 können die Sensordaten 579, die anhand des externen Sensorsystems 581 erhalten werden, und die Sensordaten 575, die anhand des internen Sensorsystems 583 erhalten werden, als Reaktion auf eine Anforderungsnachricht 573 für die internen Sensoren bzw. eine Anforderungsnachricht 577 für die externen Sensoren bereitstellen. Die Sensordaten 579 und 575 können Informationen von einem beliebigen der Sensoren 584-589 beinhalten, wobei die Anforderungsnachricht 577 für die externen Sensoren und/oder die Anforderungsnachricht 573 für die internen Sensoren die Sensormodalität beinhalten können, mithilfe derer das eine oder die mehreren jeweiligen Sensorsysteme die Sensordaten erhalten sollen.
  • Der eine oder die mehreren Kamerasensoren 585 können Wärmekameras, optische Kameras und/oder eine Hybridkamera, die Fähigkeiten zur optischen, thermischen oder anderen Erfassung aufweist, beinhalten. Wärmekameras können Wärmeinformationen für Objekte innerhalb eines Sichtfelds der einen oder der mehreren Kameras bereitstellen, einschließlich zum Beispiel einer Wärmekartenfigur einer Person in dem Kamerafeld. Eine optische Kamera kann Farb- und/oder Schwarzweißbilddaten der einen oder der mehreren Personen in dem Kamerafeld bereitstellen. Der eine oder die mehreren Kamerasensoren 585 können ferner eine statische Bildgebung beinhalten oder dem biometrischen Erkennungsmodul 597 eine Reihe abgetasteter Daten (z. B. einen Kamera-Feed) bereitstellen.
  • Die eine oder die mehreren IMUs 584 können ein Gyroskop, einen Beschleunigungsmesser, ein Magnetometer oder eine andere Trägheitsmessvorrichtung beinhalten. Der eine oder die mehreren Fingerabdrucksensoren 587 können eine beliebige Anzahl von Sensorvorrichtungen beinhalten, die dazu konfiguriert und/oder programmiert sind, Fingerabdruckinformationen zu erhalten. Der eine oder die mehreren Fingerabdrucksensoren 587 und/oder die eine oder die mehreren IMUs 584 können zudem in eine passive Schlüsselvorrichtung, wie zum Beispiel die mobile Vorrichtung 120 und/oder den Funkschlüssel 179, integriert sein und/oder mit einer solchen kommunizieren. Der eine oder die mehreren Fingerabdrucksensoren 587 und/oder die eine oder die mehreren IMUs 584 können zudem (oder alternativ) an einem Fahrzeugaußenraum angeordnet sein, wie etwa dem Motorraum (in 5 nicht gezeigt), der Türverkleidung (in 5 nicht gezeigt) usw. In anderen Aspekten können die eine oder die mehreren IMUs 584, wenn sie in dem internen Sensorsystem 583 beinhaltet sind, in ein oder mehrere Module integriert sein, die in der Fahrzeugkabine oder an einer anderen Fahrzeuginnenfläche angeordnet sind.
  • Das biometrische Erkennungsmodul 597 kann in Kommunikation mit einer oder mehreren Außenanzeigen 590 für Gesichtserkennungsrückmeldungen angeordnet sein, die als eine Benutzerschnittstelle betrieben werden können, auf die der Benutzer 140 außerhalb des Fahrzeugs 105 zugreifen kann, um Gesichtserkennungsrückmeldungsinformationen 569 bereitzustellen, die den hierin beschriebenen Gesichtserkennungsprozessen zugeordnet sind. Das biometrische Erkennungsmodul 597 kann sich ferner mit einer oder mehreren Außenanzeigen 592 für Fingerabdruckrückmeldungen verbinden, die ähnliche Kommunikationsfunktionen durchführen können, die den hierin beschriebenen Fingerabdruckerkennungsprozessen zugeordnet sind, einschließlich einer Bereitstellung von Fingerabdruckauthentifizierungsrückmeldungsinformationen 571 an die Außenanzeigen 592 für Fingerabdruckrückmeldungen, auf die der Benutzer 140 außerhalb des Fahrzeugs 105 zugreifen kann (in Verbindung mit der Außenanzeige 592 für Fingerabdruckrückmeldungen auch als „Rückmeldeanzeigen“ bezeichnet). Es versteht sich, dass die Rückmeldeanzeigen 590 und/oder 592 eine stationäre E/A- oder andere Anzeige sein und/oder beinhalten können, die an dem Fahrzeug, der mobilen Vorrichtung 120, dem Funkschlüssel 179 und/oder einer anderen drahtgebundenen oder drahtlosen Vorrichtung angeordnet ist.
  • Die BANCC 187 kann einen Authentifizierungsmanager 517, einen Manager 519 für persönliche Profile, ein Befehls- und Steuermodul 521, einen Autorisierungsmanager 523, einen Insassenmanager 525 und einen Leistungsmanager 527 sowie andere Steuerkomponenten beinhalten.
  • Der Authentifizierungsmanager 517 kann biometrische Schlüsselinformationen 554 an die DAC 199 kommunizieren. Die biometrischen Schlüsselinformationen können Aktualisierungen des Biometrikmodus beinhalten, die eine konkrete Modalität angeben, mithilfe derer das interne und/oder externe Sensorsystem 583 und 581 Sensordaten erhalten sollen. Die biometrischen Schlüsselinformationen 554 können ferner eine Bestätigung der Kommunikation, die von dem biometrischen Erkennungsmodul 597 empfangen wird, eine Aktualisierung des Authentifizierungsstatus, einschließlich zum Beispiel biometrischer Indizes, die biometrischen Benutzerdaten zugeordnet sind, Informationen über sichere Kanäle, biometrische Standortinformationen und/oder andere Informationen beinhalten. In einigen Aspekten kann der Authentifizierungsmanager 517 Anforderungen 556 zur Verwaltung biometrischer Schlüsselinformationen und andere Antwortnachrichten von dem biometrischen Erkennungsmodul 597 empfangen, die zum Beispiel Antworten auf Nachrichten zum Biometrikmodus und/oder andere Bestätigungen beinhalten können.
  • Der Authentifizierungsmanager 517 kann sich ferner mit der TCU 160 verbinden und Nutzlastinformationen 541 zum biometrischen Status an die TCU 160 kommunizieren, die den biometrischen Authentifizierungsstatus des Benutzers 140, Anforderungen nach Schlüsselinformationen, Profildaten und andere Informationen angeben. Die TCU 160 kann eine digitale Schlüsselnutzlast 591 über das eine oder die mehreren Netzwerke 125 an den einen oder die mehreren Server 170 senden und/oder weiterleiten und eine digitale Schlüsselstatusnutzlast 593 von dem einen oder den mehreren Servern 170 empfangen und Antwortnachrichten und/oder Befehle, welche die Nutzlast 543 für biometrische Informationen beinhalten können, an den Authentifizierungsmanager 517 bereitstellen.
  • Darüber hinaus kann der Authentifizierungsmanager 517 gemäß den in der vorliegenden Offenbarung beschriebenen Ausführungsformen in Kommunikation mit dem BLEM 195 und/oder den anderen Fahrzeugsteuerungen und -systemen 501 angeordnet sein. Zum Beispiel kann das BLEM 195 eine PaaK-Aufwecknachricht oder ein anderes Initiierungssignal senden, das angibt, dass eine oder mehrere Komponenten aus einem Energiesparmodus in einen Bereitschaftsmodus übergehen sollten.
  • Der Authentifizierungsmanager 517 kann sich zudem mit dem Manager 519 für persönliche Profile und dem Leistungsmanager 527 verbinden. Der Manager 519 für persönliche Profile kann eine Datenverwaltung durchführen, die Benutzerprofilen zugeordnet ist, die in dem Fahrzeugcomputer 145 und/oder auf dem einen oder den mehreren Servern 170 gespeichert sein können. Zum Beispiel kann der Authentifizierungsmanager 517 Insassensitzpositionsinformationen 529 an den Manager 519 für persönliche Profile senden, die einen Sitzpositionsindex (in 5 nicht gezeigt) beinhalten können, der einen bevorzugten und/oder zugewiesenen Sitz für Fahrgäste des Fahrzeugs 105 angibt. Der Manager 519 für persönliche Profile kann Sitzindizes aktualisieren, Profile löschen und erstellen und andere Verwaltungsaufgaben durchführen, die der Verwaltung individueller Benutzerprofile zugeordnet sind.
  • Der Leistungsmanager 527 kann Leistungssteuerbefehle 545 von dem Authentifizierungsmanager 517 empfangen, wobei die Leistungssteuerbefehle der Verwaltung biometrischer Authentifizierungsvorrichtungen zugeordnet sind, einschließlich zum Beispiel Aufwecken der Vorrichtung, was das biometrische Erkennungsmodul 597 und/oder die DAC 199 veranlasst, von einem Zustand mit niedriger Leistung (Standby-Modus) in einen Zustand mit höherer Leistung (z. B. aktiver Modus) überzugehen. Der Leistungsmanager 527 kann als Reaktion auf die Steuerbefehle 545 Leistungssteuerbestätigungen 551 an den Authentifizierungsmanager 517 senden. Zum Beispiel kann der Leistungsmanager 527 als Reaktion auf die Leistungs- und Steuerbefehle 545, die von dem Authentifizierungsmanager 517 empfangen werden, ein Leistungssteuersignal 565 generieren und das Leistungssteuersignal an das biometrische Erkennungsmodul senden. Das Leistungssteuersignal 565 kann das biometrische Erkennungsmodul dazu veranlassen, Leistungszustände zu ändern (z. B. Aufwecken usw.). Das biometrische Erkennungsmodul 597 kann eine Leistungssteuersignalantwort 567 an den Leistungsmanager 527 senden, die den Abschluss des Leistungssteuersignals 565 angibt.
  • Der Authentifizierungsmanager 517 und/oder der Manager 519 für persönliche Profile können sich ferner mit dem Befehls- und Steuermodul 521 verbinden, das dazu konfiguriert und/oder programmiert sein kann, Benutzerberechtigungsstufen zu verwalten und eine oder mehrere Fahrzeugzugriffsschnittstellen (in 5 nicht gezeigt) für die Interaktion mit Fahrzeugbenutzern zu steuern. Das Befehls- und Steuermodul 521 kann zum Beispiel das unter Bezugnahme auf 1 beschriebene BCM 193 sein und/oder beinhalten. Zum Beispiel kann der Authentifizierungsmanager 517 Befehls- und Steuerauthentifizierungsinformationen 531 senden, die das Befehls- und Steuermodul 521 dazu veranlassen, eine oder mehrere Vorrichtungen gemäß einer erfolgreichen oder nicht erfolgreichen Authentifizierung einer Vorrichtung, eines Signals, eines Benutzers usw. zu betätigen Das Befehls- und Steuermodul 521 kann Bestätigungen 533 und andere Informationen, einschließlich zum Beispiel eines Fahrzeugverriegelungsstatus, senden.
  • Der Insassenmanager 525 kann sich mit dem Authentifizierungsmanager 517 verbinden und Insassenänderungsinformationen 557, die Insassenänderungen in dem Fahrzeug 105 angeben, kommunizieren. Zum Beispiel kann der Insassenmanager 525, wenn Insassen in das Fahrzeug 105 ein- oder aus diesem aussteigen, einen Insassenindex (in 5 nicht gezeigt) aktualisieren und den Insassenindex als Teil der Insassenänderungsinformationen 557 an den Authentifizierungsmanager übertragen. Der Insassenmanager 525 kann sich ferner mit dem Insassenmanager 536 verbinden, um den Insassenmanager 525 mit Sitzindizes 559 zu aktualisieren, die Bestätigungsnachrichten für Sitzindexänderungen und Insasseneinstiege und -ausstiege aus dem Fahrzeug 105 beinhalten können.
  • Der Insassenmanager 525 kann zudem Sitzindizes 559 von dem Authentifizierungsmanager 517 empfangen, die Sitzanordnungen, Positionen, Präferenzen und andere Informationen indizieren können.
  • Der Insassenmanager 525 kann sich zudem mit dem Befehls- und Steuermodul 521 verbinden. Das Befehls- und Steuermodul 521 kann adaptive Fahrzeugsteuerinformationen 539 von dem Insassenmanager 525 empfangen, die Einstellungen für Fahrzeugmedieneinstellungen, Sitzsteuerinformationen, Insassenvorrichtungskennungen und andere Informationen kommunizieren und/oder beinhalten können.
  • Der Insassenmanager 525 kann in Kommunikation mit der DAC 199 angeordnet sein und kann Aktualisierungsinformationen 561 des Biometrikmodus an das biometrische Erkennungsmodul 597 kommunizieren, die Anweisungen und Befehle zum Nutzen konkreter Modalitäten der biometrischen Datensammlung anhand des internen Sensorsystems 583 und/oder des externen Sensorsystems 581 beinhalten können. Der Insassenmanager 525 kann ferner Insassenstatusaktualisierungsinformationen und/oder Insassenerscheinungsbildaktualisierungsinformationen (in 5 gemeinsam als die Informationen 563 gezeigt) von dem biometrischen Erkennungsmodul 597 empfangen.
  • 6 ist ein Ablaufdiagramm eines beispielhaften Verfahrens 600 zum Aufrechterhalten einer Verfolgung unter Verwendung nicht identifizierbarer biometrischer Daten gemäß der vorliegenden Offenbarung. 6 kann unter fortgesetzter Bezugnahme auf die vorhergehenden Figuren, einschließlich der 1-5, beschrieben werden. Der folgende Prozess ist beispielhaft und nicht auf die nachfolgend beschriebenen Schritte beschränkt. Darüber hinaus können alternative Ausführungsformen mehr oder weniger Schritte beinhalten, als in dieser Schrift gezeigt oder beschrieben sind, und können diese Schritte in einer Reihenfolge beinhalten, die von der Reihenfolge abweicht, die in den folgenden beispielhaften Ausführungsformen beschrieben ist.
  • Unter Bezugnahme auf 6 kann das Verfahren 600 bei Schritt 605 mit dem Bestimmen einer Identität eines Benutzers über ein Computerbildsystem unter Verwendung eines Satzes von Gesichtsmerkmalen beginnen. Dieser Schritt kann ein Speichern eines zuletzt abgetasteten Bilds, das den Satz von Gesichtsmerkmalen umfasst, in einem Computerspeicher und ein Aktualisieren eines Verfolgungsindex für menschliche Orientierungspunkte mithilfe des zuletzt abgetasteten Bilds, einer Benutzeridentifikation (ID), welche die Identität des Benutzers angibt, eines Feldstandorts für den Satz von Gesichtsmerkmalen in dem zuletzt abgetasteten Bild und eines Feldstandorts für den sekundären menschlichen Orientierungspunkt beinhalten.
  • Bei Schritt 610 kann das Verfahren 600 ferner ein Zuordnen des Satzes von Gesichtsmerkmalen zu einem Kopf und einem sekundären menschlichen Orientierungspunkt, der nicht den Satz von Gesichtsmerkmalen beinhaltet, beinhalten.
  • Bei Schritt 615 kann das Verfahren 600 ferner Merkmale zum Bestimmen, dass der Satz von Gesichtsmerkmalen durch ein Computerbildsystem nicht lokalisiert werden kann, beinhalten.
  • Bei Schritt 620 kann das Verfahren 600 ferner ein Verfolgen des Benutzers über das Computerbildsystem unter Verwendung des Kopfes und des sekundären menschlichen Orientierungspunkts beinhalten. Dieser Schritt kann ferner ein Aktivieren einer Fahrzeugwillkommensnachricht auf Grundlage eines Standorts des sekundären menschlichen Orientierungspunkts in einem Bildfeld beinhalten.
  • Das Verfahren kann ferner ein Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem lokalisiert werden kann, ein erneutes Authentifizieren der Identität des Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen und ein Bereitstellen von Zugang zu einem Fahrzeug als Reaktion auf die erneute Authentifizierung beinhalten.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und konkrete Umsetzungen veranschaulichen, in denen die vorliegende Offenbarung angewendet werden kann. Es versteht sich, dass auch andere Umsetzungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein€ bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch nicht notwendigerweise jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten muss. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner wird, wenn ein€ Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann eine derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Ferner können die in dieser Schrift beschriebenen Funktionen gegebenenfalls in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden. Eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) können zum Beispiel dazu programmiert sein, eine(s) oder mehrere der in dieser Schrift beschriebenen Systeme und Prozeduren auszuführen. Bestimmte Ausdrücke, die in der gesamten Beschreibung und den Patentansprüchen verwendet werden, beziehen sich auf konkrete Systemkomponenten. Für den Fachmann liegt auf der Hand, dass die Komponenten mit anderen Benennungen bezeichnet werden können. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht jedoch hinsichtlich ihrer Funktion.
  • Es versteht sich zudem, dass das Wort „Beispiel“, wie es in dieser Schrift verwendet wird, nicht ausschließender und nicht einschränkender Natur sein soll. Insbesondere gibt das Wort „Beispiel“ im vorliegenden Zusammenhang eines von mehreren Beispielen an, und es versteht sich, dass keine übermäßige Betonung oder Bevorzugung auf das konkrete beschriebene Beispiel gerichtet ist.
  • Ein computerlesbares Medium (auch als prozessorlesbares Medium bezeichnet) beinhaltet ein beliebiges nicht flüchtiges (z. B. physisches) Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer (z. B. durch einen Prozessor eines Computers) ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, die unter anderem nichtflüchtige Medien und flüchtige Medien beinhalten. Rechenvorrichtungen können computerausführbare Anweisungen beinhalten, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen, wie etwa durch die vorstehend aufgeführten, ausführbar sein können und auf einem computerlesbaren Medium gespeichert sein können.
  • Hinsichtlich der in dieser Schrift beschriebenen Prozesse, Systeme, Verfahren, Heuristiken usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Reihenfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch praktisch umgesetzt werden könnten, wobei die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, die von der in dieser Schrift beschriebenen Reihenfolge abweicht. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt werden können, dass andere Schritte hinzugefügt oder dass bestimmte, in dieser Schrift beschriebene Schritte weggelassen werden können. Anders ausgedrückt, dienen die Beschreibungen von Prozessen in dieser Schrift dem Zwecke der Veranschaulichung verschiedener Ausführungsformen und sollten keinesfalls dahingehend ausgelegt werden, dass sie die Patentansprüche einschränken.
  • Dementsprechend versteht es sich, dass die vorstehende Beschreibung veranschaulichend und nicht einschränkend sein soll. Aus der Lektüre der vorangehenden Beschreibung ergeben sich viele andere Ausführungsformen und Anwendungen als die aufgeführten Beispiele. Der Umfang sollte nicht unter Bezugnahme auf die vorstehende Beschreibung, sondern stattdessen unter Bezugnahme auf die beigefügten Patentansprüche bestimmt werden, zusammen mit der gesamten Bandbreite an Äquivalenten, zu denen diese Patentansprüche berechtigen. Es ist davon auszugehen und beabsichtigt, dass es zukünftige Entwicklungen im in dieser Schrift erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass die Anmeldung modifiziert und verändert werden kann.
  • Allen in den Patentansprüchen verwendeten Ausdrücken soll deren allgemeine Bedeutung zugeordnet werden, wie sie Fachleuten auf dem Gebiet der in dieser Schrift beschriebenen Technologien bekannt ist, sofern in dieser Schrift kein ausdrücklicher Hinweis auf das Gegenteil erfolgt. Insbesondere ist die Verwendung der Singularartikel, wie etwa „ein“, „eine“, „der“, „die“, „das“ usw., dahingehend auszulegen, dass eines oder mehrere der angegebenen Elemente genannt werden, sofern ein Patentanspruch nicht eine ausdrückliche gegenteilige Einschränkung enthält. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese unter Umständen nicht beinhalten, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß der vorliegenden Erfindung wird ein nichttransitorisches computerlesbares Speichermedium in einer Fahrzeugsteuerung bereitgestellt, wobei auf dem computerlesbaren Speichermedium Anweisungen gespeichert sind, die bei Ausführung durch einen Prozessor den Prozessor zu Folgendem veranlassen: Bestimmen einer Identität eines Benutzers unter Verwendung eines Satzes von Gesichtsmerkmalen; Zuordnen eines Satzes von Gesichtsmerkmalen zu einem Kopf und einem sekundären menschlichen Orientierungspunkt, der nicht den Satz von Gesichtsmerkmalen beinhaltet; Bestimmen, dass der Satz von Gesichtsmerkmalen durch ein Computerbildsystem nicht lokalisiert werden kann; und Verfolgen des Benutzers über das Computerbildsystem unter Verwendung des Kopfes und des sekundären menschlichen Orientierungspunkts.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch weitere auf diesem gespeicherte Anweisungen für Folgendes: Speichern eines zuletzt abgetasteten Bilds, das den Satz von Gesichtsmerkmalen umfasst, in einem Computerspeicher; und Aktualisieren eines Verfolgungsindex für menschliche Orientierungspunkte, der Folgendes umfasst, mithilfe des zuletzt abgetasteten Bilds: eine Benutzeridentifikation (ID), welche die Identität des Benutzers angibt; einen Feldstandort für den Satz von Gesichtsmerkmalen in dem zuletzt abgetasteten Bild; und einen Feldstandort für den sekundären menschlichen Orientierungspunkt.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch weitere darauf gespeicherte Anweisungen für Folgendes: Aktivieren einer Fahrzeugwillkommensnachricht auf Grundlage eines Standorts des sekundären menschlichen Orientierungspunkts in einem Bildfeld.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch weitere darauf gespeicherte Anweisungen für Folgendes: Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem lokalisiert werden kann; erneutes Authentifizieren der Identität des Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen; und Bereitstellen von Zugang zu einem Fahrzeug als Reaktion auf die erneute Authentifizierung.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch Anweisungen, die den Prozessor ferner zu Folgendem veranlassen: Bestimmen eines Gangs des Benutzers; und Auslösen einer Fahrzeugverriegelung auf Grundlage des Gangs, um diese in einen verriegelten Zustand oder einen nicht verriegelten Zustand zu betätigen.

Claims (15)

  1. Verfahren zum Aufrechterhalten der Verfolgung von Benutzerbewegungen unter Verwendung nicht identifizierbarer biometrischer Daten, umfassend: Bestimmen einer Identität eines Benutzers durch ein Computerbildsystem unter Verwendung eines Satzes von Gesichtsmerkmalen; Zuordnen des Satzes von Gesichtsmerkmalen zu einem Kopf und einem sekundären menschlichen Orientierungspunkt, der nicht den Satz von Gesichtsmerkmalen beinhaltet; Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem nicht lokalisiert werden kann; und Verfolgen des Benutzers über das Computerbildsystem unter Verwendung des Kopfes und des sekundären menschlichen Orientierungspunkts.
  2. Verfahren nach Anspruch 1, wobei das Bestimmen der Identität des Benutzers Folgendes umfasst: Speichern eines zuletzt abgetasteten Bildes, das den Satz von Gesichtsmerkmalen umfasst, in einem Computerspeicher; und Aktualisieren eines Verfolgungsindex für menschliche Orientierungspunkte, der Folgendes umfasst, mithilfe des zuletzt abgetasteten Bilds: eine Benutzeridentifikation (ID), welche die Identität des Benutzers angibt; einen Feldstandort für den Satz von Gesichtsmerkmalen in dem zuletzt abgetasteten Bild; und einen Feldstandort für den sekundären menschlichen Orientierungspunkt.
  3. Verfahren nach Anspruch 1, ferner umfassend: Aktivieren einer Willkommensnachricht des Fahrzeugs auf Grundlage eines Standorts des sekundären menschlichen Orientierungspunkts in einem Bildfeld.
  4. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem lokalisiert werden kann; erneutes Authentifizieren der Identität des Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen; und Bereitstellen von Zugang zu einem Fahrzeug als Reaktion auf die erneute Authentifizierung.
  5. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen eines Gangs des Benutzers; und Auslösen einer an einem Fahrzeug angeordneten Fahrzeugverriegelung zum Betätigen eines verriegelten Zustands oder eines nicht verriegelten Zustands auf Grundlage des Gangs.
  6. Verfahren nach Anspruch 5, ferner umfassend: Bestimmen, dass der Benutzer von dem Fahrzeug weggeht, auf Grundlage des Gangs; und als Reaktion auf das Bestimmen, dass der Benutzer von dem Fahrzeug weggeht, Auslösen der Fahrzeugverriegelung zum Betätigen des verriegelten Zustands.
  7. Verfahren nach Anspruch 1, wobei das Bestimmen der Identität des Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen eine Gesichtsverfolgung durch Suchen nur in einer lokalen Region von Interesse durch Downsampling umfasst.
  8. Verfahren nach Anspruch 1, wobei der sekundäre menschliche Orientierungspunkt eines oder mehrere des Folgenden umfasst: einen anderen sichtbaren Körperteil als den Kopf; ein Kleidungsstück; ein Kennzeichen an dem Kleidungsstück; oder ein von dem Benutzer getragenes Paket.
  9. Biometrisches Erkennungsmodul, umfassend: ein Computerbildsystem; einen Prozessor, der in Kommunikation mit dem Computerbildsystem angeordnet ist; und einen Speicher zum Speichern ausführbarer Anweisungen, wobei der Prozessor dazu programmiert ist, die Anweisungen für Folgendes auszuführen: Bestimmen einer Identität eines Benutzers unter Verwendung eines Satzes von Gesichtsmerkmalen; Zuordnen eines Satzes von Gesichtsmerkmalen zu einem Kopf und einem sekundären menschlichen Orientierungspunkt, der nicht den Satz von Gesichtsmerkmalen beinhaltet; Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem nicht lokalisiert werden kann; und Verfolgen des Benutzers über das Computerbildsystem unter Verwendung des Kopfes und des sekundären menschlichen Orientierungspunkts.
  10. Biometrisches Erkennungsmodul nach Anspruch 9, wobei der Prozessor ferner dazu programmiert ist, die Identität des Benutzers durch Ausführen der Anweisungen für Folgendes zu bestimmen: Speichern eines zuletzt abgetasteten Bilds, das den Satz von Gesichtsmerkmalen umfasst, in einem Computerspeicher; und Aktualisieren eines Verfolgungsindex für menschliche Orientierungspunkte, der Folgendes umfasst, mithilfe des zuletzt abgetasteten Bilds: eine Benutzeridentifikation (ID), welche die Identität des Benutzers angibt; einen Feldstandort für den Satz von Gesichtsmerkmalen in dem zuletzt abgetasteten Bild; und einen Feldstandort für den sekundären menschlichen Orientierungspunkt.
  11. Biometrisches Erkennungsmodul nach Anspruch 9, wobei der Prozessor ferner dazu programmiert ist, die Anweisungen für Folgendes auszuführen: Aktivieren einer Willkommensnachricht des Fahrzeugs auf Grundlage eines Standorts des sekundären menschlichen Orientierungspunkts.
  12. Biometrisches Erkennungsmodul nach Anspruch 9, wobei der Prozessor ferner dazu programmiert ist, die Anweisungen für Folgendes auszuführen: Bestimmen, dass der Satz von Gesichtsmerkmalen durch das Computerbildsystem lokalisiert werden kann; erneutes Authentifizieren der Identität des Benutzers unter Verwendung des Satzes von Gesichtsmerkmalen; und Bereitstellen von Zugang zu einem Fahrzeug als Reaktion auf die erneute Authentifizierung.
  13. Biometrisches Erkennungsmodul nach Anspruch 9, wobei der Prozessor ferner dazu programmiert ist, die Anweisungen für Folgendes auszuführen: Bestimmen eines Gangs des Benutzers; und Auslösen einer an einem Fahrzeug angeordneten Fahrzeugverriegelung zum Betätigen eines verriegelten Zustands oder eines nicht verriegelten Zustands auf Grundlage des Gangs.
  14. Biometrisches Erkennungsmodul nach Anspruch 13, wobei der Prozessor ferner dazu programmiert ist, die Anweisungen für Folgendes auszuführen: Bestimmen, dass der Benutzer von dem Fahrzeug weggeht, auf Grundlage des Gangs; und als Reaktion auf das Bestimmen, dass der Benutzer von dem Fahrzeug weggeht, Auslösen der Fahrzeugverriegelung zum Betätigen des verriegelten Zustands.
  15. Biometrisches Erkennungsmodul nach Anspruch 9, wobei der sekundäre menschliche Orientierungspunkt eines oder mehrere des Folgendes umfasst: einen anderen sichtbaren Körperteil als den Kopf; ein Kleidungsstück; ein Kennzeichen an dem Kleidungsstück; oder ein von dem Benutzer getragenes Paket.
DE102021132749.0A 2020-12-11 2021-12-10 Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung Pending DE102021132749A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/118,977 US11752974B2 (en) 2020-12-11 2020-12-11 Systems and methods for head position interpolation for user tracking
US17/118,977 2020-12-11

Publications (1)

Publication Number Publication Date
DE102021132749A1 true DE102021132749A1 (de) 2022-06-15

Family

ID=81749992

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021132749.0A Pending DE102021132749A1 (de) 2020-12-11 2021-12-10 Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung

Country Status (3)

Country Link
US (1) US11752974B2 (de)
CN (1) CN114627563A (de)
DE (1) DE102021132749A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230045699A1 (en) * 2021-08-05 2023-02-09 Carrier Corporation Machine learning assisted intent determination using access control information

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110570B1 (en) 2000-07-21 2006-09-19 Trw Inc. Application of human facial features recognition to automobile security and convenience
US6498970B2 (en) * 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
AU2003280516A1 (en) 2002-07-01 2004-01-19 The Regents Of The University Of California Digital processing of video images
DE102010054625A1 (de) * 2010-12-16 2012-06-21 Daimler Ag Verfahren und Vorrichtung zum Öffnen und Schließen einer Tür und/oder einer Heckklappe eines Fahrzeugs
US20160300410A1 (en) * 2015-04-10 2016-10-13 Jaguar Land Rover Limited Door Access System for a Vehicle
US20160379074A1 (en) 2015-06-25 2016-12-29 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
US10144374B2 (en) * 2015-10-19 2018-12-04 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic settings for vehicle components based on measured anthropometric features
DE102018124354A1 (de) * 2018-10-02 2020-04-02 HELLA GmbH & Co. KGaA Zugangssystem für ein Fahrzeug, Verfahren für ein Zugangssystem, Computerprogrammprodukt und computerlesbares Medium

Also Published As

Publication number Publication date
US11752974B2 (en) 2023-09-12
US20220185233A1 (en) 2022-06-16
CN114627563A (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
DE102021131485A1 (de) Verifikation für passiven einstieg und passiven start mit zwei-faktor-authentifizierung
DE112018001483T5 (de) System und verfahren zur automatischen fahrgastaufteilung zwischen fahrzeugen
DE102018127357A1 (de) Audiowarnungen für ferngesteuerte einparkhilfe-anbindung
DE102018100182A1 (de) Insassenpräferenzen einbindendes autonomes Fahrzeugsteuersystem und -Verfahren
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102022103197A1 (de) Authentifizierung von sowie Einsteige- und Absetzbestätigung für Mitfahrer in einem autonomen Fahrzeug
DE112017008020T5 (de) Fahrzeugkommunikationssystem zur gemeinsamen nutzung von angelenkten fahrzeugpositionen in echtzeit
DE102012201017A1 (de) System und verfahren für eine fahrzeugsteuerung unterverwendung einer kommunikation mit einem menschlichenkörper
DE102012223304A1 (de) System zum selektiven Öffnen eines Fahrzeuges
DE102021125171A1 (de) Biometrisches drahtloses fahrzeugzugangssystem
DE102019110790A1 (de) System und verfahren für den zugang zu eingeschränkten bereichen durch ein autonomes fahrzeug
DE102021101377A1 (de) Aktive näherungserkennung mit makrokapazitiver erfassung
CN105763642A (zh) 一种汽车智能交互系统
DE102022101465A1 (de) Laufzeit-lokalisierung eines fahrzeugbenutzers
DE102022122847A1 (de) Einparkassistent mit augmented-reality- und berührungsbasiertem benutzereingriff
DE102020103673A1 (de) Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation
DE102020105943A1 (de) System und verfahren zur einrichtung einer primären und sekundären kontrolle von fahrgemeinschafts-funktionenfahrgemeinschaft
DE102019102973A1 (de) Verfahren und anordnungen zum vereinfachen einer fahrzeugverriegelung
DE102021126319A1 (de) Authentifizieren einer berechtigungserhöhung bei einem beförderungsdienst
DE102021102159A1 (de) Kapazitive sensorsysteme für eine pickup-ladefläche und verfahren
DE102021132749A1 (de) Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung
DE102022101237A1 (de) Autonome fahrzeugkameraschnittstelle für drahtloses anbinden
DE102021127713A1 (de) System und verfahren zum steuern eines geofence
DE102021125469A1 (de) Verbesserter Fahrzeugweg durch Augmented Reality
DE102021126447A1 (de) Systeme und verfahren für zugang durch ein piezoelektrisches sensormikrofonfenster-tastenfeld

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE