DE102018120655A1 - Authentifizierung von fahrzeug-zu-fahrzeug-kommunikationen - Google Patents

Authentifizierung von fahrzeug-zu-fahrzeug-kommunikationen Download PDF

Info

Publication number
DE102018120655A1
DE102018120655A1 DE102018120655.0A DE102018120655A DE102018120655A1 DE 102018120655 A1 DE102018120655 A1 DE 102018120655A1 DE 102018120655 A DE102018120655 A DE 102018120655A DE 102018120655 A1 DE102018120655 A1 DE 102018120655A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor data
distance
authentication
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018120655.0A
Other languages
English (en)
Inventor
Yu Seung Kim
Jinhyoung Oh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/040,013 external-priority patent/US10880293B2/en
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018120655A1 publication Critical patent/DE102018120655A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/63Location-dependent; Proximity-dependent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/10Integrity
    • H04W12/104Location integrity, e.g. secure geotagging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/12Detection or prevention of fraud
    • H04W12/121Wireless intrusion detection systems [WIDS]; Wireless intrusion prevention systems [WIPS]
    • H04W12/122Counter-measures against attacks; Protection against rogue devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden Systeme, Verfahren und Vorrichtungen zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation offenbart. Ein Verfahren beinhaltet das Empfangen von Sensordaten von einem ersten Fahrzeug und das Empfangen von sekundären Sensordaten von einem zweiten Fahrzeug. Das Verfahren beinhaltet das Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt. Das Verfahren beinhaltet das Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung betrifft das Durchführen von authentifizierten Fahrzeug-zu-Fahrzeug-Kommunikationen.
  • STAND DER TECHNIK
  • Kraftfahrzeuge stellen einen bedeutenden Anteil an Transportmitteln auf Gewerbe-, Regierungs- und Privatebene. Autonome Fahrzeuge und Fahrhilfesysteme werden derzeit entwickelt und eingesetzt, um für Sicherheit zu sorgen, das Maß notwendiger Benutzereingabe zu reduzieren oder gar die Benutzermitwirkung komplett zu eliminieren. Beispielsweise können manche Fahrhilfesysteme, wie zum Beispiel Unfallvermeidungssysteme, Fahrt, Position und Geschwindigkeit des Fahrzeugs und anderer Objekte überwachen, während ein Mensch fährt. Wenn das System erkennt, dass ein Unfall oder Aufprall bevorsteht, kann das Unfallvermeidungssystem eingreifen und eine Bremse betätigen, das Fahrzeug steuern oder ein anderes Vermeidungs- oder Sicherheitsmanöver durchführen. Als weiteres Beispiel sind autonome Fahrzeuge in der Lage zu fahren und ein Fahrzeug mit wenig oder ohne Benutzereingabe zu navigieren. Autonome Fahrzeuge können ferner mit anderen autonomen Fahrzeugen kommunizieren, um bei Unfallvermeidungs- und Sicherheitsmanövern zu helfen. Effiziente Authentifizierung der Identität eines Fahrzeugs kann bei der Kommunikation zwischen zwei oder mehreren autonomen Fahrzeugen von Vorteil sein.
  • Zu Fortschritten in Fahrzeugtechnologie gehören Fahrzeug-zu-Fahrzeug- (vehicle-to-vehicle - V2V)-Kommunikationen, die möglicherweise eine Autorisierung erfordern, um Schutz und Sicherheit des Fahrzeugeigentümers oder Fahrers zu gewährleisten. Interfahrzeugkommunikation, unter vielen anderen Anwendungen, ist dafür bekannt, die Sicherheitsmerkmale jedes Fahrzeugs zu verbessern. Bei V2V-Kommunikationen wird die Authentizität einer Fahrzeugidentität durch dessen digitales Zertifikat verifiziert. In Anbetracht seiner sicherheitskritischen Implikation bei vielen V2V-Anwendungen kann die Gültigkeit des digitalen Zertifikats durch ein System der Public-Key-Verschlüsselung (public-key infrastructure - PKI) gesichert werden. In manchen Umsetzungen ist es jedoch fast unmöglich, jegliche Sicherheitsverletzung in PKI vollständig zu verhindern. Wie man in den letzten Jahrzehnten gesehen hat, kann die Certificate Authority (CA) kompromittiert werden, um ein unbefugtes Zertifikat auszustellen, oder selbst gutartige CA können versehentlich ein gültiges Zertifikat an unbefugte Parteien ausstellen. Ferner kann es möglich sein, den Signierungsschlüssel für ein Zertifikat direkt zu erfassen, wenn es nicht sachgemäß an einem sicheren Ort gespeichert ist.
  • KURZDARSTELLUNG
  • Nach einem Aspekt wird ein Verfahren zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation offenbart. Das Verfahren beinhaltet das Empfangen von Sensordaten von einem ersten Fahrzeug und das Empfangen von sekundären Sensordaten von einem zweiten Fahrzeug. Das Verfahren beinhaltet das Extrahieren einer Authentifizierung, basierend auf den Sensordaten von dem ersten Fahrzeug und den sekundären Sensordaten von dem zweiten Fahrzeug. Die Authentifizierung beinhaltet eines oder mehrere von einer Nähe des zweiten Fahrzeugs zum ersten Fahrzeug oder einem gemeinsames Objekt, das von den Sensordaten und den sekundären Sensordaten identifiziert wird. Das Verfahren beinhaltet ferner das Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, um eine Authentifizierung des zweiten Fahrzeugs zu zertifizieren.
  • Gemäß einem anderen Aspekt der Offenbarung beinhaltet die Authentifizierung eine äquivalente detektierte Grundgeschwindigkeit eines gemeinsamen Objekts, wie es von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifiziert wurde.
  • Gemäß einem anderen Aspekt der Offenbarung beinhalten die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild. Die Sensordaten beinhalten von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten. Die sekundären Sensordaten beinhalten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild. Die sekundären Sensordaten beinhalten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten. Das Verfahren beinhaltet ferner das Extrahieren eines Authentifizierungspunktes aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild. Der Authentifizierungspunkt beinhaltet einen oder mehrere von einem Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug, einem Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug oder einer Fahrzeugidentifizierung des zweiten Fahrzeugs. Das Verfahren beinhaltet ferner das Verifizieren des Authentifizierungspunkts basierend auf den Entfernungsdaten. Das Verifizieren des Authentifizierungspunkts beinhaltet das Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten. Der Entfernungsauthentifizierungspunkt umfasst einen oder mehrere von dem Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug oder dem Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug. Das Verfahren beinhaltet ferner die Gegenprüfung des aus dem Bild extrahierten Authentifizierungspunkts mit einem entsprechenden Entfernungsauthentifizierungspunkt. Das Verfahren beinhaltet ferner das Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einem anderen Aspekt der Offenbarung beinhaltet das Verfahren ferner den Austausch eines Gierwinkels des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs.
  • Gemäß einem anderen Aspekt der Offenbarung beinhaltet das Verfahren ferner das Empfangen einer von einem oder mehreren Sensoren des ersten Fahrzeugs erfassten Objektkarte. Das Verfahren ferner beinhaltet das Empfangen einer sekundären, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfassten Objektkarte und das Ausrichten der sekundären Objektkarte auf die Objektkarte, um durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte eine überlagerte Objektkarte zu erzeugen. Das Verfahren beinhaltet ferner das Bestimmen, basierend auf der überlagerten Objektkarte, ob es ein oder mehrere gemeinsame Objekte gibt, die in der Objektkarte und der sekundären Objektkarte identifiziert wurden. Das Verfahren beinhaltet ferner das Bestimmen, ob das eine oder die mehreren gemeinsamen Objekte einen Vertrauensschwellenwert für eine Anwendung des ersten Fahrzeugs erfüllen sowie das Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und des zweiten Fahrzeugs, wenn das eine oder die mehreren gemeinsamen Objekte den Vertrauensschwellenwert für die Anwendung erfüllen. Das Verfahren beinhaltet ferner das Verweigern von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte nicht den Vertrauensschwellenwert für die Anwendung erfüllen.
  • Gemäß einem anderen Aspekt der Offenbarung beinhaltet das Bestimmen, ob die Authentifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, das Verifizieren eines oder mehrerer von einer Identität des zweiten Fahrzeugs, ob das zweite Fahrzeug sich in nächster Nähe des ersten Fahrzeugs befindet, einer Präsenz eines oder mehrerer gemeinsamer, von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs erfassten Objekte oder äquivalente bestimmte Grundgeschwindigkeiten bei einem oder mehreren gemeinsamen Objekten basierend auf den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs. Das Verfahren kann ferner beinhalten, Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug zu gestatten, wenn die Verifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einem Aspekt wird ein System zur Authentifizierung von Fahrzeug-zu-Fahrzeug-Kommunikation offenbart. Das System beinhaltet ein erstes Fahrzeug mit einem oder mehreren Sensoren, die Sensordaten bereitstellen. Das System beinhaltet eine Fahrzeugsteuerung in Kommunikation mit dem einen oder den mehreren Sensoren des ersten Fahrzeugs. Die Fahrzeugsteuerung ist dazu konfiguriert, sekundäre Sensordaten von einem zweiten Fahrzeug zu empfangen. Die Fahrzeugsteuerung beinhaltet nichtflüchtige computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren dazu veranlassen, Sensordaten von dem ersten Fahrzeug zu empfangen und sekundäre Sensordaten von dem zweiten Fahrzeug zu empfangen. Die Anweisungen veranlassen den einen oder die mehreren Prozessoren ferner dazu, eine Authentifizierung basierend auf den Sensordaten von dem ersten Fahrzeug und den sekundären Sensordaten von dem zweiten Fahrzeug zu extrahieren. Die Authentifizierung beinhaltet eines oder mehrere von einer Nähe des zweiten Fahrzeugs zu dem ersten Fahrzeug, einem gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt oder einer äquivalenten detektierten Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifizierten Objekts. Die Anweisungen veranlassen ferner den einen oder die mehreren Prozessoren dazu, zu bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, um eine Authentifizierung des zweiten Fahrzeugs zu zertifizieren.
  • Figurenliste
  • Um die Vorteile der Offenbarung leicht nachzuvollziehen, folgt eine ausführlichere Beschreibung der oben kurz beschriebenen Offenbarung durch Bezugnahme auf spezifische, in den angehängten Zeichnungen abgebildeten Ausführungsformen. In dem Verständnis, dass diese Zeichnungen nur typische Ausführungsformen der Offenbarung zeigen und deshalb nicht als deren Umfang einschränkend auszulegen sind, wird die Offenbarung durch Nutzung der begleitenden Zeichnungen mit zusätzlicher Genauigkeit und Ausführlichkeit beschrieben und erklärt, in denen Folgendes gilt:
    • 1 ist ein schematisches Blockdiagramm eines autonomen Fahrzeugs oder Fahrzeugunterstützungssystems gemäß den Lehren und Prinzipien der Offenbarung;
    • 2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die dazu geeignet ist, Verfahren gemäß den Lehren und Prinzipien der Offenbarung umzusetzen;
    • 3 ist ein schematisches Diagramm, dass relative Positionen von Fahrzeugen abbildet, die eine Authentifizierung gemäß den Lehren und Prinzipien der Offenbarung durchführen;
    • 4A, 4B, 5A und 5B sind Diagramme von Bildern, die gemäß den Lehren und Prinzipien der Offenbarung verarbeitet werden können;
    • 6 ist ein Diagramm, das Abstände und Winkel zwischen Fahrzeugen abbildet, die eine Authentifizierung gemäß den Lehren und Prinzipien der Offenbarung durchführen;
    • 7A ist ein Diagramm, das von einer Fahrzeugkamera gemessene Abstände und Winkel gemäß den Lehren und Prinzipien der Offenbarung abbildet;
    • 7B ist ein Diagramm, das den Standort eines Fahrzeugnummernschilds in einem Bild gemäß den Lehren und Prinzipien der Offenbarung abbildet.
    • 8 ist ein schematisches Blockdiagramm, das einen Prozessfluss zum Authentifizieren eines Fahrzeugs gemäß den Lehren und Prinzipien der Offenbarung abbildet;
    • 9 ist eine Draufsicht, die Fahrzeugpositionen abbildet, wenn ein Bild gemäß den Lehren und Prinzipien der Offenbarung erfasst wird;
    • 10 ist eine Draufsicht, die Objektkarten abbildet, die von Fahrzeugen in der Nähe gemäß den Lehren und Prinzipien der Offenbarung erfasst werden;
    • 11 ist eine Draufsicht, die Verschiebung und Rotation abbildet, um gemäß den Lehren und Prinzipien der Offenbarung zu bestimmen, ob von Fahrzeugen in der Nähe erfasste Objektkarten ähnlich sind;
    • 12 ist eine Draufsicht, die Vektorkarten von Fahrzeugen in der Nähe zur Verwendung bei Authentifizierung gemäß den Lehren und Prinzipien der Offenbarung abbildet;
    • 13 ist ein schematisches Ablaufdiagramm, das ein Verfahren zum Authentifizieren eines Fahrzeugs gemäß den Lehren und Prinzipien der Offenbarung abbildet;
    • 14 ist ein schematisches Ablaufdiagramm, das ein Verfahren zum Authentifizieren eines Fahrzeugs gemäß den Lehren und Prinzipien der Offenbarung abbildet; und
    • 15 ein schematisches Ablaufdiagramm, das ein Verfahren zum Authentifizieren eines Fahrzeugs gemäß den Lehren und Prinzipien der Offenbarung abbildet.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Zu Fortschritten in Fahrzeugtechnologie gehören Fahrzeug-zu-Fahrzeug- (vehicle-to-vehicle - V2V)-Kommunikationen, die möglicherweise eine Autorisierung erfordern, um Schutz und Sicherheit des Fahrzeugeigentümers oder Fahrers zu gewährleisten. Bei V2V-Kommunikationen wird die Authentizität einer Fahrzeugidentität durch dessen digitales Zertifikat verifiziert. In Anbetracht seiner sicherheitskritischen Implikation bei vielen V2V-Anwendungen kann die Gültigkeit des digitalen Zertifikats durch ein System der Public-Key-Verschlüsselung (public-key infrastructure - PKI) gesichert werden. In manchen Umsetzungen ist es jedoch fast unmöglich, jegliche Sicherheitsverletzung in PKI vollständig zu verhindern. Wie man in den letzten Jahrzehnten gesehen hat, kann die Certificate Authority (CA) kompromittiert werden, um ein unbefugtes Zertifikat auszustellen, oder selbst gutartige CA können versehentlich ein gültiges Zertifikat an unbefugte Parteien ausstellen. Ferner kann es möglich sein, den Signierungsschlüssel für ein Zertifikat direkt zu erfassen, wenn es nicht sachgemäß an einem sicheren Ort gespeichert ist.
  • Während V2V-Kommunikation die Sicherheit und den Schutz von Fahrzeugen steigern soll, kann sie auch potenzielle Bedrohungsmöglichkeiten für Kontrahenten eröffnen. Ein Angreifer kann verschiedene Attacken ausführen, zu seinem eigenen Nutzen oder um böswillig Opfern Schaden zuzufügen. Beispielsweise können Angreifer inkorrekte Informationen übertragen, um benachbarte Fahrzeuge dahingehend zu beeinflussen, andere Fahrzeuge auf der Strecke umzulenken, um freie Fahrt zu bekommen oder ihre Sensorinformationen zu fälschen, um Haftung für Unfälle zu umgehen. Im Zug fahrende Fahrzeuge sind ebenfalls anfällig für Kollisionsherbeiführungsangriffe. Zusätzlich sind auch Sybil-Angriffe möglich, indem mehrere nichtexistierende Identitäten oder Pseudonyme verwendet werden. Daher ist die Absicherung von Interfahrzeugkommunikationen von kritischer Bedeutung und kann Benutzer vor lebensbedrohlichen Angriffen schützen.
  • In Bemühungen, die V2V-Kommunikationen zu sichern, setzen Dedicated Short-Range Communications (DSRC), der De-facto-V2V-Kommunikationsstandard, Systeme der Public-Key-Verschlüsselung (public-key infrastructure - PKI) ein, um öffentliche Schlüssel (engl. Public Keys) von Fahrzeugen zu authentifizieren. Während diese Lösung darauf abzielt, ausreichend Sicherheitsgarantien bereitzustellen, sind viele Angriffe dennoch möglich. Eines der Hauptprobleme ergibt sich aus Location-Spoofing-Imitationsangriffen. Bei diesen Angriffen überträgt ein Insider-Angreifer (d. h. ein bösartiges Fahrzeug mit einem korrekten Zertifikat) Meldungen mit gefälschten Standorten. Beispielsweise erstellt ein Angreifer ein „Geisterfahrzeug“, indem er seinen Standort Opferfahrzeugen gegenüber fälscht. Ähnlich kann ein bösartiges Fahrzeug in einem Zug die Position eines anderen Fahrzeugs imitieren, indem es seine Position innerhalb des Zugs fälscht.
  • Der Patentanmelder erkennt an, dass zusätzliche Mechanismen neben der PKI-Authentifizierung für V2V-Kommunikation bereitgestellt werden können. Derartige zusätzliche Mechanismen können Kamerasensoren nutzen, die bereits in vielen autonomen oder Fahrhilfefahrzeugen vorhanden sind. Derartige zusätzliche Mechanismen können zwei Fahrzeuge beinhalten, die einen Snapshot voneinander aufnehmen, den Snapshot austauschen und durch Extrahieren beispielsweise einer Fahrzeugnummer, eines relativen Abstands zwischen dem Fahrzeug, einem Azimutwinkel vom empfangenen Bild und so weiter gegenseitig ihre jeweilige Identität verifizieren.
  • Ein fortgeschrittener Angreifer wird jedoch immer noch in der Lage sein, die Identität eines Fahrzeugs zu imitieren, indem er ein Lexikon von Bildern anlegt, die offline von verschiedenen Standorten aufgenommen wurden, um sich als das andere Fahrzeug um das Opferfahrzeug auszugeben. Ferner kann ein angreifendes Fahrzeug einen Snapshot des Opferfahrzeugs aufnehmen, das Opferfahrzeug aus dem Snapshot herausschneiden und das Opferfahrzeug in eine geeignete Position einblenden, um das Opferfahrzeug glauben zu lassen, das Bild sei von dem angreifenden Fahrzeug aufgenommen worden. Aufgrund neuester Fortschritte im Bereich Computervision könnten einem angreifenden Fahrzeug neue Kamerabildmodifikationstechniken zu Verfügung stehen.
  • Der Anmelder präsentiert hierin Systeme, Verfahren und Vorrichtungen zur Fahrzeug-zu-Fahrzeug-Authentifizierung und -Kommunikation, die derzeit in PKI-Systemen und anderen zusätzlichen Mechanismen, die anfällig für Angriffe von fortgeschrittenen Fahrzeugsystemen sein können, bekannte Schwächen bewältigen. In einer Ausführungsform der Offenbarung wird ein Verfahren zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation bereitgestellt. Das Verfahren beinhaltet das Empfangen von Sensordaten von einem ersten Fahrzeug und das Empfangen von sekundären Sensordaten von einem zweiten Fahrzeug. Das Verfahren beinhaltet das Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt. Das Verfahren beinhaltet ferner das Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt. Das Verfahren kann ferner beinhalten, Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug zu gestatten, falls die Authentifizierung den Vertrauensschwellenwert erfüllt.
  • Es versteht sich, dass die Komponenten der vorliegenden Offenbarung, wie sie hierin allgemein beschrieben und in den Figuren abgebildet sind, in einer breiten Palette verschiedener Konfigurationen angeordnet und gestaltet sein können. Daher soll die folgende, ausführlichere Beschreibung der Ausführungen der Offenbarung, wie in den Figuren dargestellt, den Umfang der Offenbarung wie beansprucht nicht einschränken, sondern lediglich bestimmte Beispiele der gemäß der Offenbarung in Betracht gezogenen Ausführungsformen repräsentieren. Die beschriebenen Ausführungsformen lassen sich am besten unter Bezugnahme auf die Zeichnungen nachvollziehen, in denen gleiche Teile durchgehend mittels gleicher Bezugszeichen gekennzeichnet sind.
  • Ausführungsformen gemäß der vorliegenden Offenbarung können als ein Gerät, Verfahren oder Computerprogrammprodukt ausgeführt sein. Dementsprechend kann die vorliegende Offenbarung die Form einer ganz aus Hardware bestehenden Ausführungsform, einer ganz aus Software bestehenden Ausführungsform (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform annehmen, die Software- und Hardwareaspekte verbindet, die sämtlich hierin allgemein als „Modul“ oder „System“ bezeichnet werden können. Ferner kann die vorliegende Offenbarung die Form eines Computerprogramprodukts annehmen, das in einem beliebigen greifbaren Ausdrucksmedium mit computerverwendbaren Programmcode, der in dem Medium ausgeführt ist, ausgeführt sein kann.
  • Eine beliebige Kombination aus einem oder mehreren computernutzbaren oder computerlesbaren Medien können verwendet werden. Beispielsweise kann ein computerlesbares Medium eine oder mehrere von einer tragbaren Computerdiskette, einer Festplatte, einem Direktzugriffsspeicher (RAM), einem Nurlesespeicher (ROM), einem elektronisch programmierbaren Speicher (EPROM oder Flash-Speicher), einem tragbaren Compactdisc-Nurlesespeicher (CD-ROM), einer optischen Speichervorrichtung und einer magnetischen Speichervorrichtung beinhalten. In ausgewählten Ausführungsformen kann ein computerlesbares Medium ein beliebiges nichtflüchtiges Medium umfassen, welches das Programm zur Verwendung durch oder in Verbindung mit dem Anweisungsausführungssystem, -gerät oder der Anweisungsausführungsvorrichtung enthalten, speichern, kommunizieren, verbreiten oder transportieren kann. Computerprogrammcode zum Ausführen von Vorgängen der vorliegenden Offenbarung können in einer beliebigen Kombination einer oder mehrerer Programmiersprachen, wie zum Beispiel Java, Smalltalk, C++ oder ähnlichen, oder in herkömmlichen Prozeduralprogrammiersprachen, wie zum Beispiel der „C“-Programmiersprache oder ähnliche Programmiersprachen, geschrieben sein. Der Programmcode kann komplett auf einem Computersystem als ein Einzelsoftwarepaket, auf einer Einzelhardwareeinheit, teilweise auf einem Ferncomputer, der sich in einem gewissen Abstand von dem Computer befindet oder komplett auf einem Ferncomputer oder -server ausgeführt werden. Im letzteren Szenario kann der Ferncomputer mit dem Computer über eine beliebige Art Netz verbunden sein, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzes (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (beispielsweise über das Internet mittels eines Internetserviceanbieters).
  • Die vorliegende Offenbarung wird im Folgenden unter Bezugnahme auf Abbildungen von Ablaufdiagrammen und/oder Blockdiagrammen von Verfahren, Geräten (Systeme) und Computerprogrammprodukten gemäß den Ausführungsformen der Offenbarung beschrieben. Es versteht sich, dass jeder Block der Ablaufdiagrammabbildungen und/oder Blockdiagramme von Computerprogrammanweisungen oder -code umgesetzt werden kann. Diese Computerprogrammanweisungen können einem Prozessor eines Allzweckcomputers, eines speziellen Computers oder einem anderen programmierbaren Datenverarbeitungsgerät zum Produzieren einer Maschine bereitgestellt werden, sodass die Anweisungen, die über den Prozessor des Computers oder das andere programmierbaren Datenverarbeitungsgerät ausgeführt werden, Mittel zum Umsetzen der in dem/den Ablaufdiagramm- und/oder Blockdiagrammblock/-blöcken angegebenen Funktionen/Vorgänge schaffen.
  • Diese Computerprogrammanweisungen können auch in einem nichtflüchtigen, computerlesbaren Medium gespeichert sein, das einen Computer oder ein anderes programmierbares Datenverarbeitungsgerät dazu anleiten kann, auf eine bestimmte Art und Weise zu funktionieren, sodass die in dem computerlesbaren Medium gespeicherten Anweisungen einen Fertigungsartikel einschließlich Anweisungsmittel produzieren, welche die Funktion/den Vorgang, der/die in dem/den Ablaufdiagramm- und/oder Blockdiagrammblock/-blöcken angegeben ist, umsetzen.
  • Die Computerprogrammanweisungen können auch in einen Computer oder ein anderes programmierbares Datenverarbeitungsgerät geladen werden, um die Ausführung von einer Reihe von Betriebsschritten auf dem Computer oder anderem programmierbaren Datenverarbeitungsgerät zu veranlassen, um einen computerimplementierten Prozess zu produzieren, sodass die Anweisungen, die auf dem Computer oder anderen programmierbaren Gerät ausgeführt werden, Prozesse zum Umsetzen der in dem/den Ablaufdiagramm- und/oder Blockdiagrammblock/-blöcken angegebenen Funktionen/Vorgänge bereitstellen.
  • Unter Bezugnahme auf 1 kann eine Steuerung 102 in einem Fahrzeug untergebracht sein. Das Fahrzeug kann ein beliebiges im Stand der Technik bekanntes Fahrzeug sein. Das Fahrzeug kann sämtliche Strukturen und Merkmale eines beliebigen im Stand der Technik bekannten Fahrzeugs aufweisen, einschließlich Räder, einem an die Räder gekoppelten Antriebsstrang, einem an den Antriebsstrang gekoppelten Motor, einem Lenksystem, einem Bremssystem und anderen nach dem Stand der Technik in einem Fahrzeug beinhalteten Systemen.
  • Wie hierin detaillierter besprochen, kann die Steuerung 102 autonome Navigation und Kollisionsvermeidung durchführen. Insbesondere kann die Steuerung 102 gemäß einer Ausführungsform der vorliegenden Offenbarung authentifizierte V2V-Kommunikation durchführen.
  • Die Steuerung 102 kann an eine nach vorn gerichtete Kamera 104 und an eine rückwärtig gerichtete Kamera 106 gekoppelt sein. Die nach vorn gerichtete Kamera 104 kann an ein Fahrzeug mit einem nach vorn gerichteten Sichtfeld montiert sein und die rückwärtig gerichtete Kamera 106 kann mit rückwärts gerichtetem Sichtfeld an dem Fahrzeug montiert sein. Die rückwärtig gerichtete Kamera 106 kann eine herkömmliche Rückfahrkamera oder eine separate Kamera mit einem anderen Sichtfeld sein. Die Kameras 104, 106 können zum Durchführen von Authentifizierungsverfahren wie hierin offenbart genutzt werden und können zusätzlich zum Durchführen von Hinderniserkennung genutzt werden.
  • Die Steuerung 102 kann an ein oder mehrere Sensorvorrichtungen 108 gekoppelt sein, zu denen Mikrofone oder andere Sensoren gehören können, die nützlich zu, Detektieren von Hindernissen sind, wie zum Beispiel RADAR, LIDAR, SONAR, Ultraschall und ähnlichen. Zum Beispiel kann eine Vielzahl verschiedener Sensoren an ein fortgeschrittenes Fahrerhilfesysteme-(ADAS)-Bus- oder -System angebunden sein. Beliebige dieser verfügbaren Sensoren können zur Verfügung stehen, um Sensordaten zu Zwecken der Fahrhilfe, des automatisierten Fahrens und/oder des Authentifizierens von Fahrzeug-zu-Fahrzeug-(V2V)-Kommunikation bereitzustellen.
  • Die Steuerung 102 kann ein V2V-Modul 110 ausführen. Das V2V-Modul 110a beinhaltet ein Standortverifizierungsmodul 112a. Das Standortverifizierungsmodul 112a verifiziert, ob ein anderes Fahrzeug, das mit der Steuerung 102 mittels V2V-Kommunikation zu kommunizieren sucht, tatsächlich ein Fahrzeug in der Nähe der Steuerung 102 ist. Insbesondere verifiziert das Standortverifizierungsmodul 112a den Standort des anderen Fahrzeugs durch Austauschen von Bildern oder anderen Sensordaten (z. B. Frames von RADAR, LIDAR, SONAR, Ultraschall oder andere Sensordaten), Objektkarten und/oder Geschwindigkeitskarten, wie unten ausführlicher besprochen.
  • Das V2V-Modul 110a kann ferner ein Authentifizierungsmodul 112b beinhalten. Authentifizierungsmodul 112b führt Schlüsselaustausch, wie zum Beispiel mittels des Diffie-Hellman-Ansatzes, Verschlüsselung mit öffentlichem Schlüssel oder eine andere Authentifizierungstechnik aus. Das Authentifizierungsmodul 112b kann ferner das Durchführen gesicherter Kommunikation zwischen der Steuerung und dem anderen Fahrzeug handhaben. Die Art und Weise, in der Authentifizierung und gesicherte Kommunikation durchgeführt werden, wird unten ausführlicher beschrieben.
  • Die Steuerung 102 kann ferner ein Hindernisidentifizierungsmodul 110b, ein Kollisionsvorhersagemodul 110c und ein Entscheidungsmodul 110d ausführen. Das Hindernisidentifizierungsmodul 110b kann ein oder mehrere Bildströme von den Kameras 104, 106 oder einer anderen Kamera analysieren und identifiziert potenzielle Hindernisse, einschließlich Menschen, Tiere, Fahrzeuge, Gebäude, Bordsteine und andere Objekte und Strukturen. Das Hindernisidentifizierungsmodul 110b kann zusätzlich potenzielle Hindernisse von Ausgaben der Sensorvorrichtungen 108 identifizieren, wie zum Beispiel mittels Daten von einem LIDAR, RADAR, Ultraschall oder anderem Sensorsystem.
  • Das Kollisionsvorhersagemodul 110c prognostiziert, bei welchen Hindernissen die Wahrscheinlichkeit besteht, dass sie basierend auf der aktuellen Bewegungsbahn oder dem aktuellen beabsichtigten Fahrweg des Fahrzeugs mit diesem kollidieren. Das Entscheidungsmodul 110d kann eine Entscheidung treffen, anzuhalten, zu beschleunigen, abzubiegen usw., um Hindernisse zu vermeiden. Die Art und Weise, in der das Kollisionsvorhersagemodul 110c potenzielle Kollisionen prognostiziert und die Art und Weise, in der das Entscheidungsmodul 110d Maßnahmen ergreift, potenzielle Kollisionen zu vermeiden, kann gemäß einem beliebigen im Stand der Technik autonomer Fahrzeuge bekannten Verfahren oder System erfolgen.
  • Das Entscheidungsmodul 110d kann die Bewegungsbahn des Fahrzeugs durch Betätigen einer oder mehrerer Betätigungsvorrichtungen 114 steuern, welche die Richtung und Geschwindigkeit des Fahrzeugs steuern. Beispielsweise können zu den Betätigungsvorrichtungen 114 eine Lenkbetätigungsvorrichtung 116a, eine Beschleunigerbetätigungsvorrichtung 116b und eine Bremsbetätigungsvorrichtung 116c zählen. Die Konfiguration der Betätigungsvorrichtungen 116a-116c kann gemäß einer beliebigen Umsetzung derartiger im Stand der Technik autonomer Fahrzeuge bekannten Betätigungsvorrichtungen erfolgen.
  • 2 ist ein Blockdiagramm, das eine beispielhafte Rechenvorrichtung 200 darstellt. Die Rechenvorrichtung 200 kann zum Durchführen verschiedener Prozeduren verwendet werden, wie den hierin besprochenen. Die Steuerung 102 kann manche oder alle Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Eingabe/Ausgabe-(E/O)-Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, die sämtlich an den Bus 212 gekoppelt sind. Der/die Prozessor(en) 202 beinhaltet/beinhalten einen oder mehrere Prozessoren oder Steuerungen, die in der/den Speichervorrichtung(en) 204 und/oder Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der/die Prozessor(en) 202 kann/können auch verschiedene Arten computerlesbarer Medien beinhalten, wie zum Beispiel Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie zum Beispiel flüchtige Speicher (z. B. Direktzugriffsspeicher (RAM) 214) und/oder nichtflüchtige Speicher (z. B. Nurlesespeicher (ROM) 216). Die Speichervorrichtung(en) 204 kann/können auch überschreibbare ROM beinhalten, wie zum Beispiel Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie zum Beispiel Magnetbänder, optische Platten, Festspeicher (z. B . Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine bestimmte Massenspeichervorrichtung eine Festplatte 224. Verschiedene Laufwerke können ebenfalls in der/den Massenspeichervorrichtung(en) 208 beinhaltet sein, um das Lesen von und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhalten entfernbare Medien 226 und/oder nichtentfernbare Medien.
  • Die E/A-Vorrichtung(en) 210 beinhalten verschiedene Vorrichtungen, die Daten und/oder anderen Informationen ermöglichen, in die Rechenvorrichtung 200 eingegeben oder von dieser abgerufen zu werden. Beispielhafte E/A-Vorrichtung(en) 210 beinhalten Cursorsteuerungsvorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Netzwerkschnittstellenkarten, Modems, Objektive, CCD oder andere Bilderfassungsvorrichtungen und Ähnliches.
  • Die Anzeigevorrichtung 230 beinhaltet eine beliebige Art von Vorrichtung, die in der Lage ist, einem oder mehreren Benutzern der Rechenvorrichtung 200 Informationen anzuzeigen. Zu Beispielen für die Anzeigevorrichtung 230 gehören ein Bildschirm, ein Anzeigeterminal, eine Videoprojektionsvorrichtung und Ähnliches.
  • Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenvorrichtungen zusammenzuwirken. Zu beispielhaften Schnittstelle(n) 206 gehören eine beliebige Anzahl verschiedener Netzwerkschnittstellen 220, wie zum Beispiel Schnittstellen zu Lokalnetzwerken (LAN), Weitverkehrsnetzen (WAN), drahtlosen Netzwerken und dem Internet. Andere Schnittstelle(n) beinhalten die Benutzerschnittstelle 218 und Peripheriegerätschnittstelle 222. Die Schnittstelle(n) 206 können auch eine oder mehrere Peripherieschnittstellen wie zum Beispiel Schnittstellen für Zeigevorrichtungen (Maus, Trackpad usw.), Tastaturen und Ähnliches beinhalten.
  • Der Bus 212 ermöglicht es Prozessor(en) 202, Speichervorrichtung(en) 204, Schnittstelle(n) 206, Massenspeichervorrichtung(en) 208, E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230, miteinander zu kommunizieren, sowie anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind. Der Bus 212 stellt einen oder mehrere von verschiedenen Typen von Busstrukturen dar, wie zum Beispiel einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zu Veranschaulichungszwecken sind Programme und andere ausführbare Programmkomponenten hierin als Einzelblöcke gezeigt, obwohl es sich versteht, dass derartige Programme und Komponenten zu verschiedenen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 ansässig sein können und von dem/den Prozessor(en) 202 ausgeführt werden. Alternativ dazu können die hierin beschriebenen Systeme und/oder Prozeduren in Hardware oder einer Kombination von Hardware, Software und/oder Firmware umgesetzt werden. Beispielsweise können ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASIC) dazu programmiert werden, eine oder mehrere der hierin beschriebenen Systeme und Prozeduren zu realisieren.
  • Um die Authentifizierung von V2V-Kommunikationen zu verbessern, stellen die hierin offenbarten Systeme, Verfahren und Vorrichtungen eine kryptografische Anmeldeinformation mit einer physischen Identität und Kopräsenz-Komponente bereit, um beim Ableiten eines Standorts zu helfen. Hierin wird ein Fahrzeugauthentifizierungsansatz („VAuth“) offenbart und eine sichere, authentifizierte Schlüsselvereinbarungsmethode bereitgestellt, der die oben genannten Bedenken in Bezug auf V2V-Kommunikationen angeht, während die Fahrzeuge auf der Straße gefahren werden. Der VAuth-Ansatz beinhaltet das Erfassen der visuellen Kontextinformationen eines Kraftwagens mithilfe einer Kamera als Mittel, um seine physische Identität und seine Kopräsenz an ein anderes Fahrzeug zu binden. Insbesondere haben zwei sich fortbewegende Fahrzeuge auf der Straße ein einzigartiges Paar relativen Abstands (d) und Winkel (Φ) an einem bestimmten Zeitpunkt, das kein anderes Fahrzeug erfahren kann.
  • Beispielsweise veranschaulicht 3 eine Ausführungsform der Verwendung von VAuth 300. In der Ausführung nehmen sowohl das Fahrzeug A als auch das Fahrzeug B gleichzeitig einen Snapshot voneinander auf (z. B. innerhalb einer Sekunde, vorzugsweise innerhalb von 100 ms, noch bevorzugter innerhalb von 10 ms) und tauschen die Bilder aus, um ihre relative d und Φ nachzuweisen. Insbesondere nutzt VAuth 300 kryptografische Commitment- und Decommitment-Methoden, um den kryptografischen Schlüssel des Fahrzeugs an seine physische Identität (Nummernschild) und seine Kopräsenz (d and Φ) zu binden, was dabei hilft, den Standort abzuleiten.
  • Aufgrund dieser Bindung eliminiert VAuth 300 die oben genannten Location-Spoofing-Imitationsangriffe. Durch diese Bindung ist VAuth 300 außerdem widerstandsfähig gegen Man-in-the-Middle-(MitM)-Angriffe, die möglicherweise während der Schlüsselvereinbarungsschritte stattfinden. Zudem kann VAuth 300 auch Bildfälschungs- und Spoofingangriffe einschränken, weil jedes Fahrzeug die Gültigkeit des empfangenen Bildes mittels gemeinsam beobachteter Objekte verifizieren kann (z. B. benachbarte Fahrzeuge, Verkehrsschilder, Gelände im Hintergrund usw.).
  • VAuth 300 ermöglicht automatisierte Schlüsseletablierung unter mobilen Fahrzeugen, selbst wenn die folgenden Bedingungen vorhanden sind. Erstens könnte eine Erfordernis für dezentrales Vertrauensmanagement vorliegen, was den traditionellen Ansatz des Verlassens auf eine entfernte und zentrale vertraute Drittpartei (trusted third party - TPP) fragwürdig macht. TTP sind mit hohen Verwaltungskosten verbunden und anfällig für einen sogenannten „Single Point of Failure“. Zweitens ist es möglich, dass aufgrund schneller Dynamiken von sich im Verkehr fortbewegenden Fahrzeugen keine Erfordernis für menschliche Interaktion und menschlichen Eingriff besteht. Fahrer und Fahrgäste in den Loop mit einzuschließen beeinträchtigt nicht nur die Nutzbarkeit, sondern kann auch beträchtlich von Fahraufgaben ablenken. Drittens ist es möglich, dass eine Erfordernis zur Nutzung von verfügbarer Hardware in Fahrzeugen vorliegt, um die Fahrzeugkosten niedrig zu halten.
  • Das Hauptziel von VAuth 300 ist, vor Location-Spoofing-Imitationsangriffen bei V2V-Kommunikationen zu schützen, indem die physische Identität und Kopräsenz des Paars benachbarter Kraftwagen gebunden wird. Wir definieren „benachbarte Fahrzeuge“ als Fahrzeuge, die in Sichtlinie voneinander liegen (d. h. im Blickfeld der Kamera). Dadurch befähigen wir ein Paar Fahrzeuge, einen sicheren Kanal zu etablieren, indem eine sichere Adhoc-Schlüsselvereinbarung durchgeführt wird. Dieser Prozess wird als „Pairing“ bezeichnet. Das Schlüsselvereinbarungsprotokoll sollte widerstandsfähig gegen aktive Angriffe wie Manin-the-Middle-(MitM)- und Image-Spoofing-Angriffe sein. VAuth 300 erhöht die Integrität und Authentizität von Schlüsselvereinbarungsmeldungen. Integrität und Authentizität gewährleisten, dass die Schlüsselvereinbarungsmeldungen unverändert von dem angegebenen Sender kommen.
  • Zusammenfassend offenbart die hierin beinhaltete Beschreibung von VAuth 300 Folgendes:
  • (a) ein sicheres V2V-Schlüsselvereinbarungsprotokoll, dass physische Identität und Präsenz an einen kryptografischen Schlüssel bindet; (b) eine Sicherheitsanalyse des VAuth-Protokolls, um dessen Widerstandskraft gegen MitM-Angriffe zu demonstrieren; (c) eine Umsetzung und Bewertung von VAuth, die mit echten Fahrzeugen durchgeführt wurde.
  • Das Ziel des Angreifers besteht darin, die Integrität und Authentizität der Schlüsselvereinbarungsmethode zwischen zwei legitimen Fahrzeugen zu verletzen. Diese Anwendung zieht sowohl passive als auch aktive Angreifer in Betracht. Passive Angreifer beobachten nur die drahtlose Kommunikation in dem Versuch, Angriffe zu starten (z. B. Abhörattacken). Aktive Angreifer können Meldungen in den Kommunikationskanal einschleusen, sie erneut abspielen, abändern und löschen. In dieser Anwendung wird ein Ansatz offenbart, der mit Angreifern umgeht, die sich am gleichen Ort wie legitime Einheiten befinden, d. h. benachbarte Fahrzeuge, die auf der Straße unterwegs sind.
  • VAuth 300 nutzt visuelle Bilder der Kontextinformationen der Fahrzeuge, um die Authentizität während eines Pairing-Prozesses zu verifizieren. Ein beliebiges Paar benachbarter Fahrzeuge und nur dieses jeweilige benachbarte Paar von Fahrzeugen teilt und erfährt einen einzigartigen relative Abstand (d) und Winkel (Φ) zu einem spezifischen Zeitpunkt, die kein anderes Fahrzeug erfährt (wobei 0 ≤ ϕ ≤ 2π). Beispielsweise teilen die Fahrzeuge A und B in 3 relativen Abstand und Winkel. Es wird angemerkt, dass es für ein anderes Paar Fahrzeuge (z. B. Fahrzeuge B und C) möglich ist, ihren eigenen d und Φ relativ zueinander zu haben, doch es ist unmöglich, denselben d und Φ relativ zu Fahrzeug A zu haben.
  • Die Fahrzeuge weisen ihre Authentizität nach, indem sie einen Kamera-Snapshot voneinander aufnehmen, um d und Φ als Nachweis zu präsentieren. Das Paar Fahrzeuge identifiziert einander als „Ziel“-Fahrzeuge, indem periodische Baken-Meldungen initiiert werden. Die zwei Fahrzeuge tauschen Baken-Meldungen aus, die ihre Kennungen (d. h. Nummernschild) enthalten. Falls die Kennungen nicht in der „Paired“-Liste des jeweils anderen Fahrzeugs gefunden werden, identifizieren die zwei Fahrzeuge einander als das „Ziel“-Fahrzeug für Pairing.
  • Unter Bezugnahme auf 3 können sich die legitimen Fahrzeuge A und B mittels VAuth 300 in der Anwesenheit eines Angriffsfahrzeugs M und möglicherweise eines oder mehrerer gutartiger Fahrzeuge C paaren. Jedes Fahrzeug kann eine nach vorne gerichtete Kamera 104A, 104B, 104M und eine rückwärtig gerichtete Kamera 106A, 106B, 106M aufweisen. Die Fahrzeuge A und B können einander als Ziele für V2V-Kommunikation identifizieren. Anschließend machen die zwei Fahrzeuge ein Foto voneinander und tauschen die Bilder über den drahtlosen DSRC-Kanal aus. Insbesondere enthalten Snapshots, die von der rückwärtigen Kamera 106A des Fahrzeugs A aufgenommen werden, ein Bild der Vorderseite von Fahrzeug B, und entsprechend enthält die vordere Kamera 104B des Fahrzeugs B ein Bild der Rückseite von Fahrzeug A.
  • Werden die Bilder von den beabsichtigten Fahrzeugen aufgenommen (und nicht von einem benachbarten Fahrzeug), dann sollten diese Bilder denselben relativen Abstand, d, teilen. Insbesondere sollte der Abstand dA zwischen den Fahrzeugen A und B, wie von Fahrzeug A mittels des Fahrzeug B enthaltenden Bilds gemessen, gleich (d. h. innerhalb gewisser Toleranzgrenzen) dem Abstand dB sein, der mittels des vom Fahrzeug B empfangenen und das Fahrzeug A enthaltenden Bilds gemessen wurde, und umgekehrt. Ebenso sollte der Winkel ΦA zwischen den Fahrzeugen A und B, wie von Fahrzeug A mittels des Fahrzeug B enthaltenden Bilds gemessen, gleich (d. h. innerhalb gewisser Toleranzgrenzen) dem Winkel ΦB sein, der mittels des vom Fahrzeug B empfangenen und das Fahrzeug A enthaltenden Bilds gemessen wurde. Diese Bedingung kann als |dA - dB| < εd and |ΦA - ΦB| < εϕ ausgedrückt werden, wobei εd eine Abstandstoleranz ist und a εϕ eine Winkeltoleranz ist.
  • Wo diese Bedingung nicht erfüllt ist, wird der Pairing-Prozess beendet.
  • Die Sicherheit von VAuth 300 hängt von der Einzigartigkeit des Abstands (dA , dB ) und Winkels (ΦA, ΦB) eines Paars von Fahrzeugen zu einem bestimmten Zeitpunkt ab. Betrachten wir jedoch ein Szenario, in dem ein Angreifer, das Fahrzeug M, wie in 3 abgebildet, entlang der Fahrzeuge A und B fährt. Um einen MitM-Angriff zu starten, schätzt das Fahrzeug M den relativen Abstand (dM∼= dA) und Winkel (ΦM ~= ΦA) und gibt sich dem Fahrzeug B gegenüber als Fahrzeug A aus, indem es einfach ein Bild des Opferfahrzeugs (Fahrzeug B) mit einem Bild aus einem Pool vorbereiteter Bilder mit verschiedenen Abständen und Winkeln relativ zum Fahrzeug B „spooft“. Der Angreifer kann ein „Lexikon“ von Bildern offline anlegen, zum Beispiel wenn das Opferfahrzeug (Fahrzeug B) auf einer Straße geparkt ist.
  • In manchen Ausführungsformen verhindert VAuth 300 derartige Angriffe durch Ausnutzen der Tatsache, dass die Umgebungen beider Fahrzeuge (z. B. benachbarte Fahrzeuge, Straßenschilder, Hintergrundobjekte/-ansichten usw.) annähernd gleich sein sollten. Daher erfordert VAuth 300, dass Fahrzeuge A und B wie abgebildet sowohl Vorder- (VA F und VB F ) als auch Rückaufnahmen (VA R und VB R ) machen. Jedes Fahrzeug kann deshalb die Bilder vergleichen, um zu prüfen, ob die Bilder ähnliche Umgebungen enthalten. Beispielsweise sollten VAF und VBF gemeinsame Merkmale teilen, da sie in dieselbe Richtung weisen, und VAR und VBR sollten ebenfalls gemeinsame Merkmale teilen. Falls diese Prüfung scheitert, verweigern die Fahrzeuge den Pairing-Prozess.
  • Das VAuth 300-Protokoll beinhaltet vier Phasen: (1) Synchronisierung; (2) Snapshot; (3) Schlüsselvereinbarung; und (4) Schlüsselbestätigungsphase. Jede Phase wird im Folgenden ausführlich in Bezug auf den Algorithmus in Tabelle 1 unten besprochen. Die Definitionen der Variablen des Algorithmus in Tabelle 1 sind in Tabelle 2 enthalten. Tabelle 1. VAuth-Protokoll.
    VAuth Protocol
    (Phase 1) Synchronisierung
    1. A D S R C A U
    Figure DE102018120655A1_0001
    : BEACONA = IDA
    2. B : Gegenprüfung in „paired-Liste“.
    Abbruch falls gefunden.
    3. B D S R C A
    Figure DE102018120655A1_0002
    : RQST_TO_PAIR
    4. A : Gegenprüfung in „paired-Liste“.
    Abbruch falls gefunden.
    5. A D S R C B
    Figure DE102018120655A1_0003
    : SYNCAB
    (Phase 2) Snapshot
    6. A C a m B
    Figure DE102018120655A1_0004
    : Snapshots:
    A :Vorn ( VA F ) und hinten (VA R );
    B : Vorn (VB F ) und hinten (VB R ).
    (Phase 3) Schlüsselvereinbarung
    7. A D S R C B
    Figure DE102018120655A1_0005
    : CA=H(ga||IDA||VA F ||VA R )
    8. B D S R C A
    Figure DE102018120655A1_0006
    : CB=H(gb||IDB||VB F ||VB R )
    9. A D S R C B
    Figure DE102018120655A1_0007
    : DA=ga||IDA||VA F ||vA R
    B : Falls verifyCmmt() == zutreffend annehmen ga;
    Berechnet gemeinsamen Schlüssel = K' = (gb)a;
    Abbruch bei Scheitern der Verifizierung
    10. B D S R C A
    Figure DE102018120655A1_0008
    : DB=gb||IDB||VB F ||VB R
    A : Falls verifyCmmt()==zutreffend.annehmen gb;
    Berechnet gemeinsamen Schlüssel = K' = (gb)a;
    Abbruch bei Scheitern der Verifizierung
    (Phase 4) Schlüsselbestätigung
    Figure DE102018120655A1_0009
    11. A : n A R { 1,0 } n .
    Figure DE102018120655A1_0010
    A D S R C B
    Figure DE102018120655A1_0011
    : nA||MK'(nA)
    12. B : n B R { 1,0 } n .
    Figure DE102018120655A1_0012
    B D S R C A
    Figure DE102018120655A1_0013
    : nB||MK(nA||nB)
    13. A : M K ( n A n B ) = ? M K ' ( n A n B ) ;
    Figure DE102018120655A1_0014
    Abbruch bei Scheitern der Bestätigung
    A D S R C B
    Figure DE102018120655A1_0015
    : MK'(nB)
    14. B : M K ( n B ) = ? M K ( n B ) ;
    Figure DE102018120655A1_0016
    Abbruch bei Scheitern der Bestätigung
    Tabelle 2. Notationen für VAuth-Protokoll.
    Notation Beschreibung
    D S R C
    Figure DE102018120655A1_0017
    Bandinterner drahtloser Dedicated Short-Range Communication-Kanal
    C a m
    Figure DE102018120655A1_0018
    Kamera-Snapshot voneinander
    MK(x) MAC (z. B. HMAC) wird über die Eingabe x mittels Schlüssel K berechnet
    gx Öffentlicher Diffie-Hellman-Parameter (mod p der Kürze halber weglassen)
    H(x) Kryptografischer Hash (z. B. SHA-3) der Eingabe x
    {0, 1}i Zufällige Binärzeichenfolge mit Länge i
    VX f Vorderes Snapshot-Bild, aufgenommen von Fahrzeug X
    VX R Rückwärtiges Snapshot-Bild aufgenommen von Fahrzeug X
  • In der Synchronisierungsphase überträgt jedes Fahrzeug eine periodische Baken-Meldung, um zu versuchen, das VAuth-300-Protokoll zu initiieren. Die Baken-Meldung ist einfach eine Ausstrahlung seiner Fahrzeugkennung (z. B. Nummernschild, IDA, IDB). Unter weiterer Bezugnahme auf 3 strahlt das Fahrzeug A seine Baken-Meldung, BEACONA, aus, und Fahrzeug B empfängt die Meldung wie in Tabelle 1 dargestellt. Bei Empfang von BEACONA führt Fahrzeug B eine Gegenprüfung in seiner „paired“-Liste durch. Falls IDA nicht in der Liste gefunden wird, schickt Fahrzeug B eine Pairing-Anfrage an Fahrzeug A. Entsprechend führt auch Fahrzeug A eine Gegenprüfung des Nummernschilds von Fahrzeug B (IDB) in seiner „paired“-Liste (Schritt 2-4 in Tabelle 1) durch. Wird es nicht aufgefunden, überträgt Fahrzeug A eine Synchronisierungsmeldung an Fahrzeug B, um eine synchronisierte Snapshot-Phase zu initiieren, damit beide Fahrzeuge einander als „Ziel“-Fahrzeug zum Pairing identifizieren (Schritt 5 in Tabelle 1). Es sei angemerkt, dass das Protokoll weiter modifiziert werden kann, sodass, falls ein Fahrzeug mehrere Pairing-Anfragen empfängt, das Fahrzeug die Anfragen mittels anderer, zusammen mit den Anfragen gesendeten Informationen (z. B. GPS-Standortinformationen zum Priorisieren von Anfragen basierend auf der Nähe der zwei Fahrzeuge) priorisieren kann.
  • In der Snapshot-Phase, nach der Synchronisierungsphase und als Reaktion auf die Meldungen, die während der Synchronisierungsphase empfangen werden, nehmen sowohl Fahrzeug A als auch Fahrzeug B gleichzeitig Snapshots der Vorder- und Rückansichten auf, wie in Schritt 6 in Tabelle 1 gezeigt. Auf Vorder- und Rückaufnahmen, die von Fahrzeug A und B gemacht werden, wird jeweils mit VA F und VA R sowie VB F und VB R Bezug genommen. Synchronisierte Fotoaufnahmen können von Fahrzeug A und B unter Koordinierung des Zeitpunkts, an dem die Fotos zu machen sind, durchgeführt werden.
  • 4A und 4B zeigen jeweils VA F und VB F für das Szenario in 3. 5A und 5B zeigen VA R und VB R für das Szenario in 3.
  • In the der Schlüsselvereinbarungsphase tauschen Fahrzeuge A und B zuerst ihre Commitments (CA und CB ) aus und enthüllen später ihre Decommitments (DA und DB ). Jedes Fahrzeug nutzt Commitments, um die öffentlichen Diffie-Hellman-(DH)-Parameter (ga oder gb ) über Bilder ({VA F F||VA R }) oder ({VB F ||VB R }) an die Fahrzeug-ID (IDA oder IDB), bei der es sich um das Nummernschild handelt, und die physische Kopräsenz zu binden. Es sei angemerkt, dass wir mod p der Kürze halber für alle öffentlichen DH-(Diffie-Hellman)-Parameter weglassen, mod p kann aber immer noch verwendet werden. Schritt 7-8 in Tabelle 1 zeigen den Austausch von Commitments. Daraufhin tauschen die Fahrzeuge Decommitments aus, wie in Schritt 9-10 in Tabelle 1 gezeigt, um ihre einander anvertrauten Informationen offenzulegen.
  • Bei Empfang der Decommitments führt jedes Fahrzeug eine Verifizierung durch. Tabelle 3 zeigt die Logik von Fahrzeug B bei Verifizieren des Decommitments (DA ), das es von Fahrzeug A empfangen hat. Zuerst verifiziert Fahrzeug B, ob DA tatsächlich der Hash von CA (Zeile 2-5 in Tabelle 3) ist. Falls zutreffend, findet Fahrzeug B heraus, welches Bild (vorderes oder rückwärtiges) das Nummernschild des Zielfahrzeugs enthält (Zeile 7-9 in Tabelle 3). Beispielsweise sollte VB VBF zugeordnet werden, da das Bild VBF das Nummernschild von Fahrzeug A (IDA) enthält, weil Fahrzeug A sich vor Fahrzeug B befindet. Tabelle 3. Pseudocode zur Commitment-Verifizierung
    Algorithmus 1 - Pseudocode der Commitment-Verifizierung von Fahrzeug B im VAuth-Protokoll abgebildet in 4, Schritt 9
    1: Prozedur VERIFYCMMT(CA, DA, VB F , VB R )
    2: ▹ Zeigt FALSCH an Falls DA is kein Decommitment of CA
    3: Falls. CA! = H(DA) dann
    4: Zeigt FALSCH an
    5: Beenden Falls
    6:
    7: ▹ Findet heraus, welches Bild ID des Zielfahrzeugs enthält
    8: VB ← whichImageContainsID(VB F , VB R , IDA)
    9: VA ← whichImageContainsID(VA F , VA R , IDB)
    10:
    11: ▹ Berechnet relativen Abstand und Winkel aus Bildern
    12: DV B ← computeDistance(VB, IDA)
    13: ϕV B ← computeAngle(VB, IDA)
    14: DV AA ← computeDistance(VA, IDB)
    15: ϕV A ← computeAngle(VA, IDB)
    16:
    17: ▹ Zeigt FALSCH an, falls Prüfung scheitert
    18: Falls((DV A - ∈D <= DV B <= DV A + ∈D) &&
    V A - εϕ <= ϕV B <= ϕV A + ∈ϕ)) dann
    19: Zeigt FALSCH an
    20: Beenden Falls
    21: ▹ Zeigt FALSCH an, falls Spoofingangriff vermutet wird
    22: Falls((DV B - ∈D <= DV A <= DV B +∈D) &&
    V B - ∈ϕ <= ϕV A <= ϕV B + ∈ϕ)) dann
    23: Zeigt FALSCH an
    24: Beenden Falls
    25:
    26: ▹ Zeigt FALSCH an, falls Spoofingangriff vermutet wird
    27: Falls (spoofingAttackDetected(VA F , VB F ) ||
    spoofingAttackDetected(VA R ,VB R R)) dann
    28: Zeigt FALSCH an
    29: Beenden Falls
    30:
    31: ▹ Erfolgreich verifiziert
    32: Zeigt RICHTIG an
    33: Prozedur beenden
  • Daraufhin fährt Fahrzeug B fort, den relativen Abstand und Winkel der Fahrzeuge A und B (Zeile 11-15 in Tabelle 3) zu verifizieren, und zwar durch Berechnen des Abstands und Winkels aus den Bildern, VB und VA . Daher sind DV B und ϕV B der relative Abstand und Winkel von Fahrzeug B zur Position des Nummernschilds von Fahrzeug A (IDA). Ähnlich entsprechen DV A und ϕV A denen des Fahrzeugs A zur Position des Nummernschilds von Fahrzeug B (IDB). Falls das Paar relativer Abstände {DV B and DV A } und Winkel {ϕV B and ϕV A } nicht innerhalb einer Fehlergrenze liegt, bricht Fahrzeug B den Pairing-Prozess ab (Zeile 17-24 in Tabelle 3). Potenzielle Image-Spoofing-Angriffe werden ebenfalls von Fahrzeug B detektiert (Zeile 26-31 in Tabelle 3). Ein Paar Bilder, das in dieselbe Richtung ausgerichtet ist (d. h. vorwärts = {VA F ,VB F } und rückwärts ={VA R , VB R }, wird in die spoofingAttackDetected()-Funktion eingegeben, um zu testen, ob die Snapshots tatsächlich gleichzeitig von Fahrzeug A und B aufgenommen werden. Wie oben besprochen kann diese Prüfung auch beinhalten, dass die Ähnlichkeit der Umgebungen in jedem Bild geprüft wird. Sobald Fahrzeug B erfolgreich das Decommitment von A (DA ) verifiziert, akzeptiert B den DH-Parameter von Fahrzeug A, ga , und berechnet einen symmetrischen Schlüssel, K = (ga)b, den sie miteinander teilen. Ähnlich verifiziert Fahrzeug A ebenfalls das Decommitment von Fahrzeug B (DB ), und ist die Verifizierung erfolgreich, berechnet es einen symmetrischen Schlüssel, K' = (gb)a, den sie miteinander teilen.
  • In der Schlüsselbestätigungsphase führen die Fahrzeuge A und B nach Berechnen des miteinander geteilten symmetrischen Schlüssels eine Schlüsselbestätigung durch, um zu verifizieren, dass beide Kraftwagen tatsächlich denselben Schlüssel erzeugen. Dies ist in Schritt 11-14 in Tabelle 1 gezeigt. Fahrzeug A überträgt eine nach dem Zufallsprinzip erzeugte η-Bit-Nonce, ηA (η = 256) und seinen Message Authentication Code (MAC), berechnet mit dem abgeleiteten symmetrischen Schlüssel K', an Fahrzeug B. (Es sei darauf hingewiesen, dass in diesem Beispiel HMAC-SHA-3 mit einer 256 Hash-Bitlänge benutzt wird, jedoch auch andere Hash-Funktionen verwendet werden können.) Bei Empfang der Meldung verifiziert Fahrzeug B zuerst den MAC mittels seines abgeleiteten Schlüssels K. Falls erfolgreich, überträgt Fahrzeug B ebenfalls seine nach dem Zufallsprinzip erzeugte η-Bit-Nonce, (η = 256) ηB, zusammen mit einem über ηA||ηB mittels seinem symmetrischen Schlüssel K' berechneten MAC an Fahrzeug A. Fahrzeug A verifiziert den MAC und sendet bei Erfolg einen MAC, der über die ηB berechnet wurde, die es mit dem Schlüssel K' empfangen hat, an Fahrzeug B. Schließlich endet das VAuth 300-Protokoll mit der erfolgreichen MAC-Verifizierung von Fahrzeug B. Fahrzeug A und B verwenden jetzt den erzeugten symmetrischen Schlüssel, den sie miteinander teilen, als ihren Sitzungsschlüssel. In einer Ausführungsform wird die Wahrscheinlichkeit des Erfolgs eines Angreifers von einem willkürlichen Angriff auf gut Glück ohne jegliche Vorkenntnisse bis zu einem raffinierten Image-Spoofing-Angriff geschätzt. Ein einfacher Angriff eines Angreifers kann von einem Hacker durchgeführt werden, der die volle Kontrolle über den drahtlosen Kanal hat. Der Angreifer versucht, Fahrzeug A gegenüber Fahrzeug B zu imitieren und fälscht den öffentlichen DH-Schlüssel. In Tabelle 1, Schritt 7 und 9, überträgt Fahrzeug A sein Commitment und Decommitment (CA und DA ) an Kraftwagen B. Daher hindert der Angreifer, Fahrzeug M, zuerst Fahrzeug B daran, DA zu empfangen (z. B. durch Störfrequenzen), und sendet sein eigenes, gefälschtes DA' = ga'||IDA||VA F ||VA R . Da jedoch CA den öffentlichen DH-Schlüssel von Fahrzeug A, ga , zusammen mit IDA||VA F ||VA R bindet, entspricht die Wahrscheinlichkeit des Angreifers, PCarM, mit dem Angriff Erfolg zu haben, dem erfolgreichen Auffinden einer Hash-Kollision. Deshalb ist die Erfolgswahrscheinlichkeit des Angreifers durch die Länge der Hash-Funktion (256 Bits SHA-3) wie in Gleichung 1 gezeigt eingeschränkt, in der l die Hash-Bit-Länge ist (l = 256). P CarM = 2 l
    Figure DE102018120655A1_0019
  • Wenn er nicht in der Lage dazu ist, einen Angriff auf gut Glück hinreichend durchzuführen, ist es möglich, dass der Angreifer es mit raffinierteren Angriffen versucht. Der Angreifer versucht, sowohl den öffentlichen DH-Schlüssel (ga') als auch die Bilder (VA' F oder VA 'R ) zu fälschen, um Fahrzeug A gegenüber Fahrzeug B erfolgreich zu imitieren, sodass CA'= H(ga'||IDA||VA' F ||VA' R ). Es wird davon ausgegangen, dass der Angreifer, Fahrzeug M, zuerst ein „Lexikon“ von Bildern des Opfers mit unterschiedlichen Abständen und Winkeln anlegt (in diesem Beispiel Fahrzeug B). Fahrzeug M wählt ein vorbereitetes Bild VM von Fahrzeug B mit entsprechendem d und ϕ aus und überträgt das gefälschte Commitment (CA') und die gefälschten Decommitments (DA'), die VM beinhalten, einfach an Fahrzeug B. Der Angriff kann zur Sicherheitsanalyse in drei Fälle unterteilt werden, wie unten erläutert
  • In einem ersten Fall hat der Angreifer keinerlei Kenntnis von d und ϕ, und VAuth 300 prüft nicht auf Image-Spoofing-Angriffe. In diesem Fall wird davon ausgegangen, dass der Angreifer keinerlei Kenntnis vom relativen Abstand und Winkel zwischen Fahrzeug A und Fahrzeug B hat. Für eine einfachere Analyse gehen wir davon aus, dass das VAuth 300-Protokoll nicht auf Image-Spoofing-Angriffe prüft (daher können Zeile 26-31 von Tabelle 1 in diesem Fall weggelassen werden.). In diesem Fall muss Fahrzeug M d' und ϕ' auf gut Glück raten, um ein Bild auszuwählen, sodass die Werte innerhalb der Fehlergrenze liegen (∈d und ∈ϕ). Daher wird die Erfolgswahrscheinlichkeit des Angreifers wie in Gleichung 2 gezeigt, in der dmax der Maximalabstand im sichtbaren Bereich ist, was von der Kapazität einer Kamera abhängt. P C a r M = 2 ε ϕ 2 π 2 ε d d m a x
    Figure DE102018120655A1_0020
  • Im zweiten Fall hat der Angreifer Kenntnis von d und ϕ, und das VAuth 300-Protokoll prüft nicht auf Image-Spoofing-Angriffe. Es wird davon ausgegangen, dass der Angreifer entlang Fahrzeug A und B fährt und daher in der Lage ist, einen geschätzten Abstand und Winkel d und ϕ zu bestimmen.
  • 6 veranschaulicht dieses Szenario, bei dem Kraftwagen M versucht, den relativen Abstand, dAB, und den Winkel, ϕA, ϕB, zu finden. Fahrzeug M kennt seinen relativen Abstand zu Fahrzeug A und B (dAM und dBM) und die relativen Winkel (ϕX, ϕY, ϕM). Mittels simpler Trigonometrie berechnet Fahrzeug M den Abstand und Winkel wie in Gleichung 3 und Gleichung 4 gezeigt. In Gleichung 3 and 4 sind als dxy angegebene Abstände als der Abstand zwischen Punkt x und y definiert. Daher ist die Wahrscheinlichkeit eines Erfolgs des Angreifers immer (PCarM = 1). d A B = d A P 2 + d B P 2 = d A P 2 + ( d B M d B M ) 2 = ( d A M s i n ϕ M ) 2 + ( d B M d A M c o s ϕ M ) 2
    Figure DE102018120655A1_0021
    ϕ A ( = ϕ B ) = π 2 ϕ A ' ( = π 2 ϕ B ' ) = π 2 arccos ( d 3 d A B ) = π 2 arccos ( d 1 + d 2 d A B ) = π 2 arccos ( ( d A M c o s ϕ x ) + ( d B M c o s ϕ y ) d A B )
    Figure DE102018120655A1_0022
  • In einem dritten Fall hat ein Angreifer Kenntnis von d und ϕ, und VAuth 300 prüft auf Image-Spoofing-Angriffe. Um den Angreifer davon abzuhalten, den Angriff wie im zweiten Fall gezeigt erfolgreich zu starten, beinhaltet VAuth 300 Verifizierungsschritte für Image-Spoofing-Angriffe (Tabelle 1, Zeile 26-31). Gleichung 5 zeigt, dass die Erfolgswahrscheinlichkeit des Angreifers äquivalent zur Erfolgswahrscheinlichkeit eines erfolgreichen Image-Spoofing-Angriffs, Pspoofing ist. P success = P spoofing
    Figure DE102018120655A1_0023
  • Um den Image-Spoofing-Angriff zu detektieren (Angreifertyp 1), nutzt VAuth 300 gemeinsam gesehene Objekte (z. B. die Nummernschilder gemeinsamer Nachbarkraftwagen). Fahrzeug B sucht nach Nummernschildern benachbarter Fahrzeuge aus dem Bilderpaar {VA F , VB F } und {VA R ,VB R }. Wenn die Zahlen unter einem vordefinierten Schwellenwert liegen, wird das Protokoll abgebrochen. Die Ähnlichkeit anderer Objekte und ihr relativer Standort kann ebenfalls verwendet werden, um die Verifizierungsgenauigkeit zu erhöhen. Beispielsweise können auch Gebäude, Straßenschilder, Bäume, Gelände usw. verwendet werden.
  • Eine beispielhafte Umsetzung von VAuth 300 verwendet Nummernschilderkennung bei den von Fahrzeugkameras aufgenommenen Bildern. Insbesondere kann VAuth 300 OpenALPR verwenden, eine Open-Source-Bibliothek zur automatischen Nummernschilderkennung. OpenALPR nimmt ein Eingabebild und durchläuft acht Phasen, um erkannte Nummernschilder, Standort (Ecken, Breite und Höhe) und Konfidenzniveau (Prozentsatz) auszugeben. OpenALPR setzt die folgenden Phasen um. Phase 1 („Detektionsphase“) findet „potenzielle Regionen“ von Nummernschildern. Nachfolgende Phasen verarbeiten alle potenziellen Regionen. Phase 2 („Binarisierungsphase“) erstellt mehrere Schwarzweißbilder von Nummernschildregionen, um die Erkennungsgenauigkeit zu erhöhen. Phase 3 („Zeichenanalyse“) findet Regionen oder Blobs von Nummernschildzahlen-/Zeichengrößen von Nummernschildregionen. Phase 4 („Schildränder“) detektierte mögliche Ränder von Nummernschildern durch das Detektieren von Hough-Linien. Phase 5 („Geraderücken“) korrigiert die Drehung und Schiefe des Nummernschildbildes. Phasen 6 und 7 („Zeichensegmentierung“ und „OCR“) isolieren Zeichen auf dem Nummernschild und führen Zeichenerkennung und Konfidenzniveaubestimmung durch. Schließlich gibt Phase 8 („Nachverarbeitung“) eine Liste mit n potenziellen Nummernschildkandidaten aus, sortiert nach ihrem Konfidenzniveau.
  • In einer Ausführungsform verwenden Systeme und Verfahren dieser Offenbarung zur Berechnung des Abstands und Winkels aus einer Ausgabe der OpenALPR Computervisionstechniken zur Bildentzerrung und Perspektivenkorrektur. Der Algorithmus nutzt das Verhältnis von realen Objekten in Metern („Weltebene“) zu Pixeln („Bildebene“) durch Nutzen der dimensionalen Kenntnis bekannter Objekte. Ähnlich wird ein kalibriertes Bild aufgenommen, Vcalibration, bei dem es sich um einen Snapshot des Nummernschilds des Fahrzeug handelt, der aus einem Meterabstand dinit vom Fahrzeug oder einem anderen bekannten Abstand wie zum Beispiel Vcalibration, der Höhe (in Pixeln), hinit, des erkannten Nummernschildkastens aufgenommen wird. Der Abstand zu einem Nummernschild in anderen Bildern kann aus dem Verhältnis der Höhe des erkannten Nummernschilds wie in Gleichung 6 gezeigt berechnet werden. d image = d init h init h image
    Figure DE102018120655A1_0024
  • Es sei darauf hingewiesen, dass verschiedene Fahrzeuge mit verschiedenen Kameraarten ausgerüstet sein können, was zu hinit-Werten führt, die zwischen Kameras variieren. Jeder Kraftwagen kann jedoch seine hinit-Werte in den Commitment-/Decommitment-Meldungen beinhalten.
  • Der Winkel kann mittels der aus dem Bild bekannten Abstände berechnet werden. Das Problem des Auffindens des relativen Winkels wird beispielhaft in 7A and 7B dargestellt. Insbesondere kann der Winkel durch Verwendung zweier Abstände dimage und dshiftm in Metern wie in Gleichung 7 gezeigt abgeleitet werden. Wie in 7B abgebildet, ist ϕimage der Winkel zur Nummernschildberechnung und dimage ist der Abstand von der Kamera 104, 106 zum Nummernschild, dimage. ϕ image = arccos ( d image d shift )
    Figure DE102018120655A1_0025
  • Der Wert dshift ist der „imaginäre“ Abstand in Metern, um die sich der Kraftwagen horizontal verschoben hätte, wenn der Kraftwagen ursprünglich auf derselben Linie wäre wie die Kamera, d. h. horizontal im Sichtfeld der Kamera zentriert. Um dshift m zu finden, wird das Verhältnis der Pixel zu Metern mittels eines Objekts mit bekannten Abmessungen in Metern und Pixeln erlangt. Für dieses Objekt wird wieder das Nummernschild benutzt. hm ist die Höhe des tatsächlichen Nummernschilds in Metern, und zwar 0,15 Meter (beispielsweise messen kalifornische Nummernschilder 6 Zoll × 12 Zoll (0,15 m × 0,3 m)). Der Wert hpx ist die Höhe in Pixeln des Nummernschilds aus dem Bild. Aus 7A kann man auch dshift px herausfinden, den Verschiebungsabstand in Pixeln. Schließlich wird mittels der Gleichung 8, dshift m abgeleitet. d shift m = h m d shift px h px
    Figure DE102018120655A1_0026
  • Obwohl viele der vorangehenden Beispiele das Authentifizieren mittels Informationen bespricht, die in oder aus Kamerabildern abgeleitet sind, können beliebige Arten von Sensordaten benutzt werden, um ein Fahrzeug zu authentifizieren, einschließlich seines relativen Standorts zu einem Stammfahrzeug. In einer Ausführungsform können LIDAR, RADAR, SONAR oder andere Daten verwendet werden, um Objekte innerhalb ihres jeweiligen Erfassungsbereichs zu detektieren und die relativen Standorte, Winkel und Ähnliches basierend auf diesen Daten zu bestimmen. In verschiedenen Ausführungsformen kann eine beliebige Art von Sensordaten allein verwendet werden, um Standort oder Identität zu verifizieren, oder es können mehrere Arten von Sensordaten zusammen verwendet werden, um einander sowie jegliche von einer potenziellen V2V-Kommunikationsquelle aufgestellte Behauptungen nachdrücklich zu bestätigen. Beispielsweise können LIDAR- oder RADAR-Daten nicht in der Lage sein, Kennzeichen auf Nummernschildern oder eine Farbe eine Fahrzeugs zu detektieren, sie können jedoch dazu benutzt werden, eine Objektkarte für Fahrzeuge um das Stammfahrzeug zu erzeugen. Zusätzlich zur Objektkarte können Geschwindigkeitsvektoren relativ zum Stammfahrzeug für jedes Objekt bestimmt werden. Diese Objektkarten und/oder Geschwindigkeitskarten können mit denen verglichen werden, die basierend auf anderen Fahrzeugsensordaten erhalten wurden, um zu bestimmen, ob dem anderen Fahrzeug in Bezug auf V2V-Kommunikation vertraut werden kann.
  • 8 ist ein schematisches Ablaufdiagramm, das ein Verfahren 800 zum Authentifizieren eines Fahrzeugs basierend auf Kamerabildern, Objektkarten, Gierwinkeln und/oder Geschwindigkeitsvektorkarten darstellt. Das Verfahren 800 beginnt und beide Fahrzeuge sind sich einig, die Kommunikation bei 802 zu initiieren. Beide Fahrzeuge erfassen einen Kamera-Snapshot des anderen Fahrzeugs, eine Umgebungskarte mittels RADAR/LIDAR-Sensoren und seinen Gierwinkel mittels Kompass bei 804. Die Fahrzeuge prüfen bei 806 nach, ob Geschwindigkeitsvektor-Mapping verwendet wird. Falls Geschwindigkeitsvektor-Mapping wie bei 806 bestimmt verwendet wird, erfassen die Fahrzeuge die Geschwindigkeitsverktorkarten umgebender Objekte während eines Zeitraums t bei 824. Beide Fahrzeuge tauschen Kamera-Snapshots, Objektkarten, Gierwinkel und/oder Geschwindigkeitsverktorkarten bei 808 aus. Jedes Fahrzeug extrahiert Fahrzeugnummer, relativen Abstand, Azimutwinkel aus dem empfangenen Kamerabild (oder anderen Sensordaten oder Objektkarten) und fügt den Gierwinkelunterschied dem Azimutwinkel bei 810 hinzu. Jedes Fahrzeug verifiziert bei 812, ob die extrahierten Informationen mit seinen eigenen übereinstimmen. Falls die extrahierten Informationen nicht mit seinen eigenen wie bei 812 bestimmt übereinstimmen, scheitert die Authentifizierung bei 822. Falls sie wie bei 812 bestimmt übereinstimmen, zählt jedes Fahrzeug die Anzahl der gemeinsam detektierten Objekte aus seiner eigenen Karte und empfängt eine Objektkarte vom anderen Fahrzeug bei 814. Die Anzahl der gemeinsam detektierten Objekte wird verglichen, um bei 816 zu sehen, ob sie einen Systemvertrauensschwellenwert erfüllt (z. B. einen Prozentsatz detektierter Objekte oder einen absoluten Integerwert für detektierte Objekte). Falls die Anzahl gemeinsam detektierter Objekte nicht den wie bei 816 bestimmten Systemvertrauensschwellenwert erfüllt, scheitert die Authentifizierung bei 822. Falls die Anzahl gemeinsam detektierter Objekte wie bei 816 bestimmt den Systemvertrauensschwellenwert erfüllt, ist die Authentifizierung bei 820 erfolgreich, wenn bei 818 kein Geschwindigkeitsvektor-Matching verwendet wird. Falls Geschwindigkeitsvektor-Matching wie bei 8181 bestimmt verwendet wird, berechnen die Fahrzeuge die die Fahrzeug-Grundgeschwindigkeitskarte, indem sie bei 826 den Fahrzeuggeschwindigkeitsvektor dem Fahrzeuggeschwindigkeitsvektor des gemeinsam detektierten Objekts hinzufügen. Die Fahrzeuge prüfen bei 828 nach, um zu sehen, ob ihre eigene Grundgeschwindigkeitskarte annähernd den empfangenen Geschwindigkeitskarten gleicht. Falls die eigene Grundgeschwindigkeitskarte des Fahrzeugs annährend wie bei 828 bestimmt den empfangenen Geschwindigkeitskarten gleicht, ist die Authentifizierung bei 820 erfolgreich. Falls nicht, scheitert die Authentifizierung bei 822.
  • 9-12 zeigen, wie verschiedene Parameter und Vergleiche durchgeführt werden können, um das Verfahren aus 8 durchzuführen. 9 ist eine Draufsicht, die relative Fahrzeugpositionen auf einer Straße und mit naheliegenden Objekten einschließlich anderer Fahrzeuge (Fahrzeuge C 906 und Fahrzeug D 908) und Straßenrandobjekten (Objekt E 910 und Objekt F 912) abbildet. Der Gierwinkel hA von Fahrzeug A 902 und der Gierwinkel hB von Fahrzeug B 904 sind abgebildet. Ein vom Fahrzeug A 902 aufgenommenes Kamerabild ist ebenfalls mit relativem Abstand zwischen Fahrzeug A 902 und Fahrzeug 904 (dA ) und dem Azimutwinkel von Fahrzeug B 904 (aB ) abgebildet.
  • 10 ist eine Draufsicht, die eine Szene 1002 wie in 9 abgebildet, eine ADAS-Objektkarte 1004 von Fahrzeug A 902 und eine ADAS-Objektkarte 1006 von Fahrzeug A 904 abbildet. Die Objektkarte 1004 von Fahrzeug A 902 beinhalte Punkte oder Standorte, die für Objekt E 910, Fahrzeug B 904, Objekt C 906 und Fahrzeug D 908 detektiert wurden. Die Objektkarte 1004 beinhaltet den Azimutwinkel 1012 von Objekt A 902, Objekt-E-Punkte oder Standorte 1020, Fahrzeug-B-Punkte oder Standorte 1014, Fahrzeug-C-Punkte oder Standorte 1015 und Fahrzeug-D-Punkte oder Standorte 1018. Die Objektkarte 1006 von Fahrzeug B 904 beinhalte Punkte oder Standorte, die für Objekt F 912, Fahrzeug A 904, Objekt C 906 und Fahrzeug D 908 detektiert wurden. Die Objektkarte 1006 beinhaltet den Azimutwinkel 1024 von Objekt B 904, Objekt-C-Punkte oder Standorte 1026, Fahrzeug-D-Punkte oder Standorte 1028, Fahrzeug-F-Punkte oder Standorte 1032 und Fahrzeug-A-Punkte oder Standorte 1022. Es sei angemerkt, dass die Objektkarte 1004 von Fahrzeug A 902 das Objekt F 912 nicht beinhaltet. Es sei angemerkt, dass die Objektkarte 1006 von Fahrzeug B 904 das Objekt E 910 nicht beinhaltet. Die veranschaulicht, dass die Objektkarten 1004, 1006 möglicherweise nicht komplett übereinstimmen.
  • 11 ist eine Draufsicht, welche die resultierenden Objektkarten sowie die Drehungen und Verschiebungen darstellt, um zu versuchen, die Objektkarte 1004 von Fahrzeug A 902 und die Objektkarte 1006 von Fahrzeug B 904 in Übereinstimmung zu bringen oder zu überdecken. Das Ergebnis des Drehens der Objektkarte 1006 von Fahrzeug B 904 um hA -hB ist bei 1102 dargestellt. Das Ergebnis des Verschiebens der Objektkarte 1006 von Fahrzeug B 904 um dAB und des Überdeckens der Objektkarte 1006 von Fahrzeug 904 über Objektkarte 1004 von Fahrzeug 902 ist bei 1104 dargestellt. Eine Objektkarte kann um die Differenz zwischen den Azimutwinkeln (z. B. hA - hB ) gedreht und dann um den Abstand dAB zwischen den Fahrzeugen oder Fahrzeugsensoren verschoben werden, die verwendet wurden, um die Objektkarten zu erstellen. Die Anzahl oder der Prozentsatz von übereinstimmenden Objekten kann dann durch das Zählen übereinstimmender und nicht übereinstimmender Objekte bestimmt werden. Solange die Zahl oder der Schwellenwert über einem Vertrauensschwellenwert liegt, können Diskrepanzen die Authentifizierung nicht zum Scheitern veranlassen.
  • 12 ist eine Draufsicht, die einen geschwindigkeitsvektorbasierten Abgleich zeigt. 12 zeigt eine relative Fahrzeug-A-Geschwindigkeitsvektorkarte 1202, eine relative Fahrzeug-B-Geschwindigkeitsvektorkarte 1204 und eine Grundgeschwindigkeitsvektorkarte 1206. Es sei angemerkt, dass zu Veranschaulichungszwecken alle Karten Vektorkarten für alle Objekte beinhalten. Die Geschwindigkeitsvektoren für jedes Objekt können verglichen werden, indem der Geschwindigkeitsvektor für ein Fahrzeug dem Geschwindigkeitsvektor für ein Objekt hinzugefügt und bestimmt wird, ob dies dem Ergebnis, dem Geschwindigkeitsvektor für dasselbe Objekt den Geschwindigkeitsvektors für das andere Fahrzeug hinzuzufügen, ausreichend ähnelt. Dies kann für jedes gemeinsam detektierte Objekt durchgeführt werden.
  • Die Geschwindigkeit von Fahrzeug A VA 1208 ist gemäß Gleichung 9 unten bei Hinzufügung zu einer Grundgeschwindigkeit für ein Objekt gleich der Geschwindigkeit von Fahrzeug B VB 1210. v A + v X = v B + v X
    Figure DE102018120655A1_0027
  • Die Grundgeschwindigkeitsvektoren sind in der Grundgeschwindigkeitsvektorkarte 1206 abgebildet, einschließlich Fahrzeug-A-Grundgeschwindigkeitsvektor 121, Fahrzeug-B-Grundgeschwindigkeitsvektor 1214, Fahrzeug-C-Grundgeschwindigkeitsvektor 1216, Fahrzeug-D-Grundgeschwindigkeitsvektor 1218 und Objekt-E-Grundgeschwindigkeitsvektor 1220 und Objekt-F-Grundgeschwindigkeitsvektor 1222. Die relativen Geschwindigkeiten verschiedener Fahrzeuge und Objekte, wie von Fahrzeug A 902 bestimmt, sind in der relativen Geschwindigkeitskarte von Fahrzeug A 1202 als gepunktete Linien dargestellt. Die relativen Geschwindigkeiten verschiedener Fahrzeuge und Objekte, wie von Fahrzeug B 904 bestimmt, sind in der relativen Geschwindigkeitskarte von Fahrzeug B 1204 dargestellt.
  • 13 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 1300 zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation. Das Verfahren 1300 kann von einer beliebigen geeigneten Rechenvorrichtung durchgeführt werden, einschließlich beispielsweise einer Steuerung 102 eines Fahrzeugs. Das Verfahren 1300 beginnt und eine Rechenvorrichtung empfängt Sensordaten von einem ersten Fahrzeug bei 1302. Die Rechenvorrichtung empfängt sekundäre Sensordaten von einem zweiten Fahrzeug bei 1304.
  • Die Rechenvorrichtung extrahiert basierend auf den Sensordaten und den sekundären Sensordaten eine Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten bei 1306 identifiziertes Objekt. Die Rechenvorrichtung bestimmt bei 1308, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • 14 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 1400 zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation. Das Verfahren 1400 kann von einer beliebigen geeigneten Rechenvorrichtung durchgeführt werden, einschließlich beispielsweise einer Steuerung 102 eines Fahrzeugs. Das Verfahren 1400 beginnt und eine Rechenvorrichtung empfängt bei 1402 Sensordaten von einem ersten Fahrzeug, die ein Kamerabild und Entfernungsdaten umfassen, die ein oder mehrere von RADAR-Daten, LIDAR-Daten, SONAR-Daten oder Ultraschall-Daten umfassen. Die Rechenvorrichtung empfängt bei 1303 sekundäre Daten von einem zweiten Fahrzeug, die ein sekundäres Kamerabild und sekundäre Entfernungsdaten umfassen, die ein oder mehrere von RADAR-Daten, LIDAR-Daten, SONAR-Daten oder Ultraschall-Daten umfassen. Die Rechenvorrichtung extrahiert bei 1406 einen Authentifizierungspunktes aus dem Kamerabild, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug, einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs. Die Rechenvorrichtung verifiziert bei 1408 den Authentifizierungspunkt basierend auf Entfernungsdaten. Die Rechenvorrichtung tauscht bei 1410 einen Gierwinkel des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten aus. Die Rechenvorrichtung extrahiert bei 1412 basierend auf dem Authentifizierungspunkt die Sensordaten und die sekundären Sensordaten, wobei eine Authentifizierung eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten bei 1412 identifiziertes Objekt. Die Rechenvorrichtung bestimmt bei 1414, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • 15 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 1500 zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation. Das Verfahren 1500 kann von einer beliebigen geeigneten Rechenvorrichtung durchgeführt werden, einschließlich beispielsweise einer Steuerung 102 eines Fahrzeugs. Das Verfahren 1500 beginnt und eine Rechenvorrichtung empfängt bei 1502 eine von einem oder mehreren Sensoren des ersten Fahrzeugs erfasste Objektkarte. Die Rechenvorrichtung empfängt bei 1504 eine sekundäre, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfasste Objektkarte. Die Rechenvorrichtung richtet die sekundäre Objektkarte auf die Objektkarte aus, um bei 1506 eine überlagerte Objektkarte durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte zu erzeugen. Die Rechenvorrichtung bestimmt bei 1508, basierend auf der überlagerten Objektkarte, ob es ein oder mehrere gemeinsame Objekte gibt, die in der Objektkarte und der sekundären Objektkarte identifiziert wurden. Die Rechenvorrichtung bestimmt bei 1510, ob das eine oder die mehreren Objekte einen Vertrauensschwellenwert für das erste Fahrzeug erfüllen. Die Rechenvorrichtung authentifiziert bei 1512 Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wenn das eine oder die mehreren Objekte den Vertrauensschwellenwert bei 1512 erfüllen.
  • Die Verwendung von Sensoren zusätzlich zu Bildern oder alternativ zu Bildern kann dabei helfen, potenzielle Angriffe zu reduzieren. Ein fortgeschrittener Angreifer kann beispielsweise in der Lage sein, die Identität eines Fahrzeugs zu imitieren, indem er ein Lexikon von Bildern anlegt, die von verschiedenen Standorten offline aufgenommen wurden, und ein Bild aus dem Lexikon auswählt, um sich als andere Fahrzeuge um das Opferfahrzeug auszugeben. Oder ein Angreifer könnte einen Snapshot des Opferfahrzeugs aufnehmen, das Opferfahrzeug aus dem Snapshot herausschneiden und das Opferfahrzeug in die Position einblenden, um das Opferfahrzeug glauben zu lassen, das Bild sei von dem anderen Fahrzeug aufgenommen. Aufgrund neuester Fortschritte im Bereich Computervision könnten einem Angreifer weitere Kamerabildmodifikationstechniken zu Verfügung stehen.
  • Um potenzielle Schwächen in der vorigen kamerabildbasierten V2V-Authentifizierung auszumerzen, können andere ADAS-Sensoren, die sich in modernen Fahrzeugen schnell verbreiten, genutzt werden. Diese anderen ADAS-Sensoren (zu denen RADAR-, LIDAR- und andere Sensoren gehören) sind in der Lage, umgebende Objekte (stationäre und/oder sich bewegende) zu detektieren und können dazu verwendet werden, eine verbesserte Authentifizierungsprozedur bereitzustellen, wie im Prozessfluss 800 in 8 gezeigt. Ausführungsformen können immer noch auf Fahrzeugidentität (Fahrzeugnummer) prüfen, die von einem Kamera-Snapshot erfasst wurde. Zusätzlich extrahiert ein Fahrzeug den relativen Abstand, Azimutwinkel und Fahrzeugnummer von dem Kamera-Snapshot des anderen Fahrzeugs. Um den Bildmodifizierungsangriff zu verhindern, werden diese Informationen jedoch auch gegengeprüft im Vergleich mit den Informationen von anderen ADAS-Sensoren wie zum Beispiel RADAR und LIDAR. Obwohl diese Sensoren keine Fahrzeugnummerinformationen bereitstellen, stellen sie dennoch den relativen Abstand und Azimutwinkel umgebender Objekte bereit, die mit den Informationen aus dem Kamera-Snapshot innerhalb einer Fehlergrenze identisch sein sollten. In diesem Prozess kann auch der Gierwinkel jedes Fahrzeugs ausgetauscht werden, um die Winkeldiskrepanz zu kompensieren, wenn die zwei Fahrzeuge nicht in eine Richtung ausgerichtet sind (z. B. auf einer kurvigen Straße). Die umgebenden Objekte können stationär (z B. Orientierungspunkte, Bäume, Gebäude, Straßenschilder) oder beweglich sein (z. B. andere umgebende Fahrzeuge und potenzielle Fußgänger).
  • Unter erneuter Bezugnahme auf 10-11 ist die Fahrzeug-A-Objektkarte 1004 abgebildet und die Fahrzeug-B-Objektkarte 1006 ist abgebildet. Um herauszufinden, ob die zwei Fahrzeug nahe beieinander sind (zum Authentifizieren), dreht und/oder verschiebt ein Algorithmus eine der zwei Objektkarten (wie in 11 abgebildet, Fahrzeug-B-Objektkarte 1006), um zu bestimmen, ob eine akzeptable Übereinstimmung zwischen einem beliebigen der detektierten Objekte vorliegt.
  • Aufgrund von Sensorrauschen, unterschiedlichen Erfassungskapazitäten, Hindernissen können die detektierten Objekte in der Praxis nicht dieselben sein. Deshalb wird, wenn die Anzahl gemeinsam detektierter Objekte in zwei Fahrzeugen höher ist als der Systemvertrauensschwellenwert, die Authentifizierung für die folgende Kommunikation gewährt. Der Systemvertrauensschwellenwert kann empirisch in der umliegenden Umgebung bestimmt werden. Beispielsweise ist er höher in einem städtischen Gebiet mit hoher Objektdichte im Vergleich zu einer ländlichen Gegend. Andere Umsetzungen können eher jeder Anwendungsschicht eine Vertrauensentscheidungswahl gewähren als der Systemschicht. Dabei authentifizieren bei einer gegebenen Anzahl gemeinsam detektierter Objekte in zwei Fahrzeugen einige sicherheitskritische Anwendungen nicht die Kommunikation mit strikterer Vertrauensgrenze, während andere, nichtkritische Anwendungen die Anzahl als ausreichend einstufen.
  • In einer Umsetzung kann das Authentifizierungssystem auch die Geschwindigkeitsvektoren umgebender Objekte während eines kurzen Zeitraums verwenden. Ein Fahrzeug kann die Grundgeschwindigkeit umgebender Objekte berechnen, indem seine Geschwindigkeit zum Geschwindigkeitsvektor jedes Objekts addiert wird. Das Vergleichen der Grundgeschwindigkeitsvektoren gemeinsam detektierter Objekte in zwei Fahrzeugen wird es für einen Angreifer noch schwieriger machen, ein Fahrzeug in V2V-Kommunikation zu imitieren. Im Vergleich zu einer rein auf Bildern basierten Authentifizierung macht die Verwendung von zusätzlichen ADAS-Sensordaten es noch schwieriger für einen Angreifer, das V2V-Authentifizierungssystem zu umgehen. In einer solchen Ausführungsform kann die Authentifizierung eine äquivalente detektierte Grundgeschwindigkeit eines gemeinsamen Objekts umfassen, das von den Sensordaten und den sekundären Daten erfasst wurde.
  • Beispiele
  • Die folgenden Beispiele betreffen weitere Ausführungsformen.
    • Beispiel 1 ist ein Verfahren, dass das Empfangen von Sensordaten von einem Fahrzeug A und das Empfangen von Sensordaten von einem Fahrzeug B beinhaltet, wobei die Sensordaten eine oder mehrere von RADAR-, LIDAR-, Bild-, SONAR- Ultraschall oder andere Daten beinhalten. Das Verfahren beinhaltet das Verifizieren basierend auf den Sensordaten, ob das Fahrzeug B in der Nähe von Fahrzeug A ist. Beispielsweise kann das Verfahren das Verifizieren einer relativen Position (Abstand und/oder Winkel) des Fahrzeugs B zum Fahrzeug A basierend auf den Sensordaten von einem Fahrzeug A und den Sensordaten von einem Fahrzeug B beinhalten. Als weiteres Beispiel kann das Verfahren das Verifizieren relativer Positionen von Objekten in einer Fahrzeug-A-Objektkarte beinhalten, die basierend auf den Sensordaten von einem Fahrzeug A bestimmt wurde, und in einer Fahrzeug-B-Objektkarte beinhalten, die basierend auf den Sensordaten von einem Fahrzeug B bestimmt wurde. Als weiteres Beispiel kann das Verfahren das Verifizieren von bestimmten Grundgeschwindigkeiten von Objekten beinhalten, die basierend auf den Sensordaten von einem Fahrzeug A und den Sensordaten von einem Fahrzeug B detektiert wurden. In einer Ausführungsform können Objektkarten oder Vektorkarten ausgetauscht werden, sodass nicht jedes Fahrzeug die Objektkarte oder Vektorkarte für das andere Fahrzeug bestimmen muss.
    • In Beispiel 2 beinhaltet das Verfahren in Beispiel 1 das Verifizieren, ob bestimmt werden kann, dass eine Ähnlichkeit zwischen einer Objektkarte, einem Geschwindigkeitsvektor oder Ähnlichem innerhalb eines gewünschten Schwellenwerts liegt.
    • In Beispiel 3 beinhaltet das Verfahren eines beliebigen der Beispiele 1-2 das Vergleichen relativer Positionen, die basierend auf einer Art von Sensordaten (z. B. Bilddaten) bestimmt werden, mit einer relativen Position basierend auf einer anderen Art Sensordaten (z. B. RADAR oder LIDAR) und das Authentifizieren, falls die relativen Positionen ähnlich genug sind.
    • In Beispiel 4 beinhaltet das Verfahren in einem beliebigen der Beispiele 1-3 ferner: Bestimmen einer Fahrzeug-A-Objektkarte basierend auf Fahrzeug-A-Sensordaten; Bestimmen einer Fahrzeug-B-Objektkarte basierend auf den zusätzlichen Fahrzeug-B-Sensordaten; und Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte hinreichend ähnlich sind. Das Authentifizieren des Fahrzeugs B beinhaltet das Authentifizieren als Reaktion auf das Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte hinreichend ähnlich sind.
    • In Beispiel 5 beinhaltet das Verfahren von Beispiel 4 das Drehen und/oder Verschieben mindestens einer von der Fahrzeug-A-Objektkarte oder der Fahrzeug-B-Objektkarte, um verschiedene Ausrichtungen oder Standorte des Fahrzeugs A und des Fahrzeugs B aufzunehmen.
    • In Beispiel 6 beinhaltet das Verifizieren in einem beliebigen der Beispiele 4-5, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte hinreichend ähnlich sind, das Bestimmen, dass eine Anzahl gemeinsam detektierter Objekte auf der Fahrzeug-A-Objektkarte und der Fahrzeug-B-Objektkarte höher ist als ein Systemvertrauensschwellenwert.
    • In Beispiel 7 beinhaltet das Verfahren eines beliebigen der Beispiele 1-6: Bestimmen einer Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug A basierend auf den zusätzlichen Sensordaten von Fahrzeug A; Bestimmen einer Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug B basierend auf den zusätzlichen Sensordaten von Fahrzeug B; und Verifizieren, dass die Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug A und die Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug B hinreichend ähnlich sind.
    • Beispiel 8 ist ein Verfahren, das Folgendes beinhaltet: Empfangen eines ersten Bilds von einer Kamera eines Fahrzeugs A; Empfangen eines zweiten Bilds von einem Fahrzeug B; Verifizieren, dass eine relative Position des Fahrzeugs B zum Fahrzeug A gemäß dem ersten Bild einer relativen Position des Fahrzeugs A z um Fahrzeug B gemäß dem zweiten Bild entspricht; und als Reaktion zum Verifizieren das Authentifizieren des Fahrzeugs B.
    • In Beispiel 9 beinhaltet das Verifizieren, dass die relative Position des Fahrzeugs B zum Fahrzeug A gemäß dem ersten Bild der relativen Position des Fahrzeugs A zum Fahrzeug B gemäß dem zweiten Bild in Beispiel 8 entspricht, das Identifizieren durch die Steuerung des Fahrzeugs A eines Bilds des Fahrzeugs B in dem ersten Bild sowie das Identifizieren, durch die Steuerung des Fahrzeugs A, eines Bilds des Fahrzeugs B im ersten Bild, und das Identifizieren, durch die Steuerung des Fahrzeugs A, eines Bilds des Fahrzeugs A in dem zweiten Bild. Das Verfahren beinhaltet das Bestimmen, durch die Steuerung des Fahrzeugs A, mindestens eines ersten Abstands zum Fahrzeug B von dem Fahrzeug A und eines ersten Winkels zu dem Fahrzeug B vom Fahrzeug A gemäß einem Standort des Bilds des Fahrzeugs B in dem ersten Bild. Das Verfahren beinhaltet ferner das Bestimmen, durch die Steuerung des Fahrzeugs A, mindestens eines von einem zweiten Abstand zu dem Fahrzeug A von dem Fahrzeug B und einem zweiten Winkel zu dem Fahrzeug A von dem Fahrzeug B gemäß einem Standort des Bilds des Fahrzeugs A im zweiten Bild. Das Verfahren beinhaltet ferner das Bestimmen, durch die Steuerung des Fahrzeugs A, mindestens eines der Folgenden (a) der zweite Abstand liegt innerhalb einer vorbestimmten Toleranz von dem ersten Abstand und (b) der zweite Winkel liegt innerhalb einer vorbestimmten Winkeltoleranz von dem ersten Winkel.
    • In Beispiel 10 beinhaltet der mindestens eine von dem ersten Abstand zum Fahrzeug B vom Fahrzeug A und dem ersten Winkel zum Fahrzeug B vom Fahrzeug A gemäß einem Standort des Bilds des Fahrzeugs B in dem ersten Bild in einem der Beispiele 8-9 sowohl den ersten Abstand zum Fahrzeug B vom Fahrzeug A als auch den ersten Winkel zum Fahrzeug B vom Fahrzeug A gemäß einem Standort des Bilds des Fahrzeugs B im ersten Bild. Der mindestens eine von dem zweiten Abstand zum Fahrzeug A vom Fahrzeug B und dem zweiten Winkel zum Fahrzeug A vom Fahrzeug B gemäß dem Standort des Bilds des Fahrzeugs A in dem zweiten Bild beinhaltet sowohl den zweiten Abstand zum Fahrzeug A vom Fahrzeug B als auch den zweiten Winkel zum Fahrzeug A vom Fahrzeug B gemäß dem Standort des Bilds des Fahrzeugs A im zweiten Bild.
    • In Beispiel 11 beinhaltet das Empfangen des ersten Bilds von der Kamera des Fahrzeugs A in einem beliebigen der Beispiele 8-10 das Empfangen eines ersten vorwärts gerichteten Bilds von einer nach vorn gerichteten Kamera, die am Fahrzeug A montiert ist, und das Empfangen eines ersten rückwärts gerichteten Bilds von einer rückwärtig gerichteten Kamera, die an Fahrzeug A montiert ist. Das Verfahren beinhaltet das Empfangen eines zweiten vorwärts gerichteten Bilds von einer nach vorn gerichteten Kamera, die am Fahrzeug B montiert ist, und das Empfangen eines zweiten rückwärts gerichteten Bilds von einer rückwärtig gerichteten Kamera, die an Fahrzeug B montiert ist.
    • In Beispiel 12 beinhaltet das Identifizieren des Bilds von Fahrzeug B im ersten Bild in einem beliebigen der Beispiele 8-11 das Identifizieren eines Nummernschilds des Fahrzeugs B in dem ersten Bild, und wobei das Identifizieren des Bilds des Fahrzeugs A im zweiten Bild das Identifizieren eines Nummernschilds des Fahrzeugs A im zweiten Bild beinhaltet.
    • In Beispiel 13 beinhaltet das Verfahren aus Beispiel 12 ferner das Empfangen, durch die Steuerung des Fahrzeugs A vom Fahrzeug B, einer Meldung einschließlich des Nummernschilds des Fahrzeugs B.
    • In Beispiel 14 beinhaltet das Bestimmen des mindestens einen des ersten Abstands zum Fahrzeug B vom Fahrzeug A und des ersten Winkels zum Fahrzeug B vom Fahrzeug A gemäß dem Standort des Bilds des Fahrzeugs B im ersten Bild in einem beliebigen der Beispiele: Bestimmen einer ersten Abmessung (himage1) eines Nummernschilds des Fahrzeugs B im ersten Bild in Pixeln; und Bestimmen des ersten Abstands (d1) als gleich dinit*hinit/himage1, wobei dinit ein Kalibrierungsabstand und hinit eine Testabmessung in Pixeln eines Testnummernschilds ist, das in dinit von einer Testkamera positioniert ist. Das Bestimmen des mindestens einem von dem zweiten Abstand zum Fahrzeug A vom Fahrzeug B und dem zweiten Winkel zum Fahrzeug A vom Fahrzeug B gemäß dem Standort des Bilds des Fahrzeugs A in dem zweiten Bild beinhaltet: Bestimmen einer zweiten Abmessung (himage2) eines Nummernschilds des Fahrzeugs A in dem zweiten Bild in Pixeln; und Bestimmen des zweiten Abstands (d2) als gleich dinit*hinit/himage.
    • In Beispiel 15 beinhaltet das Bestimmen des mindestens einem von dem ersten Abstand zum Fahrzeug B vom Fahrzeug A und dem ersten Winkel zum Fahrzeug B vom Fahrzeug A gemäß dem Standort des Bilds des Fahrzeugs B im ersten Bild in Beispiel 14: Bestimmen eines ersten Pixel-Versatzes (dshift1) des Nummernschilds von Fahrzeug B im ersten Bild von einer Mitte des ersten Bilds in Pixeln; Bestimmen eines ersten Abstandsversatzes (dshift1m) als gleich (hm*dshift1/himage1), wobei hm eine gemessene Abmessung eines Testnummernschilds ist; und Bestimmen des ersten Winkels als gleich Arccos(d1/dshift1m). Das Bestimmen des mindestens einem von dem zweiten Abstand zum Fahrzeug A vom Fahrzeug B und dem zweiten Winkel zum Fahrzeug A vom Fahrzeug B gemäß dem Standort des Bilds des Fahrzeugs A im zweiten Bild beinhaltet: Bestimmen eines zweiten Pixel-Versatzes (dshift2) des Nummernschilds von Fahrzeug A im zweiten Bild von einer Mitte des zweiten Bilds in Pixeln; Bestimmen eines zweiten Abstandsversatzes (dshift2m) als gleich (hm*dshift2/himage2); und Bestimmen des zweiten Winkels als gleich Arccos(d2/dshift2m).
    • In Beispiel 16 ist die Kamera des Fahrzeugs A in einem beliebigen der Beispiele 8-15 eine erste Kamera. Das Verfahren beinhaltet ferner das Authentifizieren des Fahrzeugs B als Reaktion auf das Bestimmen, dass ein oder mehrere Hintergrundobjekte im zweiten Bild Objekten in einem von einer zweiten Kamera, die an dem Fahrzeug A montiert ist und in eine entgegengesetzte Kamera als die erste Kamera zeigt, entsprechen.
    • In Beispiel 17 beinhaltet das Authentifizieren des Fahrzeugs B in einem beliebigen der Beispiele 8-16 das Durchführen des Diffie-Hellman-Schlüsselaustauschs zwischen dem Fahrzeug A und dem Fahrzeug B.
    • In Beispiel 18 beinhaltet das Verfahren eines beliebigen der Beispiele 8-17 ferner: Empfangen von zusätzlichen Fahrzeug-A-Sensordaten einschließlich ein oder mehrere von RADAR- und LIDAR-Daten; und Empfangen von zusätzlichen Fahrzeug-B-Sensordaten einschließlich ein oder mehrere von RADAR- und LIDAR-Daten vom Fahrzeug B.
    • In Beispiel 19 beinhaltet das Verfahren von Beispiel 18 das Verifizieren, dass die relative Position des Fahrzeugs B zum Fahrzeug A gemäß den zusätzlichen Fahrzeug-A-Sensordaten einer relativen Position des Fahrzeugs A zum Fahrzeug B gemäß den zusätzlichen Fahrzeug-B-Sensordaten ähnelt, und wobei die relative Position innerhalb einer Fehlergrenze der basierend auf dem ersten Bild und dem zweiten Bild bestimmten relativen Position liegt.
    • In Beispiel 20 beinhaltet das Verfahren in einem beliebigen der Beispiele 18-19: Bestimmen einer Fahrzeug-A-Objektkarte basierend auf den zusätzlichen Fahrzeug-A-Sensordaten; Bestimmen einer Fahrzeug-B-Objektkarte basierend auf den zusätzlichen Fahrzeug-B-Sensordaten; und Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte hinreichend ähnlich sind. Das Authentifizieren des Fahrzeugs B beinhaltet das Authentifizieren als Reaktion auf das Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte hinreichend ähnlich sind.
    • In Beispiel 21, beinhaltet das Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte in Beispiel 20 hinreichend ähnlich sind, das Drehen und/oder Verschieben mindestens einer von der Fahrzeug-A-Objektkarte oder der Fahrzeug-B-Objektkarte, um verschiedene Ausrichtungen oder Standorte des Fahrzeugs A und des Fahrzeugs B aufzunehmen.
    • In Beispiel 22, In Beispiel 22 beinhaltet das Verifizieren, dass die Fahrzeug-A-Objektkarte und die Fahrzeug-B-Objektkarte in einem beliebigen der Beispiel 20-21 hinreichend ähnlich sind, das Bestimmen, dass eine Anzahl gemeinsam detektierter Objekte auf der Fahrzeug-A-Objektkarte und der Fahrzeug-B-Objektkarte höher ist als ein Systemvertrauensschwellenwert.
    • In Beispiel 23 beinhaltet das Verfahren wie in einem beliebigen der Beispiele 8-22 ferner: Bestimmen einer Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug A basierend auf den zusätzlichen Sensordaten von Fahrzeug A; Bestimmen einer Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug B basierend auf den zusätzlichen Sensordaten von Fahrzeug B; und Verifizieren, dass die Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug A und die Grundgeschwindigkeit eines oder mehrerer Objekte in der Nähe von Fahrzeug B hinreichend ähnlich sind.
    • Beispiel 24 ist computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehrere Prozessoren dazu veranlassen, ein Verfahren umzusetzen oder ein System oder ein Gerät wie in einem beliebigen der Beispiele 1-23 zu realisieren.
    • Beispiel 25 ist ein Verfahren zum Authentifizieren von Fahrzeug-zu-Fahrzeug-Kommunikation. Das Verfahren beinhaltet: Empfangen von Sensordaten von einem ersten Fahrzeug und sekundären Sensordaten von einem zweiten Fahrzeug. Das Verfahren beinhaltet das Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt. Das Verfahren beinhaltet das Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
    • Beispiel 26 ist ein Verfahren wie in Beispiel 25, die Authentifizierung eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen Objekts umfasst, wie es von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifiziert wurde.
    • Beispiel 27 ist ein Verfahren wie in einem beliebigen der Beispiele 25-26, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; und die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen.
    • Beispiel 28 ist ein Verfahren wie in einem beliebigen der Beispiele 25-27, ferner umfassend das Extrahieren eines Authentifizierungspunkts aus dem Kamerabild, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
    • Beispiel 29 ist ein Verfahren wie in einem beliebigen der Beispiele 25-28, ferner umfassend das Verifizieren des Authentifizierungspunkts basierend auf den Entfernungsdaten, wobei das Verifizieren des Authentifizierungspunkt Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten. Der Entfernungsauthentifizierungspunkt umfasst einen oder mehrere der Folgenden: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug. Das Verfahren beinhaltet ferner die Gegenprüfung des aus dem Bild extrahierten Authentifizierungspunkts mit einem entsprechenden Entfernungsauthentifizierungspunkt. Das Verfahren beinhaltet ferner das Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und das Verifizieren, dass der Authentifizierungspunkt gleich dem entsprechenden Entfernungsauthentifizierungspunkt innerhalb einer Fehlergrenze ist.
    • Beispiel 30 ist ein Verfahren wie in einem beliebigen der Beispiele 25-29, ferner umfassend das Austauschen eines Gierwinkels des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten.
    • Beispiel 31 ist ein Verfahren wie in einem beliebigen der Beispiele 25-30, ferner umfassend: Empfangen einer von einem oder mehreren Sensoren des ersten Fahrzeugs erfassten Objektkarte; Empfangen einer sekundären, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfassten Objektkarte; Ausrichten der sekundären Objektkarte auf die Objektkarte, um durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte eine überlagerte Objektkarte zu erzeugen; und Bestimmen, basierend auf der überlagerten Objektkarte, ob ein oder mehr Objekte zwischen der Objektkarte und der sekundären Objektkarte übereinstimmen.
    • Beispiel 32 ist ein Verfahren wie in einem beliebigen der Beispiele 25-31, ferner umfassend: Bestimmen, ob die eine oder mehreren Objektübereinstimmungen einen Vertrauensschwellenwert für eine Anwendung des ersten Fahrzeugs erfüllen; das Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs erfüllen; Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, wenn die eine oder mehreren Objektübereinstimmungen den Vertrauensschwellenwert für die Anwendung erfüllen; und Verweigern von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, wenn die eine oder mehreren Objektübereinstimmungen den Vertrauensschwellenwert für die Anwendung nicht erfüllen,
    • Beispiel 33 ist ein Verfahren wie in einem beliebigen der Beispiele 25-32, ferner umfassend: Bestimmen, ob die eine oder mehreren Objektübereinstimmungen zwischen der Objektkarte und der sekundären Objektkarte einen globalen Vertrauensschwellenwert für das erste Fahrzeug erfüllen; Authentifizieren von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wenn die eine oder mehreren Objektübereinstimmungen den globalen Vertrauensschwellenwert erfüllen.
    • Beispiel 34 ist ein Verfahren wie in einem beliebigen der Beispiele 25-33, wobei das Bestimmen, ob die Authentifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, Verifizieren einer oder mehrerer der Folgenden umfasst: einer Identität des zweiten Fahrzeugs; ob das zweite Fahrzeug sich in nächster Nähe des ersten Fahrzeugs befindet; einer Präsenz eines oder mehrerer gemeinsamer, von den Sensordaten und den sekundären Sensordaten des zweiten Fahrzeugs erfassten Objekte; oder äquivalente bestimmte Grundgeschwindigkeiten bei einem oder mehreren gemeinsamen Objekten basierend auf den Sensordaten und den sekundären Sensordaten
    • Beispiel 35 ist ein Verfahren wie in einem beliebigen der Beispiele 25-34, ferner umfassend das Gestatten von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wenn die Verifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
    • Beispiel 36 ist ein System zur Authentifizierung von Fahrzeug-zu-Fahrzeug-Kommunikation. Das System beinhaltet: ein erstes Fahrzeug umfassend einen oder mehrere Sensoren, die Sensordaten bereitstellen; und eine Fahrzeugsteuerung in Kommunikation mit dem einen oder den mehreren Sensoren des ersten Fahrzeugs und dazu konfiguriert, sekundäre Sensordaten von einem zweiten Fahrzeug zu empfangen. Das System ist derart, dass die Fahrzeugsteuerung nichtflüchtige computerlesbare Speichermedien umfasst, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Empfangen von sekundären Sensordaten von dem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten von dem ersten Fahrzeug und den sekundären Sensordaten von dem zweiten Fahrzeug, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente detektierte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifizierten Objekts. Die Anweisungen veranlassen ferner den einen oder die mehreren Prozessoren dazu, zu bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
    • Beispiel 37 ist ein System wie in Beispiel 36, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; und die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen.
    • Beispiel 38 ist ein System wie in einem beliebigen der Beispiele 36-37, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Authentifizierungspunkte aus dem Kamerabild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
    • Beispiel 39 ist ein System wie in einem beliebigen der Beispiele 36-38, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug, oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug. Die Anweisungen veranlassen ferner den einen oder die mehreren Prozessoren zu Folgendem: Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
    • Beispiel 40 ist ein System wie in einem beliebigen der Beispiele 36-39, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Gierwinkel des ersten Fahrzeugs oder des zweiten Fahrzeugs auszutauschen, um eine Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten zu kompensieren.
    • Beispiel 41 ist nichtflüchtige computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von einem oder mehreren Sensoren eines ersten Fahrzeugs; Empfangen von sekundären Sensordaten von einem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts. Die Anweisungen veranlassen den einen oder die mehreren Prozessoren ferner dazu, zu bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
    • Beispiel 42 ist nichtflüchtige computerlesbare Speichermedien wie in Beispiel 41, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; und die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen.
    • Beispiel 43 ist nichtflüchtige computerlesbare Speichermedien wie in einem beliebigen der Beispiele 41-42, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Authentifizierungspunkt von dem Kamerabild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
    • Beispiel 44 ist nichtflüchtige computerlesbare Speichermedien wie in einem beliebigen der Beispiele 41-43, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren zu Folgendem veranlassen: den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug. Die Anweisungen veranlassen den einen oder die mehreren Prozessoren ferner zu Folgendem: Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
    • Beispiel 45 ist ein System oder eine Vorrichtung, die Mittel zum Umsetzen eines Verfahrens oder Realisierens eines Systems oder Geräts wie in einem beliebigen der Beispiele 1-44.
  • Die vorliegende Offenbarung kann in anderen spezifischen Formen ausgeführt sein, ohne von ihrem Geist oder ihren essenziellen Charakteristiken abzuweichen. Die beschriebenen Ausführungsformen sind in jeder Hinsicht allein als veranschaulichend und nicht als einschränkend zu verstehen. Der Umfang der Offenbarung ist deshalb durch die angehängten Ansprüche angezeigt statt durch die vorangehende Beschreibung. Sämtliche Änderungen, die innerhalb der Bedeutung und dem Äquivalenzbereich der Ansprüche liegen, fallen in ihren Umfang.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren bereitgestellt, bei dem Sensordaten von einem ersten Fahrzeug und sekundäre Sensordaten von einem zweiten Fahrzeug empfangen werden; bei dem basierend auf den Sensordaten und den sekundären Sensordaten eine Authentifizierung extrahiert wird, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug; oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfasst die Authentifizierung eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen Objekts, wie es von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifiziert wurde. Gemäß einer Ausführungsform umfassen die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; die Sensordaten umfassen ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten; die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; und die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch Extrahieren eines Authentifizierungspunktes aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild gekennzeichnet, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Verifizieren des Authentifizierungspunkts basierend auf den Entfernungsdaten gekennzeichnet, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Austauschen eines Gierwinkels des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Empfangen einer von einem oder mehreren Sensoren des ersten Fahrzeugs erfassten Objektkarte; das Empfangen einer sekundären, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfassten Objektkarte; das Ausrichten der sekundären Objektkarte auf die Objektkarte, um durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte eine überlagerte Objektkarte zu erzeugen; und das Bestimmen, basierend auf der überlagerten Objektkarte, ob es ein oder mehrere gemeinsame Objekte gibt, die in der Objektkarte und der sekundären Objektkarte identifiziert wurden, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Bestimmen, ob das eine oder die mehreren gemeinsamen Objekte einen Vertrauensschwellenwert für eine Anwendung des ersten Fahrzeugs erfüllen; das Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und des zweiten Fahrzeugs, wenn das eine oder die mehreren gemeinsamen Objekte den Vertrauensschwellenwert für die Anwendung erfüllen; und das Verweigern von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte nicht den Vertrauensschwellenwert für die Anwendung erfüllen, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Bestimmen, ob das eine oder die mehreren gemeinsamen, in der Objektkarte und der sekundären Objektkarte identifizierten Objekte einen globalen Vertrauensschellenwert für das erste Fahrzeug erfüllen; das Authentifizieren von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte den globalen Vertrauensschwellenwert erfüllen, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Bestimmen, ob die Authentifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, gekennzeichnet ist, wobei diese umfasst: Verifizieren einer oder mehrerer der Folgenden: einer Identität des zweiten Fahrzeugs; ob das zweite Fahrzeug sich in nächster Nähe des ersten Fahrzeugs befindet; einer Präsenz eines oder mehrerer gemeinsamer, von den Sensordaten und den sekundären Sensordaten des zweiten Fahrzeugs erfassten Objekte; oder äquivalente bestimmte Grundgeschwindigkeiten bei einem oder mehreren gemeinsamen Objekten basierend auf den Sensordaten und den sekundären Sensordaten.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner dadurch gekennzeichnet, das Kommunikation zwischen dem ersten Fahrzeug und zweiten Fahrzeug gestattet wird, wenn die Verifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das ein erstes Fahrzeug aufweist, umfassend einen oder mehrere Sensoren, die Sensordaten bereitstellen; und eine Fahrzeugsteuerung in Kommunikation mit dem einen oder den mehreren Sensoren des ersten Fahrzeugs, dazu konfiguriert, sekundäre Sensordaten von einem zweiten Fahrzeug zu empfangen; wobei die Fahrzeugsteuerung nichtflüchtige computerlesbare Speichermedien umfasst, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Empfangen von sekundären Sensordaten von dem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfassen die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; umfassen die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten.
  • die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; und die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug, oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, den Gierwinkel des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten auszutauschen.
  • Gemäß der vorliegenden Erfindung, nichtflüchtige computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Empfangen von sekundären Sensordaten von dem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfassen die ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; die Sensordaten umfassen ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten;
    die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; und die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren bereitgestellt, bei dem Sensordaten von einem ersten Fahrzeug und sekundäre Sensordaten von einem zweiten Fahrzeug empfangen werden; bei dem basierend auf den Sensordaten und den sekundären Sensordaten eine Authentifizierung extrahiert wird, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug; oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfasst das Authentifizieren eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen Objekts, wie es von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifiziert wurde. Gemäß einer Ausführungsform umfassen die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; die Sensordaten umfassen ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten; die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; und die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Extrahieren eines Authentifizierungspunktes aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild gekennzeichnet, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Verifizieren des Authentifizierungspunkts basierend auf den Entfernungsdaten gekennzeichnet, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder
    den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Austauschen eines Gierwinkels des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Empfangen einer von einem oder mehreren Sensoren des ersten Fahrzeugs erfassten Objektkarte; das Empfangen einer sekundären, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfassten Objektkarte; das Ausrichten der sekundären Objektkarte auf die Objektkarte, um durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte eine überlagerte Objektkarte zu erzeugen; und das Bestimmen, basierend auf der überlagerten Objektkarte, ob es ein oder mehrere gemeinsame Objekte gibt, die in der Objektkarte und der sekundären Objektkarte identifiziert wurden, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Bestimmen, ob das eine oder die mehreren gemeinsamen Objekte einen Vertrauensschwellenwert für eine Anwendung des ersten Fahrzeugs erfüllen; das Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und des zweiten Fahrzeugs, wenn das eine oder die mehreren gemeinsamen Objekte den Vertrauensschwellenwert für die Anwendung erfüllen; und das Verweigern von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte nicht den Vertrauensschwellenwert für die Anwendung erfüllen, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Bestimmen, ob das eine oder die mehreren gemeinsamen, in der Objektkarte und der sekundären Objektkarte identifizierten Objekte einen globalen Vertrauensschellenwert für das erste Fahrzeug erfüllen; das Authentifizieren von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte den globalen Vertrauensschwellenwert erfüllen, gekennzeichnet.
  • Gemäß einer Ausführungsform ist die obige Erfindung dadurch gekennzeichnet, dass das Bestimmen, ob die Authentifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, Folgendes umfasst: Verifizieren einer oder mehrerer der Folgenden: einer Identität des zweiten Fahrzeugs; ob das zweite Fahrzeug sich in nächster Nähe des ersten Fahrzeugs befindet; einer Präsenz eines oder mehrerer gemeinsamer, von den Sensordaten und den sekundären Sensordaten des zweiten Fahrzeugs erfassten Objekte; oder äquivalente bestimmte Grundgeschwindigkeiten bei einem oder mehreren gemeinsamen Objekten basierend auf den Sensordaten und den sekundären Sensordaten.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner durch das Gestatten von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wenn die Verifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, gekennzeichnet. Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, bei dem ein erstes Fahrzeug ein oder mehrere Sensoren umfasst, die Sensordaten bereitstellen; sowie eine Fahrzeugsteuerung in Kommunikation mit dem einen oder den mehreren Sensoren des ersten Fahrzeugs, dazu konfiguriert, sekundäre Sensordaten von einem zweiten Fahrzeug zu empfangen; wobei die Fahrzeugsteuerung nichtflüchtige computerlesbare Speichermedien umfasst, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen; Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: a eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfassen die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; die Sensordaten umfassen ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten;
    die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, den Gierwinkel des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten auszutauschen.
  • Gemäß der vorliegenden Erfindung, nichtflüchtige computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  • Gemäß einer Ausführungsform umfassen die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild; die Sensordaten umfassen ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten;
    die sekundären Sensordaten umfassen ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild; und die sekundären Sensordaten umfassen ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform ist die obige Erfindung ferner dadurch gekennzeichnet, dass die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst:
    den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  • Gemäß einer Ausführungsform veranlassen die Anweisungen ferner den einen oder die mehreren Prozessoren dazu, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  • Gemäß einer Ausführungsform ist die obige Erfindung dadurch gekennzeichnet, dass die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst:
    den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.

Claims (15)

  1. Verfahren, Folgendes umfassend: Empfangen von Sensordaten von einem ersten Fahrzeug und sekundären Sensordaten von einem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs zum ersten Fahrzeug; oder ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  2. Verfahren nach Anspruch 1, wobei die Authentifizierung eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen Objekts, wie es von den Sensordaten des ersten Fahrzeugs und den sekundären Sensordaten des zweiten Fahrzeugs identifiziert wurde, umfasst.
  3. Verfahren nach Anspruch 1, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen; und das Verfahren ferner das Extrahieren eines Authentifizierungspunktes aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild umfasst, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  4. Verfahren nach Anspruch 3, ferner umfassend das Verifizieren des Authentifizierungspunkts basierend auf den Entfernungsdaten, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  5. Verfahren nach Anspruch 1, ferner eine(s) oder mehrere der Folgenden umfassend: Austausch eines Gierwinkels des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten; oder Gestatten von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, wenn die Verifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  6. Verfahren nach Anspruch 1, ferner umfassend: Empfangen einer von einem oder mehreren Sensoren des ersten Fahrzeugs erfassten Obj ektkarte; Empfangen einer sekundären, von einem oder mehreren Sensoren des zweiten Fahrzeugs erfassten Objektkarte; Ausrichten der sekundären Objektkarte auf die Objektkarte, um durch Drehen und/oder Verschieben einer von der Objektkarte oder der sekundären Objektkarte eine überlagerte Objektkarte zu erzeugen; und Bestimmen, basierend auf der überlagerten Objektkarte, ob es ein oder mehrere gemeinsame Objekte gibt, die in der Objektkarte und der sekundären Objektkarte identifiziert wurden.
  7. Verfahren nach Anspruch 6, ferner umfassend: Bestimmen, ob das eine oder die mehreren gemeinsamen Objekte einen Vertrauensschwellenwert für eine Anwendung des ersten Fahrzeugs erfüllen; Authentifizieren von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und des zweiten Fahrzeugs, wenn das eine oder die mehreren gemeinsamen Objekte den Vertrauensschwellenwert für die Anwendung erfüllen; Verweigern von Kommunikation zwischen der Anwendung des ersten Fahrzeugs und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte nicht den Vertrauensschwellenwert für die Anwendung erfüllen; Bestimmen, ob das eine oder die mehreren gemeinsamen, in der Objektkarte und der sekundären Objektkarte identifizierten Objekte einen globalen Vertrauensschellenwert für das erste Fahrzeug erfüllen; und Authentifizieren von Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug, falls das eine oder die mehreren gemeinsamen Objekte den globalen Vertrauensschwellenwert erfüllen.
  8. Verfahren nach Anspruch 1, wobei das Bestimmen, ob die Authentifizierung den Vertrauensschwellenwert des ersten Fahrzeugs erfüllt, Folgendes umfasst: Verifizieren einer oder mehrerer der Folgenden: einer Identität des zweiten Fahrzeugs; ob das zweite Fahrzeug sich in nächster Nähe des ersten Fahrzeugs befindet; einer Präsenz eines oder mehrerer gemeinsamer, von den Sensordaten und den sekundären Sensordaten erfassten Objekte; oder äquivalente bestimmte Grundgeschwindigkeiten bei einem oder mehreren gemeinsamen Objekten basierend auf den Sensordaten und den sekundären Sensordaten.
  9. System, Folgendes umfassend: ein erstes Fahrzeug mit einem oder mehreren Sensoren, die Sensordaten bereitstellen; und eine Fahrzeugsteuerung in Kommunikation mit dem einen oder den mehreren Sensoren, dazu konfiguriert, sekundäre Sensordaten von einem zweiten Fahrzeug zu empfangen; wobei die Fahrzeugsteuerung nichtflüchtige computerlesbare Speichermedien umfasst, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren des ersten Fahrzeugs; Empfangen von sekundären Sensordaten von dem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  10. System nach Anspruch 9, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen; und die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  11. System nach Anspruch 10, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
  12. System nach Anspruch 9, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Gierwinkel des ersten Fahrzeugs oder des zweiten Fahrzeugs zum Kompensieren einer Winkeldiskrepanz zwischen den Sensordaten und den sekundären Sensordaten auszutauschen.
  13. Nichtflüchtige computerlesbare Speichermedien, die Anweisungen speichern, die bei Ausführung durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Empfangen von Sensordaten von einem oder mehreren Sensoren eines ersten Fahrzeugs; Empfangen von sekundären Sensordaten von einem zweiten Fahrzeug; Extrahieren, basierend auf den Sensordaten und den sekundären Sensordaten, einer Authentifizierung, die eine(s) oder mehrere der Folgenden umfasst: eine Nähe des zweiten Fahrzeugs relativ zum ersten Fahrzeug; ein gemeinsames, von den Sensordaten und den sekundären Sensordaten identifiziertes Objekt; oder eine äquivalente erkannte Grundgeschwindigkeit eines gemeinsamen, von den Sensordaten und den sekundären Sensordaten identifizierten Objekts; und Bestimmen, ob die Authentifizierung einen Vertrauensschwellenwert des ersten Fahrzeugs erfüllt.
  14. Nichtflüchtige computerlesbare Speichermedien nach Anspruch 13, wobei: die Sensordaten ein von einer Kamera des ersten Fahrzeugs empfangenes Bild umfassen; die Sensordaten ferner von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des ersten Fahrzeugs empfangene Entfernungsdaten umfassen; die sekundären Sensordaten ein von einer Kamera des zweiten Fahrzeugs erhaltenes sekundäres Bild umfassen; die sekundären Sensordaten ferner sekundäre, von einem oder mehreren eines RADAR-Sensors, eines LIDAR-Sensors, eines SONAR-Sensors oder eines Ultraschallsensors des zweiten Fahrzeugs empfangene Entfernungsdaten umfassen; und die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, einen Authentifizierungspunkt aus dem von der Kamera des ersten Fahrzeugs empfangenen Bild zu extrahieren, wobei der Authentifizierungspunkt einen oder mehrere der Folgenden umfasst: einen Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; einen Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; oder eine Fahrzeugidentifizierung des zweiten Fahrzeugs.
  15. Nichtflüchtige computerlesbare Speichermedien nach Anspruch 14, wobei die Anweisungen ferner den einen oder die mehreren Prozessoren dazu veranlassen, den Authentifizierungspunkt basierend auf den Entfernungsdaten zu verifizieren, wobei das Verifizieren des Authentifizierungspunkts Folgendes umfasst: Extrahieren eines Entfernungsauthentifizierungspunkts aus den Entfernungsdaten, wobei der Entfernungsauthentifizierungspunkt einen oder mehrere der Folgenden umfasst: den Abstand des zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; oder den Azimutwinkel zwischen dem zweiten Fahrzeug und dem ersten Fahrzeug; Gegenprüfen des aus dem Bild extrahierten Authentifizierungspunkts im Vergleich mit einem entsprechenden Entfernungsauthentifizierungspunkt; und Verifizieren, dass der Authentifizierungspunkt innerhalb einer Fehlergrenze gleich dem entsprechenden Entfernungsauthentifizierungspunkt ist.
DE102018120655.0A 2017-08-25 2018-08-23 Authentifizierung von fahrzeug-zu-fahrzeug-kommunikationen Pending DE102018120655A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762550312P 2017-08-25 2017-08-25
US62/550,312 2017-08-25
US16/040,013 US10880293B2 (en) 2017-08-25 2018-07-19 Authentication of vehicle-to-vehicle communications
US16/040,013 2018-07-19

Publications (1)

Publication Number Publication Date
DE102018120655A1 true DE102018120655A1 (de) 2019-02-28

Family

ID=65321407

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018120655.0A Pending DE102018120655A1 (de) 2017-08-25 2018-08-23 Authentifizierung von fahrzeug-zu-fahrzeug-kommunikationen

Country Status (1)

Country Link
DE (1) DE102018120655A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126044A (zh) * 2019-12-24 2020-05-08 北京中安未来科技有限公司 利用置信度的vin码多重校验方法、vin码识别方法及装置
CN111126042A (zh) * 2019-12-24 2020-05-08 北京中安未来科技有限公司 利用置信度的vin码校验方法、vin码识别方法及装置
DE102019130388A1 (de) * 2019-11-11 2021-05-12 Infineon Technologies Ag Radarvorrichtung mit integrierter Sicherheitsfähigkeit
CN113075212A (zh) * 2019-12-24 2021-07-06 北京嘀嘀无限科技发展有限公司 一种车辆验证方法及装置
WO2022184213A1 (de) * 2021-03-01 2022-09-09 Continental Automotive Technologies GmbH Verfahren und vorrichtung zur inhaltlichen absicherung von objektdaten zur kollektiven perzeption
DE102022106028A1 (de) 2022-01-29 2023-08-03 GM Global Technology Operations LLC Systeme und verfahren zum erkennen von fehlverhalten bei einem autonomen fahrsystem
DE102022107847A1 (de) 2022-04-01 2023-10-05 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren, System und Computerprogrammprodukt zur Positionsbestimmung eines sich bewegenden Objekts relativ zu einem anderen Objekt
US11981351B2 (en) 2022-01-29 2024-05-14 GM Global Technology Operations LLC Systems and methods for detecting misbehavior behavior based on fusion data at an autonomous driving system
US12017665B2 (en) 2022-01-29 2024-06-25 GM Global Technology Operations LLC Systems and methods for detecting misbehavior behavior at an autonomous driving system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019130388A1 (de) * 2019-11-11 2021-05-12 Infineon Technologies Ag Radarvorrichtung mit integrierter Sicherheitsfähigkeit
DE102019130388B4 (de) 2019-11-11 2022-10-20 Infineon Technologies Ag Radarvorrichtung mit integrierter Sicherheitsfähigkeit
US11994613B2 (en) 2019-11-11 2024-05-28 Infineon Technologies Ag Radar device with integrated security capability
CN111126044A (zh) * 2019-12-24 2020-05-08 北京中安未来科技有限公司 利用置信度的vin码多重校验方法、vin码识别方法及装置
CN111126042A (zh) * 2019-12-24 2020-05-08 北京中安未来科技有限公司 利用置信度的vin码校验方法、vin码识别方法及装置
CN113075212A (zh) * 2019-12-24 2021-07-06 北京嘀嘀无限科技发展有限公司 一种车辆验证方法及装置
WO2022184213A1 (de) * 2021-03-01 2022-09-09 Continental Automotive Technologies GmbH Verfahren und vorrichtung zur inhaltlichen absicherung von objektdaten zur kollektiven perzeption
DE102022106028A1 (de) 2022-01-29 2023-08-03 GM Global Technology Operations LLC Systeme und verfahren zum erkennen von fehlverhalten bei einem autonomen fahrsystem
US11981351B2 (en) 2022-01-29 2024-05-14 GM Global Technology Operations LLC Systems and methods for detecting misbehavior behavior based on fusion data at an autonomous driving system
US12017665B2 (en) 2022-01-29 2024-06-25 GM Global Technology Operations LLC Systems and methods for detecting misbehavior behavior at an autonomous driving system
DE102022107847A1 (de) 2022-04-01 2023-10-05 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren, System und Computerprogrammprodukt zur Positionsbestimmung eines sich bewegenden Objekts relativ zu einem anderen Objekt

Similar Documents

Publication Publication Date Title
DE102018120655A1 (de) Authentifizierung von fahrzeug-zu-fahrzeug-kommunikationen
US11582222B2 (en) Authentication of vehicle-to-vehicle communications
DE102016121151A1 (de) Authentifizierung zwischen Fahrzeugen unter Verwendung von visuellen kontextbezogenen Informationen
DE102016114023B4 (de) System und Verfahren zum Erfassen eines Angriffs
Sato et al. Dirty road can attack: Security of deep learning based automated lane centering under {Physical-World} attack
DE102018112118A1 (de) Verfahren und systeme zum verwenden einer blockchain-datenbank zum austausch von daten zwischen fahrzeugen und entitäten
DE102020102426A1 (de) Fehlverhaltensdetektion in autonomen Fahrkommunikationen
DE102017116579A1 (de) Private fahrzeug-zu-fahrzeug-kommunikation
DE102010046843A1 (de) Reduzieren der Rechenlast an Prozessoren durch selektives Verwerfen von Daten in Fahrzeugnetzen
DE102020121805A1 (de) Sichern der fahrzeugprivatsphäre in einer fahrinfrastruktur
DE102010029418B4 (de) Zuteilung von Fahrzeug zu X-Zertifikaten über Infrastruktureinheiten
DE102021124931A1 (de) Vorrichtungsbereitstellung und -autentifizierung
DE102020132273A1 (de) Cybersicherheitsprotokoll
DE102019127038A1 (de) Erfassung von angriffen auf fahrzeugnetzwerke
KR20200026492A (ko) IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템
DE102021133346A1 (de) Sitzungsschlüsselerzeugung für einen betrieb autonomer fahrzeuge
KR101736007B1 (ko) 소유자의 익명성을 보장하면서 차량용 카메라 영상 데이터의 시간과 위치를 검증하는 방법 및 장치
DE102021133352A1 (de) Authentifizierte punktwolkendaten
DE112019003528T5 (de) Verfahren zum Einrichten einer anonymen digitalen Identität
EP2949096A1 (de) Bereitstellung von positionsdaten mittels eines distance-bounding protokolls
DE102021133367A1 (de) Sitzungsschlüsselerzeugung für einen betrieb autonomer fahrzeuge
CN113438204B (zh) 基于区块链的多节点协同识别响应方法
DE102022111221A1 (de) Erfassung von kameramanipulation
DE112021000089T5 (de) Anonyme datenerhebung von einer gruppe von berechtigten mitgliedern
Bubeníková et al. Security solutions of intelligent transportation system's applications with using VANET networks

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE