DE102019117618A1 - Fahrzeugklassifizierungssystem - Google Patents

Fahrzeugklassifizierungssystem Download PDF

Info

Publication number
DE102019117618A1
DE102019117618A1 DE102019117618.2A DE102019117618A DE102019117618A1 DE 102019117618 A1 DE102019117618 A1 DE 102019117618A1 DE 102019117618 A DE102019117618 A DE 102019117618A DE 102019117618 A1 DE102019117618 A1 DE 102019117618A1
Authority
DE
Germany
Prior art keywords
vehicle
encrypted
visible
markings
driving behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019117618.2A
Other languages
English (en)
Inventor
Randal Henry Visintainer
Rajendra Rao
John A. Lockwood
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019117618A1 publication Critical patent/DE102019117618A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt ein Fahrzeugklassifizierungssystem bereit.
Ein Fahrzeug trägt Markierungen, die Fahrverhaltenseigenschaften des Fahrzeugs zum Nutzen von autonomen Fahrzeugen in der Nähe des Fahrzeugs beschreiben. Die Markierungen sind unter Umständen nicht sichtbar, wie etwa durch die Verwendung von UV- oder IR-Tinten. Die Markierungen können derart vorhanden sein, dass sie unabhängig von der Betrachtungsrichtung sichtbar sind und können unter Verwendung einer Fahrzeugumhüllung angebracht sein, die auf Bleche des Fahrzeugs aufgebracht ist. Autonome Fahrzeuge erfassen die Markierungen und rufen die Fahrverhaltenseigenschaften aus einer lokalen Datenbank oder von einem Remote-Server ab. Die autonomen Fahrzeuge müssen daher keine Verarbeitung durchführen, die erforderlich ist, um die Fahrverhaltenseigenschaften des Fahrzeugs zu prognostizieren oder abzuleiten.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft Durchführen einer Hinderniserfassung bei autonomen Fahrzeugen.
  • ALLGEMEINER STAND DER TECHNIK
  • Eine der grundlegenden erforderlichen Funktionen zur Ermöglichung von autonomen Fahrzeugen besteht in der Erfassung und Klassifizierung von Hindernissen sowie der Prognose der Absicht von beweglichen Hindernissen, wie etwa Fahrzeugen. Bei einigen Ansätzen wird dies unter Verwendung von Algorithmen zum maschinellen Lernen durchgeführt, die einen großen Betrag an Rechenleistung erforderlich machen und die Kosten zur Entwicklung eines autonomen Fahrzeugs aufgrund der großen Menge an erforderlichen Trainingsdaten und der Zeit, die erforderlich ist, um das Modell des maschinellen Lernens wiederholt zu trainieren, zu testen und anderweitig zu verbessern, erheblich erhöhen.
  • Es wird ein verbesserter Ansatz zum Erfassen, Klassifizieren und Prognostizieren der Absicht von anderen Fahrzeugen benötigt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • In einem Aspekt der Erfindung beinhaltet ein Fahrzeug Folgendes: eine Fahrzeugkarosserie; eine Leistungsquelle, Räder und einen Antriebsstrang; und eine Abdeckung an der Außenseite der Fahrzeugkarosserie, die eine Vielzahl von verschlüsselten Markierungen aufweist, die über die Vorderseite, Rückseite, linke und rechte Seite der Fahrzeugkarosserie verteilt sind, wobei die verschlüsselten Markierungen Daten verschlüsseln, die eine Fahrverhaltenseigenschaft des Fahrzeugs beschreiben.
  • In einigen Ausführungsformen handelt es sich bei der Abdeckung um eine Umhüllung, die eine Vielzahl von Blechen der Karosserie abdeckt. In einigen Ausführungsformen handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Klassifizierung des Fahrzeugs. In einigen Ausführungsformen handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Verwendung des Fahrzeugs.
  • In einigen Ausführungsformen sind die verschlüsselten Markierungen für ein menschliches Auge nicht sichtbar. In einigen Ausführungsformen sind die verschlüsselten Markierungen lediglich bei Wellenlängen größer 700 Nanometer sichtbar. In einigen Ausführungsformen sind die verschlüsselten Markierungen lediglich bei Wellenlängen kleiner 400 Nanometer sichtbar.
  • Entsprechende Herstellungs- und Verwendungsverfahren sind ebenfalls offenbart.
  • Figurenliste
  • Damit die Vorteile der Erfindung ohne Weiteres verstanden werden, erfolgt durch Bezugnahme auf konkrete Ausführungsformen, die in den beigefügten Zeichnungen veranschaulicht sind, eine genauere Beschreibung der vorangehend kurz beschriebenen Erfindung. Da diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang einschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch Verwendung der beigefügten Zeichnungen beschrieben und erörtert, in denen Folgendes gilt:
    • 1A ist ein schematisches Blockdiagramm von Komponenten zum Umsetzen eines Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 1B ist eine schematische Darstellung eines umhüllten Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die zum Umsetzen von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist; und
    • 3 ist ein Prozessablaufdiagramm eines Verfahrens zum Verwenden von Fahrzeugmarkierungen gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Unter Bezugnahme auf 1A und 1B kann ein Fahrzeug 100 (siehe 1B) jedes fachbekannte Fahrzeug einschließen. Das Fahrzeug 100 kann alle Strukturen und Merkmale eines beliebigen fachbekannten Fahrzeugs aufweisen, darunter Räder, einen an die Räder gekoppelten Antriebsstrang, einen an den Antriebsstrang gekoppelten Motor, ein Lenksystem, ein Bremssystem und andere fachbekannte in ein Fahrzeug einzuschließende Systeme.
  • Wie in dieser Schrift ausführlicher erörtert, kann eine Steuerung 102, die in dem Fahrzeug 100 angebracht ist, eine autonome Navigation und Kollisionsvermeidung durchführen. Die Steuerung 102 kann eine oder mehrere Ausgaben von einem oder mehreren Außensensoren 104 empfangen. Beispielsweise können eine oder mehrere Kameras 106a an dem Fahrzeug 100 angebracht sein und empfangene Bildströme an der Steuerung 102 ausgeben. In einigen Ausführungsformen stellen die Außensensoren 104 zusammen eine 360-Grad-Ansicht um das Fahrzeug 100 bereit. In anderen Ausführungsformen kann ein kleinerer Betrachtungswinkel durch die Außensensoren 104 erzielt werden, wie etwa ein Winkel zwischen 180 und 270 Grad.
  • Die Außensensoren 104 können Sensoren, wie etwa einen Ultraschallsensor 106b, einen RADAR-(Radio-Detection-And-Ranging-)Sensor 106c, einen LIDAR-(Light-Detection-And-Ranging-)Sensor 106d, einen SONAR-(Sound-Navigation-And-Ranging-)Sensor 106e und dergleichen einschließen.
  • In einigen Ausführungsformen können die Außensensoren 104 eine oder mehrere Kameras 106f einschließen, die in der Lage sind, Wellenlängen entweder im Infrarotbereich (IR-Bereich) (größer als 700 nm) oder im Ultraviolettbereich (UV-Bereich) (kleiner als 400 nm) zu erfassen. Wie nachfolgend erörtert, können Markierungen, die an anderen Fahrzeugen angebracht sind, unter Verwendung der einen oder mehreren Kameras 106f erfasst werden. Beispielsweise können eine nach vorne gerichtete Kamera 106f und eine nach hinten gerichtete Kamera 106f verwendet werden. Eine nach rechts und eine nach links gerichtete Kamera 106f können ebenfalls eingeschlossen sein.
  • Die Steuerung 102 kann ein autonomes Betriebsmodul 108 ausführen, das die Ausgaben der Außensensoren 104 empfängt. Das autonome Betriebsmodul 108 kann ein Hindernisidentifikationsmodul 110a, ein Kollisionsprognosemodul 110b und ein Entscheidungsmodul 110c beinhalten. Das Hindernisidentifikationsmodul 110a analysiert die Ausgaben der Außensensoren und identifiziert mögliche Hindernisse, darunter Personen, Tiere, Fahrzeuge, Gebäude, Bordsteine und andere Objekte und Strukturen. Insbesondere kann das Hindernisidentifikationsmodul 110a Fahrzeugbilder in den Sensorausgaben identifizieren.
  • Das Kollisionsprognosemodul 110b prognostiziert auf Grundlage seines gegenwärtigen Kurses oder gegenwärtig beabsichtigten Wegs, welche Hindernisbilder wahrscheinlich mit dem Fahrzeug 100 kollidieren werden. Das Kollisionsprognosemodul 110b kann die Wahrscheinlichkeit einer Kollision mit durch das Hindernisidentifikationsmodul 110a identifizierten Objekten beurteilen. Das Entscheidungsmodul 110c kann eine Entscheidung zum Anhalten, Beschleunigen, Abbiegen usw. treffen, um Hindernissen auszuweichen. Die Art und Weise, auf die das Kollisionsprognosemodul 110b mögliche Kollisionen prognostiziert, und die Art und Weise, auf die das Entscheidungsmodul 110c Maßnahmen ergreift, um mögliche Kollisionen zu vermeiden, können einem beliebigen auf dem Fachgebiet autonomer Fahrzeuge bekannten Verfahren oder System entsprechen.
  • Das Entscheidungsmodul 110c kann den Kurs des Fahrzeugs durch Betätigen von einem oder mehreren Aktoren 112 steuern, welche die Richtung und Geschwindigkeit des Fahrzeugs 100 steuern. Beispielsweise können die Aktoren 112 einen Lenkaktor 114a, einen Beschleunigungsaktor 114b und einen Bremsaktor 114c einschließen. Die Konfiguration der Aktoren 114a-114c kann gemäß einer beliebigen Umsetzung derartiger auf dem Fachgebiet autonomer Fahrzeuge bekannter Aktoren erfolgen.
  • In hierin offenbarten Ausführungsformen kann das autonome Betriebsmodul 108 die autonome Navigation zu einem angegebenen Ort, autonomes Parken und andere fachbekannte automatisierte Fahraktivitäten durchführen.
  • In einigen Ausführungsformen können Informationen, die durch eine automatisierte Hinderniserfassung erhalten werden, durch Daten erweitert werden, die ausdrücklich in Markierungen verschlüsselt sind, die an anderen Fahrzeugen angebracht sind. Insbesondere können die Markierungen Informationen kommunizieren, die Fahrverhaltenseigenschaften des Fahrzeugs betreffen, an dem die Markierungen angebracht sind. Beispielsweise kann die Markierung Informationen bezüglich einer Klassifizierung, einer üblichen Verwendung oder einer anderen Angabe einer Absicht des Fahrzeugs verschlüsseln, an dem die Markierung angebracht ist. Dementsprechend kann das autonome Betriebsmodul 108 ein Entschlüsselungsmodul 110d beinhalten, das programmiert ist, um Markierungen an anderen Fahrzeugen zu erfassen und zu entschlüsseln. Wie nachfolgend beschrieben, können die Markierungen unter Verwendung von Kameras 106f erfassbar sein, die Wellenlängen im nicht sichtbaren Spektrum (IR/UV) erfassen.
  • In einigen Ausführungsformen kann das Entschlüsselungsmodul 110d eine Markierung eines anderen Fahrzeugs durch Abrufen von Daten aus einer Datenbank 116 entschlüsseln, welche die eine oder mehreren Eigenschaften beschreiben, die der Markierung entsprechen. Beispielsweise können Fahrzeugdatensätze 118 in der Datenbank 116 gespeichert sein, die jeweils eine Fahrzeugkennung 120a beinhalten, die entweder in der Markierung verschlüsselt ist, die dem Datensatz 118 entspricht, oder den Daten zugewiesen ist, die in der Markierung verschlüsselt sind, die dem Datensatz 118 entspricht.
  • Der Datensatz 118 kann ferner Parameter 120b beinhalten, welche die eine oder mehreren Fahrverhaltenseigenschaften eines entsprechenden Fahrzeugs beschreiben, das die Markierung trägt, die dem Datensatz 118 entspricht. Bei den Parametern 120b kann es sich um statische Parameter handeln, wie etwa eine Klassifizierung des entsprechenden Fahrzeugs: Coupe, Limousine, Geländefahrzeug (sport utility vehicle - SUV), Truck, Lieferwagen, Kastenlieferwagen usw. Die Parameter 120b können Abmessungen des entsprechenden Fahrzeugs (Höhe, Breite, Länge) einschließen. Die Parameter 120b können Parameter einschließen, die Folgendes beschreiben: die Bremskraft, die Reifengriffigkeit, die Beschleunigung, das Drehmoment/die Leistung des Verbrennungs- oder Elektromotors, den Drehradius oder eine andere Beschreibung des Fahrverhaltens des entsprechenden Fahrzeugs. Die Parameter 120b können eine Angabe einer Fahrerabsicht einschließen, wie etwa die Tatsache, dass das Fahrzeug Lieferungen durchführt, sich im Eigenbesitz befindet und zum Pendeln verwendet wird oder andere Parameter, die beim Prognostizieren von Handlungen des Fahrers und des entsprechenden Fahrzeugs nützlich sein können.
  • Es ist anzumerken, dass ähnliche Fahrzeuge (z. B. gleiche Art, gleiche Marke, gleiches Modell, gleicher Besitzer usw.) sich ähnlich verhalten können und daher identische Markierungen oder Markierungen aufweisen können, die sich auf denselben Fahrzeugdatensatz 118 beziehen.
  • Die Parameter 120b können ferner dynamische Parameter einschließen, die durch das entsprechende Fahrzeug aktualisiert werden, wie etwa eine vorgesehene Route, der das entsprechende Fahrzeug folgt.
  • Die Steuerung 102 kann über ein Server-System 122 auf die Datenbank 116 zugreifen. Beispielsweise kann die Steuerung 102 mit einer zellularen Datenkommunikationsantenne 124 kommunizieren, die über ein Netzwerk 126 an das Server-System 122 gekoppelt ist.
  • In weiteren Ausführungsformen kann die Datenbank 116 lokal an dem Fahrzeug 100 gespeichert sein und kann auf diese durch die Steuerung 102 direkt zugegriffen werden. Beispielsweise kann die Steuerung 102 in regelmäßigen Abständen die Datenbank 116 oder Aktualisierungen der Datenbank herunterladen. Beispielsweise kann die Steuerung 102 einen Abschnitt einer Datenbank herunterladen, der sich auf Fahrzeug innerhalb einer Schwellennähe zu dem Fahrzeug 100 bezieht, wie etwa 20 Meilen oder ein anderer Radius.
  • Unter Bezugnahme auf 1B kann ein Fahrzeug 100, bei dem es sich um ein autonomes Fahrzeug wie in Bezug auf 1A beschrieben handelt, eine Vielzahl von Markierungen 128 tragen, die eine oder mehrere Handhabungseigenschaften des Fahrzeugs 100 verschlüsseln, wie etwa einige oder alle der vorangehend beschriebenen Parameter 120b. Andere Fahrzeuge oder Objekte, die nicht autonom sind, können ebenfalls daran angebrachte Markierungen 128 auf eine identische Weise an dem Fahrzeug 100 aufweisen.
  • Wie gezeigt, können die Markierungen 128 an verschiedenen Stellen an dem Fahrzeug 100 angebracht sein, wie etwa an der Vorderseite, Rückseite, linken und rechten Seite des Fahrzeugs 100. Wie vorangehend angemerkt, können die Markierungen mit Tinte gedruckt sein, die für das menschliche Auge nicht sichtbar ist, wie etwa Tinte, die lediglich in dem IR- oder UV-Spektrum sichtbar ist. Es kann eine beliebige fachbekannte IR- oder UV-Tinte verwendet werden. Die Verwendung von IR- oder UV-Tinten kann ermöglichen, dass die Markierungen trotz Beleuchtungsvariationen sichtbar sind. Beispielsweise können IR-Tinten nachts besser sichtbar sind als für Menschen sichtbare Tinten.
  • In einigen Ausführungsformen können die Markierungen 128 auf eine Umhüllung gedruckt sein, die über die Karosseriebleche des Fahrzeugs geklebt ist, sodass die Umhüllung einen Hauptteil der Außenfläche (mit Ausnahme der Fenster) des Fahrzeugs 100 abdeckt. Beispielsweise kann zumindest 80 % der gesamten Außenfläche jedes Karosserieblechs des Fahrzeugs 100 mit einem Teil der Umhüllung bedeckt sein, die zumindest eine Markierung 128 beinhaltet. In einigen Ausführungsformen können ein vorderer und hinterer Stoßfänger und das Dach ausgeschlossen sein, da das Dach unter Umständen nicht häufig für andere Fahrzeuge sichtbar ist. Das für die Umhüllung verwendete Material und die Art und Weise von dessen Aufbringung können einem beliebigen auf dem Fachgebiet von Fahrzeugumhüllungen bekannten Verfahren entsprechen.
  • 2 ist ein Blockdiagramm, das eine beispielhafte Rechenvorrichtung 200 veranschaulicht. Die Rechenvorrichtung 200 kann verwendet werden, um verschiedene Vorgänge durchzuführen, wie etwa die hierin erörterten. Die Steuerung 102 und das Serversystem 122 können einige oder alle der Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, die alle an einen Bus 212 gekoppelt sind. Der bzw. die Prozessor(en) 202 beinhalten eine(n) oder mehrere Prozessoren oder Steuerungen, die in der bzw. den Speichervorrichtung(en) 204 und/oder Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der bzw. die Prozessor(en) 202 können zudem verschiedene Arten von computerlesbaren Medien beinhalten, wie etwa Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhalten verschiedene computerlesbare Medien, wie etwa flüchtigen Speicher (z. B. Direktzugriffsspeicher (random access memory - RAM) 214) und/oder nichtflüchtigen Speicher (z. B. Festwertspeicher (read-only memory - ROM) 216). Die Speichervorrichtung(en) 204 können zudem wiederbeschreibbaren ROM beinhalten, wie etwa Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk 224. Zudem können verschiedene Laufwerke in der bzw. den Massenspeichervorrichtung(en) 208 enthalten sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhalten Wechselmedien 226 und/oder Nicht-Wechselmedien.
  • Die E/A-Vorrichtung(en) 210 beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben oder daraus abgerufen werden. Die beispielhafte(n) E/A-Vorrichtung(en) 210 beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 beinhaltet eine beliebige Art von Vorrichtung, die dazu in der Lage ist, einem oder mehreren Benutzern der Rechenvorrichtung 200 Informationen anzuzeigen. Zu Beispielen für die Anzeigevorrichtung 230 gehören ein Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen.
  • Die Schnittstelle(n) 206 beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. Zu (einer) beispielhaften Schnittstelle(n) 206 gehören eine beliebige Anzahl von unterschiedlichen Netzwerkschnittstellen 220, wie etwa Schnittstellen zu lokalen Netzen (local area networks - LANs), Weitverkehrsnetzen (wide area networks - WANs), drahtlosen Netzen und dem Internet. Zu (einer) andere(n) Schnittstelle(n) gehören eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Zu der bzw. den Schnittstelle(n) 206 können zudem eine oder mehrere Peripherieschnittstellen gehören, wie etwa Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Trackpad usw.), Tastaturen und dergleichen.
  • Der Bus 212 ermöglicht es dem bzw. den Prozessor(en) 202, der bzw. den Speichervorrichtung(en) 204, der bzw. den Schnittstelle(n) 206, der bzw. den Massenspeichervorrichtung(en) 208, der bzw. den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230, miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind, zu kommunizieren. Der Bus 212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hierin als diskrete Blöcke gezeigt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeitpunkten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden können, und werden durch den bzw. die Prozessor(en) 202 ausgeführt. Alternativ können die in dieser Schrift beschriebenen Systeme und Vorgänge in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware umgesetzt sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel programmiert sein, um eines bzw. einen oder mehrere der hierin beschriebenen Systeme und Vorgänge ausführen.
  • 3 veranschaulicht ein Verfahren 300, das durch die Steuerung 102 ausgeführt werden kann. Die Steuerung 102 kann Sensordaten von den Außensensoren 104 empfangen 302. Die Steuerung beurteilt 304 die Sensordaten, um zu bestimmen, ob eine Markierung 108 aufgefunden wurde. Beispielsweise kann eine Abbildung von der Kamera 106f beurteilt werden, um zu bestimmen, ob Markierungen 128 in der Abbildung sichtbar sind. Wenn dies der Fall ist, kann das Verfahren 300 Erhalten 306 von Parametern beinhalten, die den erfassten Markierungen 128 entsprechen. Wie vorangehend angemerkt, kann dies Abrufen von Parametern 120b aus einem Eintrag in der Datenbank 118 beinhalten, der einer Kennung entspricht, die in der Markierung 128 verschlüsselt ist. Die Datenbank 118 kann entfernt oder lokal sein, sodass das Abrufen ein lokales Abrufen oder durch Anfordern der Parameter 120b von einem Remote-Server 122 beinhalten kann. Die Markierung 128 selbst kann als ein QR-(Quick-Response-)Code, Strichcode oder Nur-Text-Ziffern und/oder -Buchstaben ausgeführt sein. Dementsprechend kann Schritt 304 Entschlüsseln der Markierung 128 beinhalten, um eine Kennung zu erhalten, die verwendet werden kann, um den entsprechend Fahrzeugdatensatz 118 abzurufen. In weiteren Ausführungsformen sind die Parameter 120b in der Markierung 128 selbst verschlüsselt und werden durch Entschlüsselungssymbole auf der Markierung 128 erhalten.
  • Das Verfahren 300 kann Erweitern 308 der Daten, die von den Außensensoren 104 empfangen wurden, mit den Parametern 120b beinhalten, die für jede erfasste Markierung erhalten wurden. Das Verfahren 300 kann dann Durchführen 310 einer Hinderniserfassung und -vermeidung in Bezug auf Hindernisse beinhalten, die in den Sensordaten wie bei Schritt 308 erweitert erfasst wurden. Insbesondere kann die Analyse bezüglich der Größe, der Bremskraft, der Beschleunigung, des Drehradius, der Fahrerabsicht usw. eines Fahrzeugs, das eine erfasste Markierung 128 aufweist, weggelassen werden und können stattdessen die Parameter 120b verwendet werden. Dementsprechend wird eine Berechnung, die erforderlich ist, um diese Funktion durchzuführen, vermieden, wodurch mehr Rechenressourcen zum Analysieren unmarkierter Hindernisse und Durchführen einer weiteren Analyse der Umgebung des Fahrzeugs 100, um Hindernisse zu erfassen und zu vermeiden, bereitgestellt werden.
  • Es ist anzumerken, dass andere Einheiten als ein autonomes oder durch einen Menschen betriebenes Fahrzeug Markierungen 128 wie hierin beschrieben tragen oder aufweisen können. Beispielsweise können Kameras, die an Gebäuden oder einer anderen Infrastruktur angebracht sind, Markierungen 128 erfassen und erfasste Informationen unter Verwendung von V2V-(Fahrzeug-zu-Fahrzeug-)Kommunikation, wie etwa eines Protokolls für dediziere Nahbereichskommunikation (dedicated short range communication - DSRC), an Fahrzeuge in der Nähe übermitteln. In einem weiteren Beispiel werden Abbildungen von Kameras, die an Gebäuden oder einer anderen Infrastruktur angebracht sind, durch einen stationären Computer verarbeitet, um Fußgänger und andere Hindernisse zu erfassen. Der stationäre Computer kann diese Informationen dann an Fahrzeuge übermitteln, die unter Verwendung der Markierungen 128, die an den Fahrzeugen angebracht sind, erfasst und identifiziert wurden. Beispielsweise könnte der stationäre Computer beim Erfassen einer Markierung 128 Parameter 120b abrufen und verwenden, die einen Code oder andere Informationen zum Aufbauen einer drahtlosen Kommunikationsverbindung mit dem Fahrzeug beschreiben, das die Markierung 128 trägt, um eine drahtlose Verbindung mit dem Fahrzeug aufzubauen.
  • 3 ist lediglich ein beispielhafter Verwendungsfall für Markierungen 128, die auf die vorangehend in Bezug auf 1A und 1B beschriebene Weise an Fahrzeugen angebracht sind.
  • In einem weiteren Verwendungsfall können Kameras, die an einer Infrastruktur angebracht sind, wie etwa an Ampeln oder anderen stationären Befestigungen, Markierungen 128 erfassen und als Reaktion auf die Erfassung Handlungen durchführen. Beispielsweise kann eine Kamera an einer Kreuzung an eine Ampelsteuerung gekoppelt sein. Bei Erfassen einer Markierung eines Einsatzfahrzeugs (Polizei, Krankenwagen, Feuerwehr) kann die Ampelsteuerung dann die Ampel steuern, um eine Durchfahrt des Einsatzfahrzeugs durch die Kreuzung zu vereinfachen, wie etwa, indem sie alle Ampeln auf rot schaltet, die Einfahrten in die Kreuzung steuern, oder eine Ampel auf grün schaltet, die den Verkehrsstrom in der Richtung steuert, in der sich das Einsatzfahrzeug bewegt.
  • In der vorangehenden Beschreibung werden die Markierungen 128 so beschrieben, dass sie an Fahrzeugen angebracht sind, wie etwa Automobilen oder Trucks. Ein beliebiges anderes Objekt kann jedoch eine Markierung 128 wie vorangehend beschrieben daran angebracht haben, die Klassifizierungs- und/oder Verhaltensinformationen beinhaltet. Beispielsweise Fahrräder, Motorräder, Kleidung von Fußgängern, Gebäude, Straßenausstattungen (Barrieren, Zeichen usw.).
  • In der vorangehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in denen die Offenbarung ausgeführt sein kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann; jede Ausführungsform muss jedoch nicht notwendigerweise diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich solche Formulierungen nicht notwendigerweise auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, diese(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie hierin erörtert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Zu Computerspeichermedien (-vorrichtungen) gehören RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - „SSDs“) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher (phase-change memory - „PCM“), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder verdrahtete, drahtlose oder eine Kombination aus verdrahteter oder drahtloser) Kommunikationsverbindung einem Computer bereitgestellt oder auf diesen übertragen werden, sieht der Computer die Verbindung korrekt als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorangehenden sollten ebenfalls im Umfang computerlesbarer Medien enthalten sein.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
  • Der Fachmann wird verstehen, dass die Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen angewendet werden kann, einschließlich eines Armaturenbrett-Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handvorrichtungen, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedenen Speichervorrichtungen und dergleichen. Die Offenbarung kann zudem in verteilten Systemumgebungen umgesetzt werden, in denen sowohl lokale Computersysteme als auch Remote-Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus verdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Remote-Speichervorrichtungen befinden.
  • Ferner können die hierin beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel programmiert sein, um eines bzw. einen oder mehrere der hierin beschriebenen Systeme und Vorgänge ausführen. Bestimmte Begriffe werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird verstehen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel einen Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hierin zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt sein, wie es dem einschlägigen Fachmann bekannt ist.
  • Zumindest einige Ausführungsformen der Offenbarung wurden Computerprogrammprodukten zugeführt, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während vorangehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für den einschlägigen Fachmann ist ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keine der vorangehend beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorangehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die Offenbarung nicht auf die konkrete offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorangehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
  • Gemäß der vorliegenden Erfindung ist ein Fahrzeug bereitgestellt, das Folgendes aufweist: eine Fahrzeugkarosserie, eine Leistungsquelle, Räder und einen Antriebsstrang und eine Abdeckung an der Außenseite der Fahrzeugkarosserie, die eine Vielzahl von verschlüsselten Markierungen aufweist, die über die Vorderseite, Rückseite, linke und rechte Seite der Fahrzeugkarosserie verteilt sind, wobei die verschlüsselten Markierungen Daten verschlüsseln, die eine Fahrverhaltenseigenschaft des Fahrzeugs beschreiben.
  • Gemäß einer Ausführungsform handelt es sich bei der Abdeckung um eine Umhüllung, die eine Vielzahl von Blechen der Karosserie abdeckt.
  • Gemäß einer Ausführungsform handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Klassifizierung des Fahrzeugs.
  • Gemäß einer Ausführungsform handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Verwendung des Fahrzeugs.
  • Gemäß einer Ausführungsform sind die verschlüsselten Markierungen für ein menschliches Auge nicht sichtbar.
  • Gemäß einer Ausführungsform sind die verschlüsselten Markierungen lediglich bei Wellenlängen größer 700 Nanometer sichtbar.
  • Gemäß einer Ausführungsform sind die verschlüsselten Markierungen lediglich bei Wellenlängen kleiner 400 Nanometer sichtbar.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Empfangen von Sensordaten von Außensensoren, die an einem ersten Fahrzeug angebracht sind, durch eine Fahrzeugsteuerung des ersten Fahrzeugs, wobei die Außensensoren eine Kamera einschließen, Beurteilen einer Abbildung, die in den Sensordaten eingeschlossen ist, durch die Fahrzeugsteuerung, Identifizieren eines zweiten Fahrzeugs, das eine verschlüsselte Markierung aufweist, in der Abbildung durch die Fahrzeugsteuerung, Entschlüsseln der verschlüsselten Markierung durch die Fahrzeugsteuerung, um eine Fahrverhaltenseigenschaft des zweiten Fahrzeugs zu erhalten, und Durchführen einer Hindernisvermeidung in Bezug auf das zweite Fahrzeug auf Grundlage der Sensordaten und der Fahrverhaltenseigenschaft.
  • Gemäß einer Ausführungsform beinhalten die Sensordaten Ausgaben von zumindest einem von einem Light-Detection-And-Ranging-(LIDAR-)Sensor und einem Radio-Detection-And-Ranging-(RADAR-)Sensor.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Erfassen der Abbildung durch die Kamera durch Erfassen von Licht mit Wellenlängen, die für ein menschliches Auge nicht sichtbar sind.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Erfassen der Abbildung durch die Kamera durch Erfassen von Wellenlängen größer 700 Nanometer.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Erfassen der Abbildung durch die Kamera durch Erfassen von Wellenlängen kleiner 400 Nanometer.
  • Gemäß einer Ausführungsform umfasst das Entschlüsseln der verschlüsselten Markierung Folgendes: Extrahieren einer Kennung aus der verschlüsselten Markierung durch die Fahrzeugsteuerung, Übertragen der Kennung an einen Remote-Server durch die Fahrzeugsteuerung und Empfangen der Fahrverhaltenseigenschaft von dem Remote-Server durch die Fahrzeugsteuerung.
  • Gemäß einer Ausführungsform umfasst das Entschlüsseln der verschlüsselten Markierung Folgendes: Extrahieren einer Kennung aus der verschlüsselten Markierung durch die Fahrzeugsteuerung und Abrufen der Fahrverhaltenseigenschaft aus einem Eintrag in einer Datenbank, die in dem Fahrzeug gespeichert ist, durch die Fahrzeugsteuerung, wobei der Eintrag der Kennung entspricht.
  • Gemäß einer Ausführungsform handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Klassifizierung des Fahrzeugs.
  • Gemäß einer Ausführungsform handelt es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um eine Verwendung des Fahrzeugs.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Bereitstellen eines Fahrzeugs, das eine Vielzahl von Karosserieblechen, eine Leistungsquelle, Räder und einen Antriebsstrang beinhaltet, Verschlüsseln einer Fahrverhaltenseigenschaft des Fahrzeugs in einer Markierung und Aufbringen einer Umhüllung auf die Vielzahl von Karosserieblechen, sodass die Umhüllung die Vielzahl von Karosserieblechen vollständig abdeckt, wobei die Umhüllung Kopien der Markierung auf der gesamten Umhüllung verteilt hat, sodass sich Kopien der Markierung auf der Vorderseite, Rückseite, linken und rechten Seite der Fahrzeugkarosserie befinden, wobei die verschlüsselten Markierungen Daten verschlüsseln, die eine Fahrverhaltenseigenschaft des Fahrzeugs beschreiben.
  • Gemäß einer Ausführungsform schließt die Fahrverhaltenseigenschaft zumindest eines von einer Klassifizierung und einer Verwendung des Fahrzeugs ein.
  • Gemäß einer Ausführungsform sind die Kopien der Markierungen lediglich bei Wellenlängen größer 700 Nanometer sichtbar.
  • Gemäß einer Ausführungsform sind die Kopien der Markierungen lediglich bei Wellenlängen kleiner 400 Nanometer sichtbar.

Claims (15)

  1. Fahrzeug, umfassend: eine Fahrzeugkarosserie; eine Leistungsquelle, Räder und einen Antriebsstrang; und eine Abdeckung an der Außenseite der Fahrzeugkarosserie, die eine Vielzahl von verschlüsselten Markierungen aufweist, die über die Vorderseite, Rückseite, linke und rechte Seite der Fahrzeugkarosserie verteilt sind, wobei die verschlüsselten Markierungen Daten verschlüsseln, die eine Fahrverhaltenseigenschaft des Fahrzeugs beschreiben.
  2. Fahrzeug nach Anspruch 1, wobei es sich bei der Abdeckung um eine Umhüllung handelt, die eine Vielzahl von Blechen der Karosserie abdeckt.
  3. Fahrzeug nach Anspruch 1, wobei es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um zumindest eine von einer Klassifizierung des Fahrzeugs und einer Verwendung des Fahrzeugs handelt.
  4. Fahrzeug nach Anspruch 1, wobei die verschlüsselten Markierungen für ein menschliches Auge nicht sichtbar sind und lediglich bei Wellenlängen größer 700 Nanometer sichtbar sind.
  5. Fahrzeug nach Anspruch 1, wobei die verschlüsselten Markierungen für ein menschliches Auge nicht sichtbar sind und lediglich bei Wellenlängen kleiner 400 Nanometer sichtbar sind.
  6. Verfahren, umfassend: Empfangen von Sensordaten von Außensensoren, die an einem ersten Fahrzeug angebracht sind, durch eine Fahrzeugsteuerung des ersten Fahrzeugs, wobei die Außensensoren eine Kamera und zumindest eines von einem Light-Detection-And-Ranging-(LIDAR-)Sensor und einem Radio-Detection-And-Ranging-(RADAR-)Sensor einschließen; Beurteilen einer Abbildung, die in den Sensordaten eingeschlossen ist, durch die Fahrzeugsteuerung; Identifizieren eines zweiten Fahrzeugs, das eine verschlüsselte Markierung aufweist, in der Abbildung durch die Fahrzeugsteuerung; Entschlüsseln der verschlüsselten Markierung durch die Fahrzeugsteuerung, um eine Fahrverhaltenseigenschaft des zweiten Fahrzeugs zu erhalten; und Durchführen einer Hindernisvermeidung in Bezug auf das zweite Fahrzeug auf Grundlage der Sensordaten und der Fahrverhaltenseigenschaft.
  7. Verfahren nach Anspruch 6, ferner umfassend Erfassen der Abbildung durch die Kamera durch Erfassen von Licht mit Wellenlängen, die für ein menschliches Auge nicht sichtbare sind, und das Wellenlängen größer 700 Nanometer aufweist.
  8. Verfahren nach Anspruch 6, ferner umfassend Erfassen der Abbildung durch die Kamera durch Erfassen von Licht mit Wellenlängen, die für ein menschliches Auge nicht sichtbare sind, und das Wellenlängen kleiner 400 Nanometer aufweist.
  9. Verfahren nach Anspruch 6, wobei das Entschlüsseln der verschlüsselten Markierung Folgendes umfasst: Extrahieren einer Kennung aus der verschlüsselten Markierung durch die Fahrzeugsteuerung; Übertragen der Kennung an einen Remote-Server durch die Fahrzeugsteuerung; und Empfangen der Fahrverhaltenseigenschaft von dem Remote-Server durch die Fahrzeugsteuerung.
  10. Verfahren nach Anspruch 6, wobei das Entschlüsseln der verschlüsselten Markierung Folgendes umfasst: Extrahieren einer Kennung aus der verschlüsselten Markierung durch die Fahrzeugsteuerung; Abrufen der Fahrverhaltenseigenschaft aus einem Eintrag in einer Datenbank, die in dem Fahrzeug gespeichert ist, durch die Fahrzeugsteuerung, wobei der Eintrag der Kennung entspricht.
  11. Verfahren nach Anspruch 6, wobei es sich bei der Fahrverhaltenseigenschaft des Fahrzeugs um zumindest eine von einer Klassifizierung des Fahrzeugs und einer Verwendung des Fahrzeugs handelt.
  12. Verfahren, umfassend: Bereitstellen eines Fahrzeugs, das eine Vielzahl von Karosserieblechen, eine Leistungsquelle, Räder und einen Antriebsstrang beinhaltet; Verschlüsseln einer Fahrverhaltenseigenschaft des Fahrzeugs in einer Markierung; und Aufbringen einer Umhüllung auf die Vielzahl von Karosserieblechen, sodass die Umhüllung die Vielzahl von Karosserieblechen vollständig abdeckt, wobei die Umhüllung Kopien der Markierung auf der gesamten Umhüllung verteilt hat, sodass sich Kopien der Markierung auf der Vorderseite, Rückseite, linken und rechten Seite der Fahrzeugkarosserie befinden, wobei die verschlüsselten Markierungen Daten verschlüsseln, die eine Fahrverhaltenseigenschaft des Fahrzeugs beschreiben.
  13. Verfahren nach Anspruch 12, wobei die Fahrverhaltenseigenschaft zumindest eines von einer Klassifizierung und einer Verwendung des Fahrzeugs einschließt.
  14. Verfahren nach Anspruch 12, wobei die Kopien der Markierung lediglich bei Wellenlängen größer 700 Nanometer sichtbar sind.
  15. Verfahren nach Anspruch 12, wobei die Kopien der Markierung lediglich bei Wellenlängen kleiner 400 Nanometer sichtbar sind.
DE102019117618.2A 2018-06-29 2019-06-28 Fahrzeugklassifizierungssystem Pending DE102019117618A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/023,255 2018-06-29
US16/023,255 US10810871B2 (en) 2018-06-29 2018-06-29 Vehicle classification system

Publications (1)

Publication Number Publication Date
DE102019117618A1 true DE102019117618A1 (de) 2020-01-02

Family

ID=68886349

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019117618.2A Pending DE102019117618A1 (de) 2018-06-29 2019-06-28 Fahrzeugklassifizierungssystem

Country Status (3)

Country Link
US (1) US10810871B2 (de)
CN (1) CN110723138A (de)
DE (1) DE102019117618A1 (de)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US20140156901A1 (en) 2005-10-26 2014-06-05 Cortica Ltd. Computing device, a system and a method for parallel processing of data streams
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US20160085733A1 (en) 2005-10-26 2016-03-24 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US11537636B2 (en) 2007-08-21 2022-12-27 Cortica, Ltd. System and method for using multimedia content as search queries
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
US11037015B2 (en) 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
CN108885828B (zh) * 2016-04-15 2021-08-17 本田技研工业株式会社 车辆控制系统、车辆控制方法及存储介质
US11760387B2 (en) 2017-07-05 2023-09-19 AutoBrains Technologies Ltd. Driving policies determination
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US11613261B2 (en) 2018-09-05 2023-03-28 Autobrains Technologies Ltd Generating a database and alerting about improperly driven vehicles
US11126870B2 (en) * 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11392738B2 (en) 2018-10-26 2022-07-19 Autobrains Technologies Ltd Generating a simulation scenario
US11904863B2 (en) 2018-10-26 2024-02-20 AutoBrains Technologies Ltd. Passing a curve
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11244176B2 (en) 2018-10-26 2022-02-08 Cartica Ai Ltd Obstacle detection and mapping
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
WO2020133453A1 (zh) * 2018-12-29 2020-07-02 驭势科技(北京)有限公司 一种控制交通信号灯的方法及装置
US11170647B2 (en) 2019-02-07 2021-11-09 Cartica Ai Ltd. Detection of vacant parking spaces
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11908242B2 (en) 2019-03-31 2024-02-20 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US11704292B2 (en) 2019-09-26 2023-07-18 Cortica Ltd. System and method for enriching a concept database
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US20210286924A1 (en) 2020-03-11 2021-09-16 Aurora Innovation, Inc. Generating autonomous vehicle simulation data from logged data
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
GB2440003A (en) 2006-07-10 2008-01-16 Retainagroup Ltd Vehicle identification system consisting of a machine readable pattern on the vehicle and a imaging device to read the encoded pattern
US20080189176A1 (en) 2007-02-01 2008-08-07 Burns Peter J Rental land vehicle and fleet advertisement
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
EP2686841B1 (de) 2011-03-14 2016-09-28 The Regents of The University of California Verfahren und system zur klassifikation von fahrzeugen
US20150269258A1 (en) * 2011-12-23 2015-09-24 Prioria Robotics, Inc. Automated Self-Censoring of Remotely-Sensed Data Based on Automated ROI Awareness and People Detection Using a Prioritized Contact Transport Stream
US20140306799A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Intruder Alert Detection and Indication
US20140309853A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle diagnostics and roadside assistance
DE102013003044A1 (de) 2013-02-22 2014-08-28 Volkswagen Aktiengesellschaft Übertragen von Informationen über ein Anzeigesystem eines Fahrzeugs
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9731713B2 (en) 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
CN105336172B (zh) 2015-10-16 2017-12-22 江苏南亿迪纳数字科技发展有限公司 一种基于网络数字基因的电子车牌与车联网寻址方法
US20190225232A1 (en) * 2018-01-23 2019-07-25 Uber Technologies, Inc. Passenger Experience and Biometric Monitoring in an Autonomous Vehicle
JP6629897B2 (ja) * 2018-02-26 2020-01-15 本田技研工業株式会社 車両制御装置
JP7139643B2 (ja) * 2018-03-23 2022-09-21 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7172102B2 (ja) * 2018-04-03 2022-11-16 トヨタ自動車株式会社 車両
US11821741B2 (en) * 2018-04-17 2023-11-21 Lp-Research Inc. Stress map and vehicle navigation route

Also Published As

Publication number Publication date
CN110723138A (zh) 2020-01-24
US10810871B2 (en) 2020-10-20
US20200005631A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
DE102019117618A1 (de) Fahrzeugklassifizierungssystem
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102017115309A1 (de) Autonomes polizeifahrzeug
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
DE102017126790A1 (de) Erkennen und Reagieren auf Rettungsfahrzeuge auf einer Fahrbahn
DE102018120635A1 (de) Geteilte verarbeitung mit tiefen neuronalen netzwerken
DE102018101125A1 (de) Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten
DE102017116213A1 (de) Fahrspurerkennung mit rückfahrkamera
DE102019120880A1 (de) End-to-end-deep-generative-modell für simultane lokalisierung und abbildung
DE102020127043A1 (de) Sicherheitssystem für ein fahrzeug
DE102018109459A1 (de) Navigationsgestützte kollisionsvermeidung an kreuzungen
DE112018003474T5 (de) System und Verfahren zum Erfassen eines Schikanierens von autonomen Fahrzeugen beim Fahren
DE102018218895A1 (de) System und Verfahren zum Bereitstellen eines infrastrukturbasierten Sicherheitsalarms im Zusammenhang mit wenigstens einer Fahrbahn
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102017125963A1 (de) Objektverfolgung mit sensorfusion innerhalb eines probabalistischen rahmens
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE102019122400A1 (de) Prognostizieren einer bewegungsabsicht von objekten
DE102018101366A1 (de) Fahrzeuge in schlechten lichtverhältnissen
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
EP3204279A2 (de) Verfahren zum betrieb eines automatisiert geführten, fahrerlosen kraftfahrzeugs und überwachungssystem

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE