DE102018213692A1 - System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation - Google Patents

System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation Download PDF

Info

Publication number
DE102018213692A1
DE102018213692A1 DE102018213692.0A DE102018213692A DE102018213692A1 DE 102018213692 A1 DE102018213692 A1 DE 102018213692A1 DE 102018213692 A DE102018213692 A DE 102018213692A DE 102018213692 A1 DE102018213692 A1 DE 102018213692A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor
sensor data
data
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018213692.0A
Other languages
English (en)
Inventor
Samir K. Al-Stouhi
Paritosh Kelkar
Hasan Tafish
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102018213692A1 publication Critical patent/DE102018213692A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • H04Q9/04Arrangements for synchronous operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device
    • H04Q2209/84Measuring functions
    • H04Q2209/845Measuring functions where the measuring is synchronized between sensing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren und System zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks, umfassend ein Synchronisieren eines lokalen Uhrensignals eines ersten Fahrzeugs und eines lokalen Uhrensignals eines zweiten Fahrzeugs mit einem globalen Uhrensignal. Ferner Bestimmen eines Aufnahmeintervalls für eine Sensordaten-Aufnahmeprozesszeit, welche eine Gesamtzahl von Datenframes maximiert, welche von einem Sensor des ersten Fahrzeugs und durch einen Sensor des zweiten Fahrzeugs aufgenommen werden können. Auf Grundlage des Aufnahmeintervalls, Übertragen eines ersten Sensor-Auslösepulses zu dem Sensor des ersten Fahrzeugs und Übertragen eines zweiten Sensor-Auslösepulses dementsprechend zu dem Sensor des zweiten Fahrzeugs. Das erste Fahrzeug überträgt die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug und das zweite Fahrzeug überträgt die Sensordaten von dem Sensor des zweiten Fahrzeugs zu dem ersten Fahrzeug.

Description

  • HINTERGRUND
  • Automobilhersteller erhöhen ständig die Verwendung von elektronischen Systemen, einschließlich Sensoren und automatisierten Sensortechnologien, um Sicherheitsanwendungen und die Leistungsfähigkeit der Fahrzeuge zu verbessern. Beispielsweise können Sensoren verwendet werden, um Daten über die Umgebung eines Fahrzeugs zu messen, welche wiederum verwendet werden können, um Fahrfunktionen zu steuern/regeln oder zu automatisieren. Somit müssen die Sensoren und die Aktuatoren, welche die Sensoren steuern, präzise und zuverlässig sein, um eine optimale Leistungsfähigkeit der Fahrzeuge bereitzustellen.
  • Zusätzlich zum verstärkten Einsatz von Sensoren sind viele Fahrzeuge für einen Informationsaustausch unter Verwendung von drahtloser Fahrzeug-Kommunikation eingerichtet, beispielsweise Fahrzeug-zu-Fahrzeug (V2V), Fahrzeug-zu-Infrastruktur (V2I) und Fahrzeug-zu-Allem (V2X)-Kommunikation. Fahrzeuge können drahtlose Fahrzeug-Kommunikation verwenden, um Sensordaten zu teilen. Jedoch müssen Fahrzeuge, um Sensordaten in einer nützlichen und zuverlässigen Weise zu teilen, kooperativ zusammenarbeiten, um Sensordaten aufzunehmen und zu übertragen.
  • KURZBESCHREIBUNG
  • Gemäß einem Aspekt umfasst ein Computer-implementiertes Verfahren zum Steuern/Regeln einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks ein Herstellen einer Betriebsverbindung für eine Computer-Kommunikation zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug unter Verwendung des Fahrzeug-Kommunikationsnetzwerks. Das Verfahren umfasst ein Empfangen eines globalen Zeitsignals bei dem ersten Fahrzeug und bei dem zweiten Fahrzeug. Ein Prozessor des ersten Fahrzeugs synchronisiert ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal und ein Prozessor des zweiten Fahrzeugs synchronisiert ein lokales Uhrensignal des zweiten Fahrzeugs mit dem globalen Zeitsignal. Ferner umfasst das Verfahren ein Bestimmen eines Aufnahmeintervalls für eine Sensordaten-Aufnahmeprozesszeit, welches eine Gesamtanzahl von Datenframes maximiert, welche von einem Sensor des ersten Fahrzeugs und von einem Sensor des zweiten Fahrzeugs aufgenommen werden können. Das Verfahren umfasst ein Übertragen eines ersten Sensor-Auslösepulses gemäß dem Aufnahmeintervall an den Sensor des ersten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird. Das erste Fahrzeug überträgt die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug. Ferner umfasst das Verfahren ein Übertragen eines zweiten Sensor-Auslösepulses gemäß dem Aufnahmeintervalls zu dem Sensor des zweiten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird. Der zweite Sensor-Auslösepuls ist von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt. Das zweite Fahrzeug überträgt die Sensordaten von dem Sensor des zweiten Fahrzeugs zu dem ersten Fahrzeug.
  • Gemäß einem weiteren Aspekt umfasst ein System zum Steuern/Regeln einer Fahrzeugsensor-Datenaufnahme, welche ein Fahrzeug-Kommunikationsnetzwerk verwendet, ein erstes zu Computer-Kommunikation mit einem zweiten Fahrzeug unter Verwendung des Fahrzeug-Kommunikationssystems eingerichtetes Fahrzeug. Das System umfasst einen Prozessor, welcher ein globales Zeitsignal von einer globalen Positionsbestimmungsquelle erhält und ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal synchronisiert. Der Prozessor bestimmt ein Aufnahmeintervall, welches eine Gesamtanzahl von Datenframes zur Aufnahme durch einen Sensor des ersten Fahrzeugs auf Grundlage eines Sensors des zweiten Fahrzeugs maximiert. Der Prozessor überträgt einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird. Der Sensor des ersten Fahrzeugs überträgt die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug. Ferner überträgt der Prozessor einen zweiten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird. Der Sensor des zweiten Fahrzeugs überträgt die Sensordaten von dem Sensor des zweiten Fahrzeugs zu dem ersten Fahrzeug.
  • Gemäß einem weiteren Aspekt umfasst ein nicht-flüchtiges Computer-lesbares Speichermedium Anweisungen, welche wenn sie von einem Prozessor ausgeführt werden, den Prozessor dazu veranlassen, eine betriebsmäßige Verbindung für Computer-Kommunikation zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug herzustellen und ein globales Zeitsignal von einer globalen Positionierungsquelle zu erhalten. Ferner synchronisiert der Prozessor ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal und synchronisiert ein lokales Zeitsignal des zweiten Fahrzeugs mit dem globalen Zeitsignal. Der Prozessor bestimmt ein Aufnahmeintervall, welches eine Gesamtanzahl von Datenframes zur Aufnahme durch einen Sensor des ersten Fahrzeugs und einen Sensor des zweiten Fahrzeugs maximiert. Der Prozessor erzeugt einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird, und überträgt die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug. Ferner erzeugt der Prozessor einen zweiten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird. Der zweite Sensor-Auslösepuls ist von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall verschoben, und der Prozessor erhält die Sensordaten von dem Sensor des zweiten Fahrzeugs bei dem ersten Fahrzeug.
  • Gemäß einem weiteren Aspekt umfasst ein Computer-implementiertes Verfahren zum Steuern/Regeln einer Sensordaten-Aufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks ein Herstellen einer betriebsmäßigen Verbindung für Computer-Kommunikation zwischen einer Mehrzahl von Fahrzeugen unter Verwendung des Fahrzeug-Kommunikationsnetzwerks. Jedes Fahrzeug aus der Mehrzahl von Fahrzeugen umfasst einen Prozessor, eine lokale Uhr und einen Sensor. Das Verfahren umfasst ein Verwenden der betriebsmäßigen Verbindung für Computer-Kommunikation, wobei die lokale Uhr von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen mit einem globalen Zeitsignal von einer globalen Positionierungsquelle synchronisiert wird. Das Verfahren umfasst ein Bestimmen eines Aufnahmeintervalls für einen Uhrenzyklus der lokalen Uhr von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen. Das Aufnahmeintervall maximiert eine Gesamtanzahl von Datenframes zur Aufnahme durch die Sensoren der Mehrzahl von Fahrzeugen. Ferner umfasst das Verfahren ein abwechselndes Aufnehmen zu um das Aufnahmeintervall versetzten Zeiten von Sensordaten von den Sensoren der Mehrzahl von Fahrzeugen. Jedes Fahrzeug aus der Mehrzahl von Fahrzeugen überträgt die Sensordaten zu den anderen Fahrzeugen in der Mehrzahl von Fahrzeugen.
  • Figurenliste
  • Die neuen Merkmale, von denen ausgegangen wird, dass sie charakteristisch für die Offenbarung sind, werden in den beiliegenden Ansprüchen ausgeführt. In der folgenden Beschreibung werden gleiche Teile in der Spezifikation und den Zeichnungen jeweils mit den gleichen Bezugszeichen bezeichnet. Die Zeichnungsfiguren sind nicht notwendigerweise maßstabsgetreu gezeichnet und bestimmte Figuren können in übertriebener oder verallgemeinerter Form aus Gründen von Klarheit und Knappheit gezeigt sein. Die Offenbarung selbst wird ebenso wie bevorzugte Ausführungsformen, weitere Gegenstände und Vorteile davon durch Bezugnahme auf die folgende detaillierte Beschreibung von illustrativen Ausführungsformen verstanden, wenn sie zusammen mit den beiliegenden Zeichnungen betrachtet wird, in welchen:
    • 1A eine schematische Ansicht eines beispielhaften Verkehrsszenarios ist, welches eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung gemäß einer Ausführungsform implementiert;
    • 1B ein schematisches Diagramm eines Fahrzeug-Kommunikationsnetzwerks zum Implementieren einer synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung gemäß einer beispielhaften Ausführungsform ist;
    • 2 ein Prozess-Flussdiagramm eines Verfahrens für eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation gemäß einer beispielhaften Ausführungsform ist;
    • 3A ein schematisches Diagramm ist, welches f und Verarbeitung von Sensordaten zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug gemäß einer beispielhaften Ausführungsform illustriert;
    • 3B ein schematisches Zeitnahme-Diagramm der maximalen Synchronisation und des Verarbeitens von Sensordaten aus 3A gemäß einer beispielhaften Ausführungsform ist;
    • 4 ein Prozess-Flussdiagramm eines weiteren Verfahrens für eine Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation gemäß einer beispielhaften Ausführungsform ist;
    • 5A ein schematisches Diagramm ist, welches eine minimale Synchronisation und ein Verarbeiten von Sensordaten zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug gemäß einer bespielhaften Ausführungsform illustriert;
    • 5B ein schematisches Zeitnahme-Diagramm der minimalen Synchronisation und des Verarbeitens von Sensordaten aus 5A gemäß einer beispielhaften Ausführungsform ist;
    • 6A eine schematische Ansicht eines beispielhaften Verkehrsszenarios ist, welches eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung für eine Lokalisierung gemäß einer Ausführungsform implementiert;
    • 6B eine schematische Ansicht eines beispielhaften Verkehrsszenarios einschließlich einem Ziel und einem Implementieren einer synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung für eine Lokalisierung gemäß einer Ausführungsform ist; und
    • 7 ein Prozess-Flussdiagramm eines Verfahrens für eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung für eine Lokalisierung gemäß einer beispielhaften Ausführungsform ist.
  • DETAILLIERTE BESCHREIBUNG
  • Im Folgenden sind Definitionen von ausgewählten Begriffen enthalten, die hierin verwendet werden. Die Definitionen umfassen verschiedene Beispiele und/oder Formen von Komponenten, welche in den Umfang eines Begriffs fallen und zu einer Implementierung verwendet werden können. Die Beispiele sind nicht als einschränkend vorgesehen. Ferner können die hierin diskutierten Komponenten kombiniert, weggelassen oder mit anderen Komponenten organisiert oder in andere Architekturen organisiert werden.
  • „Bus“, wie hierin verwendet, bezeichnet eine Verbindungs-Architektur, welche betriebsmäßig mit anderen Computer-Komponenten innerhalb eines Computers oder zwischen Computern verbunden ist. Der Bus kann Daten zwischen den Computer-Komponenten übertragen. Der Bus kann ein Speicher-Bus, ein Speicher-Prozessor, ein Peripherie-Bus, ein externer Bus, ein Crossbar-Bus und/oder ein lokaler Bus, usw. sein. Der Bus kann ebenfalls ein Fahrzeug-Bus sein, welcher Komponenten innerhalb eines Fahrzeugs unter Verwendung von Protokollen, wie beispielsweise Media Oriented Systems Transport (MOST), Processor Area Network (CAN), Local Interconnect Network (LIN), usw. verbindet.
  • „Komponente“, wie hierin verwendet, bezeichnet eine Computerbezogene Einheit (z.B. Hardware, Firmware, Anweisungen in Ausführung, Kombinationen davon). Computerkomponenten können beispielsweise einen Prozess, welcher an einem Prozessor läuft, einen Prozessor, ein Objekt, ein Executable, einen Thread einer Ausführung und einen Computer umfassen. Eine Computerkomponente kann innerhalb eines Prozesses und/oder Threads vorliegen. Eine Computerkomponente kann an einem Computer lokalisiert sein und/oder kann zwischen mehreren Computern verteilt sein.
  • „Computer-Kommunikation“, wie hierin verwendet, bezeichnet eine Kommunikation zwischen zwei oder mehr Rechnervorrichtungen (z.B. Computer, Persönlicher Digitaler Assistent, Mobiltelefon, Netzwerk-Vorrichtung) und kann beispielsweise ein Netzwerk-Transfer, ein Datei-Transfer, ein Applet-Transfer, eine E-Mail, ein Hypertext Transfer Protokoll (HTTP) -Transfer, usw. sein. Eine Computer-Kommunikation kann beispielsweise über ein drahtloses System (z.B. IEEE 802,11), ein Ethernet-System (z.B. IEEE 802.3), ein Token Ring System (z.B. IEEE 802.5), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Punkt-zu-Punkt-System, ein Circuit Switching System, ein Packet Switching System und andere stattfinden.
  • „Computer-lesbares Medium“, wie hierin verwendet, bezeichnet ein nicht-transitorisches Medium, welches Anweisungen und/oder Daten speichert. Ein Computer-lesbares Medium kann verschiedene Formen annehmen, einschließlich, jedoch nicht beschränkt auf, nicht-flüchtige Medien und flüchtige Medien. Nicht-flüchtige Medien können beispielsweise optische Discs, magnetische Discs, usw. sein. Flüchtige Medien können beispielsweise Halbleiterspeicher, ein dynamischer Speicher, usw. sein. Übliche Formen eines Computer-lesbaren Mediums können umfassen, sind jedoch nicht beschränkt auf, eine Diskette, eine flexible Disc, eine Festplatte, ein Magnetband, ein anderes magnetisches Medium, ein ASIC, eine CD, ein anderes optisches Medium, ein RAM, ein ROM, ein Speicherchip oder eine Speicherkarte, ein Memory-Stick und andere Medien, von welchen ein Computer, ein Prozessor oder eine andere elektronische Vorrichtung lesen kann.
  • „Datenbank“, wie hierin verwendet, wird verwendet, um eine Tabelle zu bezeichnen. In anderen Beispielen kann „Datenbank“ verwendet werden, um einen Satz von Tabellen zu bezeichnen. In noch anderen Beispielen kann „Datenbank“ einen Satz von Datenspeichern und Verfahren zum Zugreifen auf und/oder Manipulieren von diesen Datenspeichern bezeichnen. Eine Datenbank kann beispielsweise auf einer Disc und/oder einem Speicher gespeichert sein.
  • „Disc“, wie hierin verwendet, kann beispielsweise ein magnetisches Disc-Laufwerk, ein Solid-State-Disc-Laufwerk, ein Band-Laufwerk, ein Zip-Drive, eine Flash-Speicherkarte und/oder ein Memory-Stick sein. Ferner kann die Disc eine CD-ROM (Compact Disc ROM), ein beschreibbares CD-Laufwerk (CD-R Laufwerk), ein wiederbeschreibbares CD-Laufwerk (CD-RW Laufwerk) und/oder ein Digital Video ROM Laufwerk (DVD ROM) sein. Die Disc kann ein Betriebssystem speichern, das Ressourcen einer Rechnervorrichtung steuert oder auf sie zugreift.
  • „Logische Schaltung“, wie hierin verwendet, umfasst, ist jedoch nicht beschränkt auf, Hardware, Firmware, ein nicht-transitorisches Computer-lesbares Medium, welches Anweisungen speichert, Anweisungen in Ausführung auf einer Maschine und/oder zum Veranlassen (z.B. Durchführen) einer Handlung oder von Handlungen von einer anderen logischen Schaltung, einem Modul, einem Verfahren und/oder einem System. Logische Schaltungen können einen Prozessor, welcher durch einen Algorithmus gesteuert wird, eine diskrete Logik (z.B. einen ASIC), eine analoge Schaltung, eine digitale Schaltung, eine programmierte Logikvorrichtung, eine Speichervorrichtung, welche Anweisungen enthält, usw. umfassen und/oder ein Teil davon sein. Logik kann ein oder mehrere Gates, Kombinationen von Gates oder andere Schaltungskomponenten umfassen. Wo mehrere Logiken beschrieben sind, kann es möglich sein, die mehreren Logiken in eine physische Logik zu integrieren. In gleicher Weise kann, wo eine einzelne Logik beschrieben ist, es möglich sein, diese einzelne Logik zwischen mehreren physischen Logiken zu verteilen.
  • „Speicher“, wie hierin verwendet, kann flüchtigen und/oder nichtflüchtigen Speicher umfassen. Nicht-flüchtiger Speicher kann beispielsweise ROM (Nur-Lesespeicher), PROM (Programmierbarer Nur-Lesespeicher), EPROM (Löschbarer PROM) und EEPROM (elektrisch löschbarer PROM) umfassen. Flüchtiger Speicher kann beispielsweise RAM (Speicher mit wahlfreiem Zugriff), synchronen RAM (SRAM), dynamischen RAM (DRAM), synchronen DRAM (SDRAM), SDRAM mit doppelter Datenrate (DDRSDRAM) und Direct RAM Bus RAM (DRRAM) umfassen. Der Speicher kann ein Betriebssystem speichern, das Ressourcen einer Rechnervorrichtung steuert oder auf sie zugreift.
  • Eine „Betriebsverbindung“ oder eine Verbindung, durch die Elemente „betriebsmäßig verbunden“ sind, ist eine, in welcher Signale, physische Kommunikationen und/oder logische Kommunikationen gesendet und/oder empfangen werden können. Eine betriebsmäßige Verbindung kann eine drahtlose Schnittstelle, eine physische Schnittstelle, eine Daten-Schnittstelle und/oder eine elektrische Schnittstelle umfassen.
  • „Modul“, wie hierin verwendet, umfasst, ist jedoch nicht beschränkt auf, ein nicht-transitorisches Computer-lesbares Medium, welches Anweisungen, Anweisungen in Ausführung auf einer Maschine, Hardware, Firmware, Software in Ausführung auf einer Maschine und/oder Kombinationen von diesen zum Durchführen einer Funktion oder Aktion oder von Funktionen oder Aktionen und/oder zum Hervorrufen einer Funktion oder Aktion von einem anderen Modul, Verfahren und/oder System speichert. Ein Modul kann ebenfalls Logik, einen Software-gesteuerten Mikroprozessor, eine diskrete Logikschaltung, eine analoge Schaltung, eine digitale Schaltung, eine programmierte Logikvorrichtung, eine Speichervorrichtung, welche ausführende Anweisungen enthält, logische Gates, eine Kombination von Gates und/oder andere Schaltungskomponenten umfassen. Mehrere Module können in ein Modul kombiniert werden und einzelne Module können unter mehreren Modulen verteilt sein.
  • „Tragbare Vorrichtung“, wie hierin verwendet, ist eine Rechnervorrichtung, welche typischerweise einen Anzeigebildschirm mit Benutzereingabe (z.B. Touch, Tastatur) und einen Prozessor für Berechnungen aufweist. Tragbare Vorrichtungen umfassen, sind jedoch nicht beschränkt auf in Händen getragene Vorrichtungen, mobile Vorrichtungen, Smartphones, Laptops, Tablets und E-Reader.
  • Ein „Prozessor“ wie hierin verwendet, verarbeitet (prozessiert) Signale und führt allgemeine Berechnungs- und Arithmetik-Funktionen durch. Von dem Prozessor verarbeitete Signale können digitale Signale, Computeranweisungen, Prozessoranweisungen, Nachrichten, ein Bit, einen Bit-Stream, der/die erhalten, übertragen und/oder detektiert werden kann/können umfassen. Im Allgemeinen kann der Prozessor eine Reihe von unterschiedlichen Prozessoren sein, einschließlich Einzel- und Multicore-Prozessoren und Co-Prozessoren und andere mehrfache Einzel- und Multicore-Prozessor- und Co-Prozessor-Architekturen. Der Prozessor kann logische Schaltungen umfassen, um Aktionen und/oder Algorithmen auszuführen.
  • „Fahrzeug“ wie hierin verwendet, bezeichnet jedes sich bewegende Fahrzeug, das in der Lage ist, einen oder mehrere menschliche Insassen zu tragen und das von einer Form von Energie betrieben ist. Der Begriff „Fahrzeug“ umfasst, ist jedoch nicht begrenzt auf Autos, Lastwagen, Vans, Minivans, SUVs, Motorräder, Roller, Boote, Go-Karts, Jahrmarkt-Autos, Schienentransport, persönliche Wasserfahrzeuge und Flugzeuge. In einigen Fällen umfasst ein Motorfahrzeug einen oder mehrere Motoren. Ferner kann der Begriff „Fahrzeug“ ein Elektrofahrzeug (EV) bezeichnen, welches in der Lage ist, einen oder mehrere menschliche Insassen zu tragen und vollständig oder teilweise von einem oder mehreren Elektromotoren betrieben ist, die von einer elektrischen Batterie mit Leistung versorgt werden. Das EV kann batterieelektrische Fahrzeuge (BEV) und Plug-In-Hybrid-Elektrofahrzeuge (PHEV) umfassen. Der Begriff „Fahrzeug“ kann ebenfalls ein autonomes Fahrzeug und/oder selbstfahrendes Fahrzeug bezeichnen, das von einer beliebigen Form von Energie angetrieben wird. Das autonome Fahrzeug kann einen oder mehrere menschliche Insassen tragen. Ferner kann der Begriff „Fahrzeug“ Fahrzeuge umfassen, welche automatisiert oder nicht-automatisiert sind mit vorbestimmten Pfaden oder sich frei bewegende Fahrzeuge.
  • „Fahrzeuganzeige“, wie hierin verwendet, kann umfassen, ist jedoch nicht beschränkt auf LED-Anzeigetafeln, LCD-Anzeigetafeln, CRT-Anzeigen, Plasma-Anzeigetafeln, Touchscreen-Anzeigen, usw. die häufig in Fahrzeugen zu finden sind, um Informationen über das Fahrzeug anzuzeigen. Die Anzeige kann Eingaben (z.B. Touch-Eingaben, Tastatur-Eingaben, Eingaben von verschiedenen anderen Eingabevorrichtungen, etc.) von einem Benutzer empfangen. Die Anzeige kann in verschiedenen Positionen des Fahrzeugs angeordnet sein, beispielsweise an dem Armaturenbrett oder der Mittelkonsole. In einigen Ausführungsformen ist die Anzeige Teil einer tragbaren Vorrichtung (z.B. in Besitz oder in Verbindung mit einem Fahrzeuginsassen), eines Navigationssystems, eines Infotainment-Systems, usw.
  • „Fahrzeug-Steuer-/Regelsystem“ und/oder „Fahrzeug-System“, wie hierin verwendet, kann umfassen, ist jedoch nicht beschränkt auf jedes automatische oder manuelle System, welches verwendet werden kann, um das Fahrzeug, die Fahrt und/oder die Sicherheit zu verbessern. Beispielhafte Fahrzeugsysteme umfassen, sind jedoch nicht beschränkt auf: ein elektronisches Stabilität-Kontrollsystem, ein Anti-Lock-Bremssystem, ein Brems-Unterstützungssystem, ein automatisches Bremsen-Vorfüllsystem, ein Folgesystem für niedrige Geschwindigkeit, ein Tempomat, ein Kollision-Warnsystem, ein Kollisionsverhinderungs-Bremssystem, ein Tempomat-Steuersystem, ein Spurwechsel-Warnsystem, ein Toter-Winkel-Warnsystem, ein Spurhalte-Assistenzsystem, ein Navigationssystem, ein Getriebesystem, Bremspedalsysteme, ein elektronisches Servolenkungs-System, visuelle Vorrichtungen (z.B. Kamerasysteme, Annäherungssensor-Systeme), ein Klimaanlagen-Steuersystem, ein elektronisches Vorspannungssystem, ein Überwachungssystem, ein Passagier-Detektionssystem, ein Fahrzeugaufhängungs-System, ein Fahrzeugsitz-Konfigurationssystem, ein Fahrzeugkabinen-Beleuchtungssystem, ein Audiosystem, ein sensorisches System, ein Innenraum- oder Außenraum-Kamerasystem, usw.
  • SYSTEMÜBERSICHT
  • Die hierin beschriebenen Systeme und Verfahren sind im Allgemeinen auf ein Steuern/Regeln einer Betätigung von Sensoren (z.B. Auslösen/Triggern der Aktivierung von Sensoren) einer Mehrzahl von Fahrzeugen und ein Steuern/Regeln einer Übertragung von Sensordaten zwischen allen aus der Mehrzahl von Fahrzeugen unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks gerichtet. Synchronisierte Betätigung der Sensoren und synchronisierte Übertragung von Sensordaten erlaubt es der Mehrzahl von Fahrzeugen, synergetisch relevante Sensorinformationen zu teilen, die jedes Fahrzeug alleine nicht aufnehmen und/oder verarbeiten könnte. 1A illustriert ein beispielhaftes Verkehrsszenario 100, welches eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung implementiert, welche verwendet werden wird, um einige der beispielhaften Systeme und beispielhaften Verfahren hierin zu beschreiben. Das Verkehrsszenario 100 involviert ein oder mehrere Fahrzeuge auf einer Straße 102. Die Straße 102 weist eine erste Spur 104a, eine zweite Spur 104b und eine dritte Spur 104c auf. Es sollte verstanden werden, dass die Straße 102 verschiedene Konfigurationen aufweisen kann, die in 1A nicht gezeigt sind, und eine beliebige Anzahl von Spuren aufweisen kann.
  • In 1A umfasst das Verkehrsszenario 100 ein erstes Fahrzeug 106 und ein zweites Fahrzeug 108. In einigen Ausführungsformen kann das erste Fahrzeug 106 als ein Ego-Fahrzeug (Host Vehicle, HV) bezeichnet werden, und das zweite Fahrzeug 108 kann als ein entferntes Fahrzeug (Remote Vehicle) bezeichnet werden. In anderen Ausführungsformen kann das erste Fahrzeug 106 als ein einleitendes Fahrzeug bezeichnet werden, das den hierin beschriebenen Synchronisierungsprozess einleitet. Es sei jedoch festgehalten, dass in anderen Ausführungsformen das zweite Fahrzeug 108 das einleitende Fahrzeug sein kann. In anderen Ausführungsformen kann das erste Fahrzeug 106 als ein Hauptfahrzeug (Master Vehicle) bezeichnet werden und das zweite Fahrzeug 108 kann als ein Nebenfahrzeug (Slave Vehicle) bezeichnet werden oder umgekehrt. Ferner können das erste Fahrzeug 106 und das zweite Fahrzeug 108 kollektiv als eine Mehrzahl von Fahrzeugen bezeichnet werden. In einigen Ausführungsformen können die hierin diskutierten Systeme und Verfahren mit mehr als zwei Fahrzeugen implementiert werden. Es kann ebenfalls verstanden werden, dass das erste Fahrzeug 106 und das zweite Fahrzeug 108 in verschiedenen Konfigurationen und Positionen vorliegen können, die von denjenigen verschieden sind, die in 1A gezeigt sind.
  • Das erste Fahrzeug 106 und das zweite Fahrzeug 108 können als ein Teil eines Fahrzeug-Kommunikationsnetzwerks kommunizieren, das hierin detaillierter mit 1B beschrieben werden wird. Die hierin beschriebene Fahrzeug-Kommunikation kann unter Verwendung von Dedicated Short Range Communications (DSRC) implementiert sein. Es sollte jedoch verstanden werden, dass die hierin beschriebene Fahrzeug-Kommunikation mit jedem beliebigen Kommunikations- oder Netzwerk-Protokoll implementiert werden kann, beispielsweise Ad-hoc-Netzwerken, drahtlosem Zugang innerhalb des Fahrzeugs, Mobilfunk-Netzwerke, Wi-Fi-Netzwerke (z.B. IEEE 802.11), Bluetooth, WAVE, CALM, Ultra Wideband oder jeder anderen Form von drahtloser Kommunikation. Ferner kann das Fahrzeug-Kommunikationsnetzwerk Fahrzeug-zu-Fahrzeug (V2V) oder Fahrzeug-zu-Allem (V2X) sein.
  • In 1A kann das erste Fahrzeug 106 Daten, Nachrichten, Bilder und/oder andere Informationen mit anderen Fahrzeugen, Benutzern oder Infrastrukturen unter Verwendung von DSRC übertragen, empfangen und/oder austauschen. Insbesondere ist das erste Fahrzeug 106 mit einem Fahrzeug-zu-Fahrzeug (V2V)-Sendeempfänger 110 ausgerüstet, der Nachrichten und Informationen mit anderen Fahrzeugen, Benutzern oder Infrastrukturen austauschen kann, die für Computer-Kommunikation mit dem ersten Fahrzeug 106 betreibbar sind. Beispielsweise kann der V2V-Sendeempfänger 110 mit dem zweiten Fahrzeug 108 über einen V2V-Sendeempfäner 112 kommunizieren. Wie hierin diskutiert werden wird, können das erste Fahrzeug 106 und das zweite Fahrzeug 108 unter Verwendung des V2V-Sendeempfängers 110 und des V2V-Sendeempfängers 112 Sensordaten zueinander übertragen, die von jedem jeweiligen Fahrzeug aufgenommen worden sind.
  • In 1A nähern sich das erste Fahrzeug 106 und das zweite Fahrzeug 108 einem Ziel 114. In einigen Ausführungsformen kann das Ziel 114 eine Gefahrenstelle sein. Der Begriff Gefahrenstelle oder Gefahrenzustand kann im Allgemeinen auf ein oder mehrere Objekte und/oder Fahrszenarien bezogen sein, die ein potentielles Sicherheitsrisiko für ein Fahrzeug darstellen. In einigen Fällen kann der Begriff Risiko verwendet werden, um einen oder mehrere risikoreiche Fahrzustände zu beschreiben, die die Wahrscheinlichkeit eines Unfalls erhöhen. Beispielsweise könnte in 1A das Ziel 114 ein Fußgänger sein. In anderen Ausführungsformen könnte das Ziel 114 Unrat sein, der sich in der Mitte der Straße 102 befindet. In einigen Ausführungsformen könnte das Ziel 114 ein weiteres Fahrzeug sein, das eine Bedrohung für das erste Fahrzeug 106 und/oder das zweite Fahrzeug 108 darstellt. Es sollte festgehalten sein, dass in einigen Ausführungsformen das Ziel 114 keine Gefahr darstellt und nicht notwendigerweise einen gefährlichen Zustand oder eine Sicherheitsbedrohung für das erste Fahrzeug 106 oder das zweite Fahrzeug 108 darstellt. Stattdessen könnte das Ziel 114 lediglich ein Teil einer Umgebung sein, die das erste Fahrzeug und/oder das zweite Fahrzeug 108 umgibt.
  • In 1A können das erste Fahrzeug 106 und das zweite Fahrzeug 108 das Ziel 114 unter Verwendung jeweiliger Sensoren „sehen“ oder beobachten, welche Sensoren detaillierter unter Bezugnahme auf 1B beschrieben werden. Wie in 1A gezeigt, emittiert das erste Fahrzeug 106 einen Sensorpuls 116 in Richtung des Ziels 114, welcher Sensordaten über das Ziel 114 aus der Perspektive des ersten Fahrzeugs 106 erzeugt. In ähnlicher Weise emittiert das zweite Fahrzeug 108 einen Sensorpuls 118 in Richtung des Ziels 114, welcher Sensordaten über das Ziel 114 aus der Perspektive des zweiten Fahrzeugs 108 erzeugt. Somit „sieht“ und erfasst jedes Fahrzeug das Ziel 114 aus unterschiedlichen Perspektiven (z.B. Positionen und Winkeln), zu verschiedenen Zeiten und bei verschiedenen Raten, wie von der Rechenleistung von jedem Fahrzeug und jedem Sensor verlangt. Wie hierin diskutiert werden wird, erlaubt eine Zeitsynchronisation der Datenaufnahme und Datenübertragung zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 gemäß einem globalen Referenz-Zeitrahmen, dass das erste Fahrzeug 106 und das zweite Fahrzeug 108 nützliche Sensordaten voneinander gemäß einer akkuraten Zeitnahme erhalten, welche jedes Fahrzeug alleine nicht aufnehmen und/oder verarbeiten könnte. Sensordaten, die auf diese Weise erhalten werden, können akkurate Mittel zum Steuern der Fahrt des Fahrzeugs und/oder Fahrzeugsystemen liefern.
  • Unter Bezugnahme auf 1B wird nun ein Fahrzeug-Kommunikationsnetzwerk 120 zum Implementieren einer synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung gemäß einer beispielhaften Ausführungsform detailliert unter Bezugnahme auf 1A beschrieben werden. Die Komponenten des ersten Fahrzeugs 106 und des Fahrzeug-Kommunikationsnetzwerks 120 sowie die Komponenten anderer Systeme, Hardware-Architekturen und Software-Architekturen, die hierin diskutiert werden, können kombiniert, ausgelassen oder in unterschiedliche Architekturen für verschiedene Ausführungsformen kombiniert werden. In 1B umfasst das erste Fahrzeug 106 eine Fahrzeug-Rechnervorrichtung (VCD) 122, ein oder mehrere Fahrzeugsysteme 124 und eine Sensoreinheit 126. Im Allgemeinen umfasst die VCD 122 einen Prozessor 134, einen Speicher 136, einen Datenspeicher 138, eine Positionsbestimmungs-Einheit 140 und eine Kommunikations-Schnittstelle 142, welche jeweils betriebsmäßig für Computer-Kommunikation über einen Bus 146 und/oder andere drahtgebundene oder drahtlose Technologien verbunden sind. Einige der in 1B bezüglich des ersten Fahrzeugs 104 gezeigten Komponenten sind nicht hinsichtlich des zweiten Fahrzeugs 108 gezeigt. Aus Gründen der Einfachheit umfasst in 1B das zweite Fahrzeug 108 einen Prozessor 152, eine Sensoreinheit 154 und eine lokale Uhr 156, welche dieselben Komponenten und dieselbe Funktionalität umfassen kann, wie detailliert zum ersten Fahrzeug 104 diskutiert. Es sollte festgehalten sein, dass wenngleich nicht in 1B gezeigt, eine oder mehrere der Komponenten des ersten Fahrzeugs 106 auch in dem zweiten Fahrzeug 108 oder anderen hierin diskutierten Fahrzeugen implementiert sein können.
  • Erneut unter Bezugnahme auf das erste Fahrzeug 104 kann die VCD 122 Vorrichtungen zum Verarbeiten, Kommunizieren und Interagieren mit verschiedenen Komponenten des ersten Fahrzeugs 106 und anderen Komponenten des Fahrzeug-Kommunikationsnetzwerks 120 umfassen, einschließlich dem zweiten Fahrzeug 108. In einer Ausführungsform kann die VCD 122 in dem ersten Fahrzeug 106 beispielsweise als ein Teil einer Telematik-Einheit, einer Kopfeinheit, eine Infotainment-Einheit, einer elektronischen Steuereinheit, einer On-Board-Einheit oder als ein Teil eines spezifischen Fahrzeug-Steuersystems, usw. implementiert sein. In anderen Ausführungsformen kann die VCD entfernt von dem ersten Fahrzeug 106 implementiert sind, beispielsweise in einer (nicht gezeigten) tragbaren Einrichtung oder einer Einrichtung (z.B. einem entfernten Prozessor/Server), die über das Fahrzeug-Kommunikationsnetzwerk 120 verbunden ist.
  • Der Prozessor 134 kann Logikschaltungen mit Hardware-, Firmware- und Software-Architekturframeworks umfassen, um eine synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung mit den Komponenten des VCD 122 und des Fahrzeug-Kommunikationsnetzwerks 120 zu ermöglichen. Somit kann in einigen Ausführungsformen der Prozessor 134 Anwendungs-Frameworks, Kernel, Bibliotheken, Treiber, Anwendungs-Programmschnittstellen, usw. speichern, um Hardware zu Funktionen zu steuern, die hierin beschrieben werden. Beispielsweise kann der Prozessor 134 ein Sensordaten-Aufnahmemodul 148 und ein Sensordaten-Fusionsmodul 150 umfassen. In einigen Ausführungsformen kann der Speicher 136 und/oder der Datenspeicher (z.B. eine Disc) 138 ähnliche Komponenten wie der Prozessor 134 für eine Ausführung durch den Prozessor 134 speichern.
  • Die Positions-Bestimmungseinheit 140 kann Hardware (z.B. Sensoren) und Software zum Bestimmen einer Position (z.B. einer absoluten Position und/oder einer relativen Position) des ersten Fahrzeugs 106 umfassen. Beispielsweise kann die Positions-Bestimmungseinheit 140 eine globales Positionsbestimmungs-System (GPS)-Einheit und/oder eine Trägheits-Messeinheit (IMU) umfassen. In einigen Ausführungsformen kann die Positions-Bestimmungseinheit ein Navigationssystem sein, das Navigationskarten und Navigationsinformationen an das erste Fahrzeug 106 bereitstellt. Somit kann die Positions-Bestimmungseinheit 140 ein beliebiger Typ von bekanntem, ähnlichem oder später entwickeltem Navigationssystem sein. Der Begriff „Navigationsinformationen“ betrifft jede Information, welche verwendet werden kann, um das erste Fahrzeug 106 bim Navigieren auf einer Straße oder einem Weg zu unterstützen. Navigationsinformationen können Verkehrsdaten, Kartendaten und Straßenklassifikations-Informationsdaten umfassen. Navigationsinformationen können ebenfalls geographische Informationen umfassen, einschließlich Informationen, die von einer beliebigen globalen Navigationssatelliten-Infrastruktur (GNSS) erhalten werden, einschließlich dem Global Positioning System (GPS), Glonass (Russisch) und/oder Galileo (Europäisch). Insbesondere kann in 1B die Positions-Bestimmungseinheit 140 Informationen von der globalen Positionsbestimmungsquelle 141 erhalten. Wie hierin diskutiert werden wird, kann die Positions-Bestimmungseinheit 140 verwendet werden, um das erste Fahrzeug 106 und/oder das zweite Fahrzeug 108 zu lokalisieren.
  • Die Kommunikations-Schnittstelle 142 kann Software und Hardware zum Ermöglichen einer Dateneingabe und -ausgabe zwischen den Komponenten des VCD 122 und anderen Komponenten des Fahrzeug-Kommunikationsnetzwerks 120 umfassen. Insbesondere kann die Kommunikations-Schnittstelle 142 Netzwerkschnittstellen-Steuergeräte (nicht gezeigt) und andere Hardware und Software umfassen, die Verbindungen verwaltet und/oder überwacht und einen bi-direktionalen Datentransfer zwischen der Kommunikations-Schnittstelle 142 und anderen Komponenten des Fahrzeug-Kommunikationsnetzwerks 120 steuert. Insbesondere und wie zusammen mit 1A oben erwähnt, kann die VCD 122 Fahrzeugdaten, einschließlich Sensordaten (z.B. von der Sensoreinheit 126), mit anderen DSRC-kompatiblen Fahrzeugen über den V2V-Sendeempfänger 110 austauschen. Beispielsweise kann der V2V-Sendeempfänger 110 Daten mit dem zweiten Fahrzeug 108 über den V2V-Sendeempfänger 112 unter Verwendung einer Kommunikationsverbindung 158 austauschen. Wenngleich nur zwei Fahrzeuge in 1B gezeigt sind, sollte festgehalten sein, dass das erste Fahrzeug 106 mit mehr als einem Fahrzeug kommunizieren kann, das für eine Kommunikation (z.B. DSRC) innerhalb des Fahrzeug-Kommunikationsnetzwerks 120 eingerichtet ist. Somit können in einigen Ausführungsformen Kommunikationsverbindungen unter Verwendung von DSRC zwischen dem ersten Fahrzeug 106 und einer Mehrzahl von anderen Fahrzeugen (z.B. einer Mehrzahl von entfernten Fahrzeugen) hergestellt werden, die für eine V2V-Kommunikation unter Verwendung von DSRC eingerichtet sind.
  • Wie hierin beschrieben werden wird, können verschiedene Typen von Daten unter Verwendung des Fahrzeug-Kommunikationsnetzwerks kommuniziert werden. In einigen Ausführungsformen werden Daten über DSRC kommuniziert, indem eine oder mehrere Basic Safety Massages (BSM) ausgetauscht werden. Die BSM, die von einem Fahrzeug ausgegeben wird, kann eine Anzahl von Datenelementen enthalten, die verschiedene Aspekte des Betriebs des Fahrzeugs beschrieben oder Informationen über das Fahrzeug selbst bereitstellen. Beispielsweise den Typ und/oder Spezifikationen des Fahrzeugs, Navigationsdaten, Straßen-Gefahrdaten, Verkehrs-Positionsdaten, Streckenführungsdaten, historische Streckendaten, voraussichtliche Streckendaten, kinematische Daten, momentane Fahrzeugposition-Daten, Reichweiten- oder Distanzdaten, Geschwindigkeits- und Beschleunigungsdaten, Positionsdaten, Fahrzeug-Sensordaten, Fahrzeug-Subsystemdaten und/oder jede weitere Fahrzeuginformation. Einige der hierin diskutierten Ausführungsformen umfassen einen Austausch von Daten und Informationen zwischen in einem Netzwerk befindlichen Fahrzeugen zur Verwendung bei einer Fahrt des Fahrzeugs.
  • In den hierin diskutierten Ausführungsformen wird eine Synchronisation einer Sensordaten-Aufnahme auf Grundlage von Informationen durchgeführt, welche zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 unter Verwendung der Kommunikationsverbindung 158 kommuniziert werde, welche durch DSRC hergestellt wird. In anderen Ausführungsformen können das erste Fahrzeug 106 und das zweite Fahrzeug 108 Sensordaten unter Verwendung einer drahtlosen Netzwerk-Antenne 160, straßenseitiger Ausrüstung (RSE) 162, einem Kommunikationsnetzwerk 164, welches ein drahtloses Kommunikationsnetzwerk sein kann, oder anderen drahtlosen Netzwerkverbindungen austauschen.
  • Ferner kann in einigen Ausführungsformen eine Synchronisierung einer Sensordaten-Aufnahme und einer Datenübertragung bei anderen Infrastrukturen und Servern durchgeführt werden und Daten können mit anderen Infrastrukturen und Servern ausgetauscht werden. Beispielsweise kann in 1B die VCD 122 Informationen direkt oder indirekt über das Kommunikationsnetzwerk 164 zu einem Dienstanbieter 166 übertragen und von ihm empfangen. Der Dienstanbieter 166 kann einen entfernten Server 168, einen entfernten Sender 170, einen entfernten Empfänger 172 und einen entfernten Speicher 174 umfassen, die dazu eingerichtet sind, in Kommunikation miteinander zu stehen. In 1B kann der V2V-Sendeempfänger 110 durch die VCD 122 verwendet werden, um Informationen von dem Dienstanbieter 166 und anderen Servern, Prozessoren und Informationsanbietern durch das Kommunikationsnetzwerk 164 zu empfangen und zu ihnen zu übertragen. In alternativen Ausführungsformen kann ein Radiofrequenz (RF)-Sendeempfänger 144 in dem ersten Fahrzeug 106 verwendet werden, um Informationen zu dem Dienstanbieter 166 zu übertragen und von ihm zu empfangen. In einigen Ausführungsformen kann die VCD 122 Informationen zu dem Dienstanbieter 166 übertragen und von ihm empfangen, einschließlich, jedoch nicht beschränkt auf Verkehrsdaten, Fahrzeugposition- und Routendaten, Kalender für Ereignisse mit hohem Verkehrsaufkommen, Wetterdaten und andere Transport-bezogene Daten. In einigen Ausführungsformen kann der Dienstanbieter 166 mit mehreren Fahrzeugen (z.B. dem zweiten Fahrzeug 108) durch eine Netzwerkverbindung, wie beispielsweise über die drahtlose Netzwerkantenne 160, und/oder andere Netzwerkverbindungen, verbunden sein.
  • Unter Verwendung der oben beschriebenen Netzwerkkonfiguration können das erste Fahrzeug 106 und das zweite Fahrzeug 108 eine Betätigung von Sensoren (z.B. Auslöseaktivierung von Sensoren) und eine Übertragung von Sensordaten zwischen einander koordinieren. Die Sensorkonfiguration wird nun detaillierter bezüglich der Sensoreinheit 126 beschrieben werden, welche eine Sensorschnittstelle 128, eine Sensorschaltung 130 und eine lokale Uhr 132 umfassen kann. Wie bereits erwähnt, umfasst das zweite Fahrzeug 108 die Sensoreinheit 154 und die lokale Uhr 156, jedoch kann das zweite Fahrzeug 108 eine oder mehrere andere Komponenten wie mit der Sensoreinheit 126 beschrieben (z.B. eine Sensorschnittstelle, Sensorschaltungen) umfassen. Wenngleich nur eine einzelne Sensoreinheit 126 mit dem ersten Fahrzeug 104 gezeigt ist, sollte festgehalten sein, dass das erste Fahrzeug 106 eine oder mehrere Sensoreinheiten umfassen kann und dass jede Sensoreinheit einen oder mehrere Sensoren umfassen kann (z.B. implementiert durch Sensorschaltungen 130). In einigen hierin diskutierten Beispielen wird die Sensoreinheit 126 einfach als ein Sensor oder Sensoren bezeichnet. In einigen Ausführungsformen kann die Sensoreinheit 126 einem oder mehreren der Fahrzeugsysteme 124 zugeordnet sein.
  • Bezüglich der Sensoreinheit 126 stellt die Sensorschnittelle 128 eine Schnittstelle mit der Sensorschaltung 130 dar, um eine Aufnahme und eine Verarbeitung von Sensordaten durch die Sensorschaltung 130 zu ermöglichen. Die VCD 122 kann unter Verwendung des Prozessors 134 eine Sensorbetätigung steuern und Sensordaten von der Sensorschaltung 130 über die Sensorschnittstelle 128 aufnehmen. Die Sensorschaltung 130 kann verschiedene Typen von Sensoren zum Aufnehmen von verschiedenen Typen von Informationen (z.B. Sensordaten) umfassen. Beispielsweise kann die Sensorschaltung 130 visuelle Sensoren (z.B. Kameras) zum Aufnehmen von Bild- oder Videoinformationen umfassen. In anderen Ausführungsformen kann die Sensorschaltung 130 Abstandssensoren (z.B. LIDAR, RADAR) zum Aufnehmen von Abstands- oder Geschwindigkeits-Informationen umfassen.
  • Es sollte festgehalten sein, dass die Sensorschaltung 130 verschiedene Typen von Sensoren zur Verwendung mit dem ersten Fahrzeug und/oder den Fahrzeugsystemen 124 zum Detektieren und/oder Erfassen eines Parameters dieses Systems umfassen kann. Ferner sollte festgehalten sein, dass die Sensoreinheit 126 in einem oder mehreren Abschnitten des ersten Fahrzeugs 106 angeordnet sein könnte. Beispielsweise könnten, wenngleich nicht in 1B gezeigt, die Sensoren in einem Armaturenbrett, einem Sitz, einem Sicherheitsgurt, einer Tür, einer Stoßstange, einer Front, einem Heck, Ecken, einem Armaturenbrett, einem Lenkrad, einer Mittelkonsole, einem Dach oder jedem anderen Teil des ersten Fahrzeugs 106 integriert sein. In anderen Fällen könnten die Sensoren tragbare Sensoren sein, die von einem Fahrer getragen werden (nicht gezeigt), in eine tragbare Vorrichtung integriert sind (nicht gezeigt), von dem Fahrer mitgeführt werden (nicht gezeigt), in ein Kleidungsstück integriert sind (nicht gezeigt), das von dem Fahrer getragen wird, oder in den Körper des Fahrers integriert sind (z.B. ein Implantat) (nicht gezeigt).
  • In einigen der mit den Systemen und Verfahren hierin diskutierten Beispielen wird die Sensoreinheit 126 als eine visuelle Sensoreinheit beschrieben werden, die eine oder mehrere Kameras umfasst, die an dem ersten Fahrzeug 106 montiert sein können, beispielsweise an einer Windschutzscheibe, einem vorderen Armaturenbrett, einem Kühlergrill, einem Rückspiegel, usw. montiert. In anderen hierin diskutierten Ausführungsformen kann die Sensoreinheit 126 Abstandssensoren umfassen. Beispielsweise ein vorderes langreichweitiges RADAR und/oder ein vorderes mittelreichweitiges RADAR. Das vordere langreichweitige RADAR kann eine Distanz (z.B. lateral, longitudinal) und eine Geschwindigkeit von Objekten messen, die das erste Fahrzeug 106 umgeben. Beispielsweise kann das erste langreichweitige RADAR eine Distanz und eine Geschwindigkeit von anderen Fahrzeugen (z.B. des zweiten Fahrzeugs 108) und/oder des Ziels 114 messen, das das erste Fahrzeug 106 umgibt. In anderen Ausführungsformen kann die Sensoreinheit 126 eine Mehrzahl von RADARs an verschiedenen Positionen des ersten Fahrzeugs 106 umfassen. Beispielsweise einen vorderen linken RADAR, welcher in einem vorderen linken Eckbereich des ersten Fahrzeugs 106 angeordnet ist, einen vorderen rechten RADAR, welcher in einem vorderen rechten Eckbereichs des ersten Fahrzeugs 106 angeordnet ist, einen hinteren linken RADAR, welcher in einem hinteren linken Eckbereich des ersten Fahrzeugs 106 angeordnet ist und einen hinteren rechten RADAR, welcher in einem hinteren rechten Eckbereich des ersten Fahrzeugs 106 angeordnet ist.
  • Wenngleich visuelle Sensoren und Abstandssensoren im Rahmen der Beispiele hierin diskutiert sind, sollte festgehalten werden, dass andere Sensoren implementiert werden können. Beispielhafte Sensoren umfassen, sind jedoch nicht beschränkt auf: Beschleunigungssensoren, Geschwindigkeitssensoren, Bremssensoren, Annäherungssensoren, visuelle Sensoren, Sitzsensoren, Sicherheitsgurt-Sensoren, Türsensoren, Umweltsensoren, Gierraten-Sensoren, Lenksensoren, GPS-Sensoren, usw. Es sollte ebenfalls festgehalten werden, dass die Sensoreinheit 126 Sensoren von beliebigen Typen umfassen kann, beispielsweise akustische, elektrische, auf die Umwelt bezogene, optische, bildgebende, lichtempfindliche, druckempfindliche, kraftempfindliche, thermische, temperaturempfindliche, annäherungsempfindliche, usw.
  • Ferner kann in einigen hierin diskutierten Ausführungsformen die Sensoreinheit 126 ebenfalls Sensoren umfassen, welche als aktive oder passive Sensoren klassifiziert sind. Ein aktiver Sensor umfasst einen Sendeempfänger, welcher ein Signal, Licht, Elektronen, usw. aussendet, die von einem Ziel (z.B. dem Ziel 114) zurückgeworfen werden, wobei Daten von dem Sensor auf ihre Reflexion hin gesammelt werden. Somit übertragen und detektieren aktive Sensoren Energie gleichzeitig. Illustrative Beispiele von aktiven Sensoren umfassen, sind jedoch nicht beschränkt auf, LIDAR, RADAR, Sonar und Infrarot. Ein passiver Sensor detektiert und reagiert auf einen Typ von Eingabe aus der physischen Umgebung. Beispielsweise sammeln passive Sensoren Sensordaten durch die Detektion von Vibrationen, Licht, Strahlung, Wärme, usw. Illustrative Beispiele von passiven Sensoren umfassen, sind jedoch nicht beschränkt auf, fotografische (z.B. visuelle), thermische, elektrische Felder erfassende und infrarotempfindliche. Es sei festgehalten, dass manche Typen von Sensoren sowohl aktive als auch passive Sensoren sein können, beispielsweise Infrarotsensoren.
  • Erneut unter Bezugnahme auf 1B ist die lokale Uhr 132 ein Mechanismus, der eine Zeitgabe des Anweisungszyklus der Sensorschaltungen 130 steuert. Somit ist die Zeitgabe der Betätigung der Sensoreinheit 126 und/oder die Zeitgabe der Übertragung der von der Sensoreinheit 126 aufgenommenen Sensordaten mit der lokalen Uhr ausgerichtet und von ihr gesteuert. Insbesondere kann die lokale Uhr 132 ein lokales Uhrensignal als ein Referenz-Zeitgabesignal zum Synchronisieren einer Aufnahme von Sensordaten durch Betätigen der Sensorschaltungen 130 erzeugen. In einigen Ausführungsformen kann die lokale Uhr 132 innerhalb des Prozessors 134 implementiert sein. In anderen Ausführungsformen kann die Sensoreinheit 126 einen dedizierten Prozessor mit der lokalen Uhr 132 aufweisen. In einigen Ausführungsformen, die hierin diskutiert werden, basiert die lokale Uhr 132 auf einem externen ZeitgabeSignal (z.B. Satelliten-basiert), beispielsweise auf Grundlage eines Puls-pro-Sekunde (PPS)-Signal, das von der globalen Positionsbestimmungsquelle 141 erhalten wird. Indem das PPS-Signal verwendet wird, um das Signal der lokalen Uhr 132 auszurichten (anzugleichen), wird die Zeitgabe der lokalen Uhr 132 zuverlässig und genau. Ferner können, wie hierin noch detaillierter beschrieben werden wird, durch Angleichen der lokalen Uhr 132 mit dem PPS-Signal von der globalen Positionierungsquelle 141 und Angleichen der lokalen Uhr 156 mit dem PPS-Signal von den der globalen Positionierungsquelle 141, das erste Fahrzeug 106 und das zweite Fahrzeug 108 eine Zeitgabe einer Sensoraktivierungs-Übertragung von Sensordaten gemäß demselben Referenz-Zeitsignal (z.B. gemeinsame Zeitbasis) steuern. Es sei festgehalten, dass in seinigen Ausführungsformen verschiedene Typen von Zeitquellen implementiert werden können, die sich von PPS unterscheiden.
  • Ein illustratives Beispiel einer Sensordaten-Aufnahme unter Verwendung der Sensoreinheit 126 wird nun diskutiert werden. Wie oben angesprochen, wird die lokale Uhr 132 mit dem globalen Zeitsignal (z.B. PPS-Signal) von der globalen Positionierungsquelle 141 synchronisiert. Der Prozessor 134 und/oder die Sensor-Schnittstelle 128 erzeugt eine Anzahl von Sensor-Auslösepulsen pro Uhrenzyklus (z.B. pro Sekunde gemäß dem PPS-Signal). Jeder Sensor-Auslösepuls betätigt die Sensorschaltungen 130 (z.B. ein Übertragen des Sensorpulses 116) und betätigt damit ein Aufnehmen eines Datenframes. Der Datenframe wird von der Sensoreinheit 126 und/oder dem Prozessor 134 verarbeitet. Nach dem Verarbeiten, und wie hierin noch detaillierter diskutiert werden wird, kann der Datenframe beispielsweise zu dem zweiten Fahrzeug 108 übertragen werden. Dementsprechend steuert ein Sensor-Auslösepuls die Sensoreinheit 126 zum Aufnehmen eines Datenframes von Sensordaten und zum Verarbeiten des Datenframes. Dieser Prozess, der hierin als ein Sensordaten-Aufnahmeprozess bezeichnet werden kann, wiederholt sich für jeden Sensor-Auslösepuls.
  • Der Sensordaten-Aufnahmeprozess benötigt eine Zeitspanne (z.B. eine Sensordaten-Aufnahmeprozesszeit), um abzulaufen. Diese Zeitspanne kann auf der Rechenleistung des Prozessors 124 und/oder der Rechenleistung der Sensoreinheit 126 basieren. Dementsprechend kann die Anzahl von Sensor-Auslösepulsen pro Uhrenzyklus und/oder die Anzahl von Datenframes, die pro Uhrenzyklus aufgenommen werden (d.h. die Datenframe-Rate), auf Grundlage der Sensordaten-Aufnahmeprozesszeit und/oder der Rechenleistung begrenzt sein. Somit kann das erste Fahrzeug 106 in der Granularität von Sensordaten, die es aufnehmen kann, und dem Typ von Sensordaten, die es aufnehmen kann, beschränkt sein. Indem die Betätigung von Sensoren für eine Mehrzahl von Fahrzeugen, einschließlich dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108, gesteuert wird und die resultierenden Sensordaten durch Steuern einer Übertragung der Sensordaten geteilt werden, können das erste Fahrzeug 106 und das zweite Fahrzeug 108 nützliche Sensorinformationen erhalten, die jedes Fahrzeug alleine nicht in der Lage gewesen wäre aufzunehmen und/oder die Fähigkeit zu verarbeiten gehabt hätte. Beispielhafte Systeme und Verfahren zum Steuern einer Betätigung von Sensoren einer Mehrzahl von Fahrzeugen und zum Steuern einer Übertragung von Sensordaten einer Mehrzahl von Fahrzeugen unter Verwendung des Fahrzeug-Kommunikationsnetzwerks 120, das oben diskutiert worden ist, werden nun detaillierter beschrieben.
  • II. MAXIMALE ZEIT-SYNCHRONISIERTE FAHRZEUGSENSOR-DATENAUFNAHME-VERARBEITUNG
  • In einer Ausführungsform wird die Fahrzeugsensor-Datenaufnahme und die Fahrzeugsensor-Datenübertragung unter Verwendung von Fahrzeug-Kommunikation zwischen mehr als einem Fahrzeug synchronisiert, um die Zeitbetätigung von Sensordaten zu maximieren, die von jedem Fahrzeug aufgenommen und verarbeitet werden. Unter Bezugnahme auf 2 wird nun ein Verfahren 200 zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung des Fahrzeug-Kommunikationsnetzwerks 120 unter Bezugnahme auf 1A und 1B diskutiert werden. Bei Block 202 umfasst das Verfahren 200 ein Herstellen einer betriebsmäßigen Verbindung für Computer-Kommunikation zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks. Beispielsweise kann die Kommunikationsschnittstelle 142 eine Kommunikationsverbindung 158 zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 herstellen. Die Kommunikationsverbindung 158 kann zwischen V2V-Sendeempfängern hergestellt werden. Beispielsweise kann der V2V-Sendeempfänger 110 kontinuierlich nach Signalen von anderen V2V-Sendeempfängern suchen, wie beispielsweise durch Emittieren eines periodischen Signals, welches nach einer Antwort sucht. In anderen Ausführungsformen kann der V2V-Sendeempfänger 110 periodische Signale emittieren, die nach einer Antwort von einem V2V-Sendeempfänger innerhalb einer Reichweite suchen. Wenn ein V2V-Sendeempfänger antwortet (z.B. aus dem zweiten Fahrzeug 108), dann kann die Kommunikationsverbindung 158 hergestellt werden.
  • In einigen Ausführungsformen wird eine Kommunikationsverbindung auf Grundlage eines Detektierens eines Auslöseereignisses (Trigger Event) für eine Zeit-synchronisierte Fahrzeugsensor-Datenaufnahme und - Verarbeitung hergestellt. Beispielsweise kann der Prozessor 134 die Umgebung um das erste Fahrzeug 106 herum überwachen und/oder Daten über das erste Fahrzeug 106 überwachen, um ein Auslöseereignis zu detektieren. In einer Ausführungsform wird ein Auslöseereignis detektiert, wenn das erste Fahrzeug 106 eine gefährliche Bedingung detektiert, beispielsweise das Ziel 114. Ein Auslöseereignis kann auf ein Betätigen eines bestimmten Sensors hin detektiert werden. In anderen Ausführungsformen kann ein Auslöseereignis daraufhin detektiert werden, dass ein anderes Fahrzeug innerhalb einer vorbestimmten Nähe zu dem ersten Fahrzeug 106 oder innerhalb einer Kommunikationsreichweite des ersten Fahrzeugs 106 detektiert wird. In dieser Ausführungsform kann das erste Fahrzeug 106 andere Fahrzeuge innerhalb einer Kommunikationsreichweite identifizieren. Somit kann eine betriebsmäßige Verbindung für Computer-Kommunikation zwischen jedem Fahrzeug in einer Mehrzahl von Fahrzeugen oder zwischen jedem Fahrzeug in der Mehrzahl von Fahrzeugen und dem ersten Fahrzeug 106 unter Verwendung des Fahrzeug-Kommunikationsnetzwerks 120 hergestellt werden. In Szenarios, in denen das erste Fahrzeug 106 ein Auslöseereignis detektiert, kann das erste Fahrzeug 106 als ein einleitendes (initialisierendes) Fahrzeug und/oder ein Hauptfahrzeug angesehen werden, das dann eine betriebsmäßige Verbindung für Computer-Kommunikation mit anderen Fahrzeugen herstellt, die zu V2V-Kommunikation mit dem ersten Fahrzeug 106 in der Lage sind. In anderen Ausführungsformen kann das zweite Fahrzeug 108 das Auslöseereignis detektieren und die betriebsmäßige Verbindung herstellen. Ferner sei festgehalten, dass andere Typen von Auslöseereignissen herangezogen werden könnten, die von den hierin diskutierten verschieden sind.
  • Erneut unter Bezugnahme auf 2 umfasst das Verfahren 200 bei Block 204 ein Empfangen eines globalen Zeitsignals. Beispielsweise können der Prozessor 134 und/oder das Sensordaten-Aufnahmemodul 148 des ersten Fahrzeugs 106 ein globales Zeitsignal von einem globalen Empfänger empfangen, beispielsweise der globalen Positionierungsquelle 141. Wie oben diskutiert, ist in einigen Ausführungsformen das globale Zeitsignal ein Pulse-pro-Sekunde (PPS)-Signal. In ähnlicher Weise kann der Prozessor 152 des zweiten Fahrzeugs 108 ein globales Zeitsignal von einem globalen Empfänger empfangen, beispielsweise der globalen Positionierungsquelle 141. Erneut ist in dieser Ausführungsform das globale Signal ein PPS-Signal.
  • Dementsprechend können bei Block 206 der Prozessor 134 und/oder das Sensordaten-Aufnahmemodul 148 ein lokales Uhrensignal (z.B. der lokalen Uhr 132) mit dem globalen Zeitsignal synchronisieren. Ferner kann der Prozessor 152 ein lokales Uhrensignal (z.B. der lokalen Uhr 156) mit dem globalen Zeitsignal synchronisieren. Somit kann jede lokale Uhr eines Mehrzahl von Fahrzeugen gemäß dem globalen Zeitsignal synchronisiert werden. Durch Synchronisieren der lokalen Uhr 132 des ersten Fahrzeugs 104 und der lokalen Uhr 156 des zweiten Fahrzeugs 108 werden die Zeitgabe des Anweisungszyklus des ersten Fahrzeugs 106, nämlich der Sensoreinheit 126, und des zweiten Fahrzeugs 108, nämlich der Sensoreinheit 154 unter Bezugnahme auf dieselbe globale Referenz-Zeitbasis durchgeführt.
  • Bei Block 208 umfasst das Verfahren 200 ein Bestimmen eines Aufnahmeintervalls für eine Sensordaten-Aufnahmeprozesszeit. Ein Aufnahmeintervall, wie in dieser Beschreibung verwendet, ist eine Zeitperiode zwischen einer Betätigung der Sensoreinheit 126 und einer Betätigung der Sensoreinheit 154. Dies kann eine Zeitperiode zwischen einem Übertragen eines Sensor-Auslösepulses, welcher die Sensoreinheit 126 betätigt, und einem Übertragen eines Sensor-Auslösepulses, welcher die Sensoreinheit 154 betätigt, sein. Anders ausgedrückt ist das Aufnahmeintervall eine Zeitperiode zwischen einer Zeit, zu der ein Datenframe durch das erste Fahrzeug 104 aufgenommen wird, und einer Zeit, zu der ein Datenframe von dem zweiten Fahrzeug 108 aufgenommen wird. Das Aufnahmeintervall wird für eine Sensordaten-Aufnahmeprozesszeit bestimmt. Eine Sensordaten-Aufnahme ist die Auslöseprozess-Schleife, die von dem Sensor durchgeführt wird, einschließlich Datenaufnahme und Datenverarbeitung für einen Datenframe. Somit ist die Sensordaten-Aufnahmeprozesszeit die Menge an Zeit, die benötigt wird, um einen Datenframe von Sensordaten aufzunehmen und den Datenframe zu verarbeiten.
  • Als ein illustratives Beispiel unter Bezugnahme auf das Diagramm 302, das in 3A gezeigt ist, ist die Sensordaten-Aufnahmeprozesszeit für das erste Fahrzeug 106 die Zeit zum Start von Aufnahme Frame 1 (0s) bis zum Ende von Verarbeitung Frame 1 (100ms). Somit ist die Sensordaten-Aufnahmeprozesszeit 100ms. Gemäß dieser Sensordaten-Aufnahmeprozesszeit kann das erste Fahrzeug 106 zehn (10) Frames in einer (1) Sekunde oder einem Uhrenzyklus gemäß der lokalen Uhr 132 aufnehmen. Somit ist die Datenframe-Rate, die das erste Fahrzeug 106 in der Lage ist, unter Verwendung seiner eigenen Sensor-Hardware auszuführen, zehn (10). Wie hierin beschrieben werden wird und wie in 3A gezeigt ist, kann ein Fahrzeug durch Synchronisieren einer Zeitgabe einer Sensor-Aktivierung und einer Zeitgabe einer Sensordaten-Übertragung zwischen mehr als einem Fahrzeug eine erhöhte Datenframe-Rate erzielen und nützliche Sensordaten aus den Perspektiven von anderen Fahrzeugen erhalten.
  • Wie oben angesprochen, können der Prozessor 134 und/oder das Sensordaten-Aufnahmemodul 148 das Aufnahmeintervall bestimmen und/oder berechnen, das eine Gesamtanzahl von Datenframes maximiert, die von der Sensoreinheit 126 des ersten Fahrzeugs 106 und von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufgenommen werden können. Anders ausgedrückt maximiert das Aufnahmeintervall eine Zeit zwischen einer Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und einer Betätigung der Sensoreinheit 154 des zweiten Fahrzeugs 108. Wie oben im Zusammenhang mit 3A diskutiert, ist die Anzahl von Datenframes, die von der Sensoreinheit 126 des ersten Fahrzeugs 106 aufgenommen werden kann, zehn (10), auf Grundlage der Sensordaten-Aufnahmeprozesszeit des ersten Fahrzeugs 106. Die Anzahl von Datenframes, die von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufgenommen werden kann, ist zehn (10), auf Grundlage der Sensordaten-Aufnahmeprozesszeit des zweiten Fahrzeugs 108. Dementsprechend basiert die Aufnahmeintervall-Zeit auf der Gesamtzahl von Datenframes, die von der Sensoreinheit 126 des ersten Fahrzeugs 106 und von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufgenommen werden können, nämlich 20 Datenframes. Somit ist in dieser Ausführungsform die Aufnahmeintervall-Zeit 50ms. Wie in 3A gezeigt, ist die Aufnahmeintervall-Zeit 50ms zwischen jeder Aufnahme durch das erste Fahrzeug 107 und jeder Aufnahme durch das zweite Fahrzeug 108. Dies ist ebenfalls in 3B gezeigt, über einen Uhrenzyklus 306 (d.h. eine (1) Sekunde), von T gleich null (0) Sekunden bis eine (1) Sekunde.
  • In einer weiteren Ausführungsform basiert das Bestimmen des Aufnahmeintervalls für die Sensordaten-Aufnahmeprozesszeit, die die Gesamtanzahl von Datenframes maximiert auf einer Anzahl von Fahrzeugen innerhalb einer vorbestimmten Distanz von dem ersten Fahrzeug 104 oder alternativ der Anzahl von Fahrzeugen, die für betriebsmäßige Computer-Kommunikation über das Fahrzeug-Kommunikationsnetzwerk 120 mit dem ersten Fahrzeug 104 eingerichtet sind. Anders ausgedrückt maximiert das Aufnahmeintervall eine Gesamtanzahl von Datenframes zur Aufnahme von den Sensoren der Mehrzahl von Fahrzeugen auf Grundlage einer Anzahl der Mehrzahl von Fahrzeugen. Beispielsweise kann das erste Fahrzeug 104 in einer Ausführungsform bei Block 202 und/oder Block 208 ein oder mehrere Fahrzeuge auswählen, die das erste Fahrzeuge 104 umgeben, um Fahrzeugsensor-Datenaufnahme und -übertragung zu synchronisieren. In einer Ausführungsform kann das erste Fahrzeug 104 ein oder mehrere Fahrzeuge innerhalb eines vorbestimmten Abstands von dem ersten Fahrzeug 104 auswählen, beispielsweise innerhalb von 300m von dem ersten Fahrzeug 104. In einer anderen Ausführungsform kann das erste Fahrzeug 104 ein oder mehrere Fahrzeuge auf Grundlage einer Geoposition des ersten Fahrzeugs 104, des einen oder der mehreren Fahrzeuge und/oder des Ziels 114 auswählen. In einer anderen Ausführungsform basiert das Bestimmen des Aufnahmeintervalls für die Sensordaten-Aufnahmeprozesszeit, die die Gesamtzahl von Datenframes maximiert, auf einem Abstand zwischen dem ersten Fahrzeug 104 und dem zweiten Fahrzeug 108. Beispielsweise wird je kleiner der Abstand zwischen dem ersten Fahrzeug 104 und dem zweiten Fahrzeug 108 ist, das Aufnahmeintervall umso größer.
  • In einer Ausführungsform umfasst das Verfahren 200 bei Block 208 optional ein Übertragen einer Nachricht von dem ersten Fahrzeug 104 zu dem zweiten Fahrzeug 108, wobei die Nachricht das Aufnahmeintervall enthält. In einigen Ausführungsformen umfasst die Nachricht das Aufnahmeintervall und eine Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108. Somit können der Prozessor 134 und/oder der Prozessor 134 eine Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 festlegen (setzen). Die Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 ist um das Aufnahmeintervall von einer Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 versetzt. Als ein illustratives Beispiel ist 3B ein Zeitgabe-Diagramm 304, das die Aufnahmeintervalle und Betätigungszeiten für das erste Fahrzeug 106 und das zweite Fahrzeug 108 zeigt. Ein Sensor-Auslösepuls aktiviert die Sensoreinheit 126 des ersten Fahrzeugs 106 bei t1 (0s) und ein Sensor-Auslösepuls aktiviert die Sensoreinheit 154 des zweiten Fahrzeugs 108 bei t2 (50ms). Somit ist die Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 um das Aufnahmeintervall von einer Startzeit für die Datenaufnahme der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 versetzt. In einer anderen Ausführungsform kann das Verfahren 200 ebenfalls ein Setzen einer Startzeit für eine Sensor-Datenaufnahme bei jedem Fahrzeug aus der Mehrzahl von Fahrzeugen gemäß der lokalen Uhr von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen umfassen. Ähnlich zu dem oben beschriebenen Prozess ist die Startzeit für jedes Fahrzeug voneinander um das Aufnahmeintervall verschoben.
  • In einigen Ausführungsformen kann das Verfahren 200 bei Block 208 ebenfalls ein Bestimmen eines Übertragungsintervalls umfassen. Ein Übertragungsintervall, wie in dieser Beschreibung verwendet, ist eine Zeitperiode zwischen einer Übertragung und/oder Kommunikation von Sensordaten von der Sensoreinheit 126 zu dem zweiten Fahrzeug 108 und von der Sensoreinheit 154 zu dem ersten Fahrzeug 106. In anderen Ausführungsformen kann das Übertragungsintervall eine Zeitperiode von einem Übertragen eines Sensor-Auslösepulses, welcher die Sensoreinheit 126 betätigt, und eine Zeitperiode von einer Übertragung eines Sensor-Auslösepulses sein, der die Sensoreinheit 154 betätigt. Anders ausgedrückt kann in dieser Ausführungsform das Übertragungsintervall eine Zeitperiode sein, von wenn Sensordaten bei dem ersten Fahrzeug 106 und/oder dem zweiten Fahrzeug 108 aufgenommen werden. Beispielsweise, wie in 3A gezeigt, nimmt das erste Fahrzeug 106 Frame 1 bei 0ms auf und überträgt die Ergebnisse von Frame 1 (z.B. nach einer Verarbeitung von Frame 1) bei 100ms zu dem zweiten Fahrzeug 108. In ähnlicher Weise nimmt das zweite Fahrzeug 108 Frame 1 bei 50ms auf und überträgt die Ergebnisse von Frame 1 (z.B. nach einer Verarbeitung von Frame 1) bei 150ms zu dem ersten Fahrzeug 106. In dieser Ausführungsform ist das Übertragungsintervall für das erste Fahrzeug 106 und das zweite Fahrzeug 108 100ms. In einigen Ausführungsformen ist das Übertragungsintervall gleich dem Aufnahmeintervall. Dementsprechend kann zusätzlich zu dem Synchronisieren der Zeitgabe der Datenaufnahme die Zeitgabe der Übertragung von Sensordaten ebenfalls zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 synchronisiert werden.
  • Bei Block 210 umfasst das Verfahren 200 ein Übertragen und/oder ein Erzeugen eines ersten Sensor-Auslösepulses gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird. Beispielsweise können der Prozessor 134 und/oder das Sensordaten-Aufnahmemodul 148 einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall an die Sensoreinheit 126 des ersten Fahrzeugs 104 übertragen, wodurch eine Aufnahme von Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 ausgelöst wird. Anders ausgedrückt kann der Prozessor 134 einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu der Sensoreinheit 126 des ersten Fahrzeugs 104 erzeugen, wodurch eine Aufnahme von Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 ausgelöst wird. Beispielsweise wird, wie in 3B gezeigt, die Sensoreinheit 126 des ersten Fahrzeugs 106 aktiviert und nimmt Sensordaten bei den folgenden Zeiten auf: t1, t3, t5, t7, t9, t11, t13, t15, t17 und t19.
  • Daher überträgt bei Block 212 das erste Fahrzeug 104 (z.B. der Prozessor 134 über den V2V-Sendeempfänger 110) unter Verwendung des Kommunikationsnetzwerks 120 die von der Sensoreinheit 126 des ersten Fahrzeugs 104 aufgenommenen Sensordaten zu dem zweiten Fahrzeug 108. In einigen Ausführungsformen wird die Übertragung von Sensordaten gemäß t zu dem Übertragungsintervall ausgeführt. In 3B illustrieren die nach oben gerichteten Pfeile Zeiten, zu denen das erste Fahrzeug 104 die von der Sensoreinheit 126 des ersten Fahrzeugs 104 aufgenommenen Sensordaten zu dem zweiten Fahrzeug 108 überträgt. Dementsprechend wird die Übertragung der Sensordaten von dem ersten Fahrzeug 106 zu dem zweiten Fahrzeug 108 ebenfalls gemäß dem globalen Zeitsignal synchronisiert.
  • Bei Block 214 umfasst das Verfahren 200 ein Übertragen und/oder ein Erzeugen eines zweiten Sensor-Auslösepulses gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs. Beispielsweise können der Prozessor 134 (z.B. das Sensordaten-Aufnahmemodul 138) und/oder der Prozessor 152 einen zweiten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu der Sensoreinheit 154 des zweiten Fahrzeugs 108 übertragen, wodurch eine Aufnahme von Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 ausgelöst wird. In einer Ausführungsform ist der zweite Sensor-Auslösepuls von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt. Beispielsweise übertragen der Prozessor 134 und/oder der Prozessor 152 das zweite Sensor-Auslösesignal zu einer Zeit, welche um das Aufnahmeintervall von einer Zeit versetzt ist, zu der der erste Sensor-Auslösepuls übertragen wird. Anders ausgedrückt kann das Übertragen des zweiten Sensor-Auslösepulses ein Übertragen des zweiten Sensor-Auslösepulses zu einer Zeit umfassen, die um das Aufnahmeintervall von dem ersten Sensor-Auslösepuls versetzt ist, wodurch eine Aufnahme der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 zu einer Zeit ausgelöst wird, welche um das Aufnahmeintervall von der Aufnahme der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 versetzt ist. Beispielsweise wird, wie in 3B gezeigt, die Sensoreinheit 154 des zweiten Fahrzeugs 108 aktiviert und nimmt Sensordaten zu den folgenden Zeiten auf: t2, t4, t6, t8, t10, t12, t14, t16, t18 und t20.
  • Dementsprechend umfasst das Verfahren 200 bei Block 216 ein Übertragen der Sensordaten von dem Sensor 154 des zweiten Fahrzeugs 108 durch das zweite Fahrzeug 108 zu dem ersten Fahrzeug 106. Somit empfängt das erste Fahrzeug 106 die Sensordaten von dem zweiten Fahrzeug 108. Wie oben erwähnt, kann die Übertragung der Sensordaten auf dem Übertragungsintervall basieren. In 3B illustrieren die nach oben zeigenden Pfeile Zeiten, zu denen das zweite Fahrzeug 108 die Sensordaten, die von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufgenommen worden sind, zu dem ersten Fahrzeug 106 überträgt. Dementsprechend wird die Übertragung der Sensordaten von dem zweiten Fahrzeug 108 zu dem ersten Fahrzeug 106 ebenfalls gemäß dem globalen Zeitsignal synchronisiert.
  • In anderen Ausführungsformen umfasst das Verfahren 200, wie durch die Beschreibung der Blöcke 210, 212, 214 und 216 gestützt wird, ein alternierendes Aufnehmen zu Zeiten, die um das Aufnahmeintervall versetzt sind, von Sensordaten von den Sensoren aus der Mehrzahl von Fahrzeugen, wobei jedes Fahrzeug aus der Mehrzahl von Fahrzeugen die Sensordaten zu den anderen Fahrzeugen in der Mehrzahl von Fahrzeugen überträgt. Beispielsweise nehmen in 3B das erste Fahrzeug 106 und das zweite Fahrzeug 108 abwechselnd Sensordaten zu Zeiten auf, die um das Aufnahmeintervall versetzt sind. Das erste Fahrzeug 106 nimmt zur Zeit t1 auf, das zweite Fahrzeug nimmt zur Zeit t2 auf, das erste Fahrzeug nimmt zur Zeit t3 auf, das zweite Fahrzeug nimmt zur Zeit t4 auf, usw.
  • Erneut unter Bezugnahme auf 2 umfasst das Verfahren 200 bei Block 218 ein Steuern der Fahrzeugsysteme teilweise auf Grundlage der Sensordaten, die zwischen den Fahrzeugen geteilt werden. Beispielsweise steuert der Prozessor 134 ein oder mehrere Fahrzeugsysteme 124 des ersten Fahrzeugs 104 auf Grundlage der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 und der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108. Insbesondere kann in einigen Ausführungsformen das Sensordaten-Fusionsmodul 150 Datenfusion der von dem ersten Fahrzeug 106 aufgenommenen Daten und der von dem zweiten Fahrzeug 108 aufgenommenen Daten verwenden, um eines oder mehrere der Fahrzeugsysteme 124 zu steuern. Wir hierin detailliert beschrieben werden wird, umfasst das Steuern der Fahrzeugsysteme 124 ein Steuern einer Lokalisierung des ersten Fahrzeugs 106 und/oder des zweiten Fahrzeugs 108.
  • III. MINIMALE ZEIT-SYNCHRONISIERTE FAHRZEUGSENSOR-DATENAUFNAHME-VERARBEITUNG
  • Wie oben diskutiert, können die Fahrzeugsensor-Datenaufnahme und die Fahrzeugsensor-Datenübertragung zwischen mehr als einem Fahrzeug synchronisiert werden, um eine Betätigung von Sensoren zu maximieren, die von jedem Fahrzeug aufgenommen werden. In anderen Ausführungsformen, die nun detaillierter diskutiert werden, können die Fahrzeugsensor-Datenaufnahme und die Fahrzeugsensor-Datenübertragung unter Verwendung von Fahrzeug-Kommunikation zwischen mehr als einem Fahrzeug synchronisiert werden, um die Zeitbetätigung von Sensordaten zu minimieren, die von jedem Fahrzeug aufgenommen werden. Erneut unter Bezugnahme auf 4 wird ein Verfahren 400 zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks unter Bezugnahme auf 1A, 1B und 2 diskutiert werden. Aus Gründen der Einfachheit sind gleich bezeichnete Blöcke in 4 ähnlich zu gleich bezeichneten Elementen, die im Zusammenhang mit 2 beschrieben worden sind.
  • Ähnlich zu Block 202 aus 2 umfasst das Verfahren 400 bei Block 402 ein Herstellen einer betriebsmäßigen Verbindung für Computer-Kommunikation zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks. Beispielsweise wird, wie im Zusammenhang mit 2 detailliert diskutiert, eine Kommunikationsverbindung 158 zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 hergestellt. Bei Block 404 umfasst das Verfahren 400 ein Empfangen eines globalen Zeitsignals. Beispielsweise kann, wie detailliert im Zusammenhang mit 2 diskutiert, der Prozessor 134 des ersten Fahrzeugs 106 ein globales Zeitsignal von der globalen Positionierungsquelle 141 empfangen, und der Prozessor 152 des zweiten Fahrzeugs 108 kann ein globales Zeitsignal von der globalen Positionierungsquelle 141 empfangen. Ferner werden bei Block 406 die lokalen Uhren von jedem Fahrzeug mit dem globalen Zeitsignal synchronisiert. Beispielsweise kann, wie detailliert in 2 diskutiert, der Prozessor 134 ein lokales Uhrensignal (z.B. der lokalen Uhr 132) mit dem globalen Zeitsignal synchronisieren und der Prozessor 152 ein lokales Zeitsignal (z.B. der lokalen Uhr 156) mit dem globalen Zeitsignal synchronisieren. Dementsprechend wird jedes Fahrzeug gemäß der gleichen gemeinsamen Zeitbasis synchronisiert und kann auf Grundlage dieser gleichen gemeinsamen Zeitbasis Sensoren betätigen und/oder Sensordaten übertragen.
  • Bei Block 408 umfasst das Verfahren 400 ein Bestimmen eines Aufnahmeintervalls für einen Sensordaten-Aufnahmeprozess. In dieser Ausführungsform wird das Aufnahmeintervall bestimmt und/oder berechnet, um eine Zeit zwischen einer Auslösebetätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und der Sensoreinheit 154 des zweiten Fahrzeugs 108 zu minimieren. Wie oben detailliert im Zusammenhang mit 2 diskutiert, ist ein Aufnahmeintervall, wie es hierin verwendet wird, eine Zeitperiode zwischen einer Betätigung der Sensoreinheit 126 und einer Betätigung der Sensoreinheit 154. Dies kann eine Zeitperiode zwischen einem Übertragen eines Sensor-Auslösepulses, welcher die Sensoreinheit 126 betätigt, und einem Übertragen eines Sensor-Auslösepulses sein, der die Sensoreinheit 154 betätigt. Die Sensordaten-Aufnahme umfasst die Auslöseprozess-Schleife, die von dem Sensor durchgeführt wird, einschließlich einer Datenaufnahme und einer Datenverarbeitung für einen Datenframe. Somit ist die Sensordaten-Aufnahmeprozesszeit die Zeitmenge, die benötigt wird, um einen Datenframe von Sensordaten aufzunehmen und den Datenframe zu verarbeiten.
  • In einer Ausführungsform wird das Aufnahmeintervall bestimmt und/oder berechnet, um die Zeit zwischen der Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und der Sensoreinheit 154 des zweiten Fahrzeugs 108 zu minimieren, so dass die Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 im Wesentlichen gleichzeitig wie die Betätigung der Sensoreinheit 154 des zweiten Fahrzeugs 108 gemäß dem Aufnahmeintervall stattfindet. Somit wird in einigen Ausführungsformen das Aufnahmeintervall bestimmt, um die Zeit zu null (0) zwischen einer Auslösebetätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und der Sensoreinheit 154 des zweiten Fahrzeugs 108 zu minimieren. Als ein illustratives Beispiel unter Bezugnahme auf das in 5A gezeigte Diagramm ist die Sensordaten-Aufnahmeprozesszeit für das erste Fahrzeug 106 die Zeit beim Start von Aufnahme Frame 1 (0ms) bis zum Ende von Verarbeitung Frame 1 (100ms). Gemäß dieser Sensordaten-Aufnahmeprozesszeit (d.h. 100ms) kann das erste Fahrzeug 106 zehn (10) Frames in einer (1) Sekunde oder einem Uhrenzyklus gemäß der lokalen Uhr 132 aufnehmen. Dementsprechend ist zum Minimieren der Zeit zwischen der Betätigung der Sensoreinheit 126 und der Sensoreinheit 154 das Aufnahme-Zeitintervall 100ms. Wie in 5A gezeigt, nehmen das erste Fahrzeug 106 und das zweite Fahrzeug 108 einen Datenframe von Sensordaten im Wesentlichen gleichzeitig auf, alle 100ms gemäß dem Aufnahmeintervall.
  • In einigen Ausführungsformen minimiert das Aufnahmeintervall die Zeit zwischen der Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und der Sensoreinheit 154 des zweiten Fahrzeugs 108 innerhalb eines vorbestimmten Toleranz-Schwellenwerts (z.B. eine vorbestimmte Anzahl von Millisekunden). Ferner können, wie oben im Zusammenhang mit 2 diskutiert, in einigen Ausführungsformen das Aufnahmeintervall und/oder der vorbestimmte Toleranzschwellenwert auf einer Anzahl von Fahrzeugen innerhalb eines vorbestimmten Abstands von dem ersten Fahrzeug 104, einer Anzahl von Fahrzeugen, die für eine betriebsmäßige Computer-Kommunikation über das Fahrzeug-Kommunikationsnetzwerk 120 mit dem ersten Fahrzeug 104 eingerichtet sind, einer Distanz zwischen dem ersten Fahrzeug 104 und dem zweiten Fahrzeug 108, usw. basieren.
  • Wie oben im Zusammenhang mit 2 diskutiert, kann das erste Fahrzeug 106 und/oder das zweite Fahrzeug 108 in Block 2 in einigen Ausführungsformen ein Übertragungsintervall bestimmen. Ein Übertragungsintervall ist, wie in dieser Beschreibung verwendet, eine Zeitperiode zwischen einer Übertragung und/oder Kommunikation von Sensordaten von der Sensoreinheit 126 zu dem zweiten Fahrzeug 108 und von der Sensoreinheit 154 zu dem ersten Fahrzeug 106. In anderen Ausführungsformen kann das Übertragungsintervall eine Zeitperiode von einer Übertragung eines Sensor-Auslösepulses, welcher die Sensoreinheit 126 betätigt, und eine Zeitperiode von einer Übertragung eines Sensor-Auslösepulses sein, der die Sensoreinheit 154 betätigt. Anders ausgedrückt kann in dieser Ausführungsform das Übertragungsintervall eine Zeitperiode sein, von wenn die Sensordaten bei dem ersten Fahrzeug 106 und/oder bei dem zweiten Fahrzeug 108 aufgenommen werden. Beispielsweise nimmt das erste Fahrzeug 106, wie in 5A gezeigt, Frame 1 bei 0ms auf und überträgt die Ergebnisse von Frame 1 (z.B. nach einer Verarbeitung von Frame 1) bei 100ms zu dem ersten Fahrzeug 106. In dieser Ausführungsform ist das Übertragungsintervall für das erste Fahrzeug 106 und das zweite Fahrzeug 108 100ms. Somit kann das Übertragungsintervall im Wesentlichen dasselbe für das erste Fahrzeug 106 und das zweite Fahrzeug 108 sein. In einigen Ausführungsformen basiert das Übertragungsintervall auf dem Aufnahmeintervall und einer Sensordaten-Aufnahmeprozesszeit. Ferner ist in einigen Ausführungsformen das Übertragungsintervall gleich dem Aufnahmeintervall. Dementsprechend kann zusätzlich zu dem Synchronisieren der Zeitgabe der Datenaufnahme die Zeitgabe der Übertragung von Sensordaten ebenfalls zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 synchronisiert werden.
  • Erneut unter Bezugnahme auf 4 umfasst das Verfahren 400 bei Block 410 ein Betätigen der Sensoreinheit 126 des ersten Fahrzeugs 106 gemäß dem Aufnahmeintervall, um Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 106 aufzunehmen und die Sensoreinheit 154 des zweiten Fahrzeugs 108 zu betätigen, um Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufzunehmen. Gemäß dem Aufnahmeintervall und wie oben im Zusammenhang mit Block 402 diskutiert, wird eine Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 und der Sensoreinheit 154 des zweiten Fahrzeugs 108 derart ausgeführt, dass die Sensordaten von der Sensoreinheit 126 und die Sensordaten von der Sensoreinheit 154 im Wesentlichen gleichzeitig aufgenommen werden. Beispielsweise werden, wie in 5B gezeigt, die Sensoreinheit 126 des ersten Fahrzeugs 106 und die Sensoreinheit 154 des zweiten Fahrzeugs 108 zu den folgenden Zeiten aktiviert und nehmen Sensordaten auf: t1, t2, t3, t4, t5, t6, t7, t8, t9 und t10.
  • Ferner umfasst das Verfahren 400 bei Block 412 ein Teilen der Sensordaten zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108. Insbesondere überträgt das erste Fahrzeug 106 zu dem zweiten Fahrzeug 108 die Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 106, die durch die Betätigung der Sensoreinheit 126 des ersten Fahrzeugs 106 aufgenommen werden (z.B. bei Block 404), und das zweite Fahrzeug 108 überträgt zu dem ersten Fahrzeug 106 die Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108 durch die Betätigung der Sensoreinheit 154 des zweiten Fahrzeugs 108 (z.B. bei Block 404). In dieser Ausführungsform wird die Übertragung von Daten im Wesentlichen gleichzeitig durchgeführt. Beispielsweise, wie in 5A gezeigt, überträgt das erste Fahrzeug 108 Ergebnisse „Frame 1“ im Wesentlichen gleichzeitig (d.h. 100ms) wie das zweite Fahrzeug 108 Ergebnisse „Frame 1“ überträgt. Dies ist ebenfalls in 5B gezeigt, wo nach oben weisende Pfeile Zeiten illustrieren, zu welchen das zweite Fahrzeug 108 zu dem ersten Fahrzeug 106 die Sensordaten überträgt, die von der Sensoreinheit 154 des zweiten Fahrzeugs 108 aufgenommen werden. Wie oben diskutiert kann in einigen Ausführungsformen das Teilen der Sensordaten zwischen dem ersten Fahrzeug 106 und dem zweiten Fahrzeug 108 gemäß einem Übertragungsintervall durchgeführt werden. Durch Austauschen von Sensordaten haben das erste Fahrzeug 104 und das zweite Fahrzeug 108 eine Datenframe-Rate erzielt, die größer als die Datenframe-Rate ist, die jedes Fahrzeug alleine erzielen könnte.
  • Ferner umfasst das Verfahren 400 bei Block 416 ein Steuern der Fahrzeugsysteme teilweise auf Grundlage der zwischen den Fahrzeugen geteilten Sensordaten. Wie oben detailliert im Zusammenhang mit 2 diskutiert worden ist, steuert der Prozessor 134 ein oder mehrere Fahrzeugsysteme 124 des ersten Fahrzeugs 104 auf Grundlage der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 104 und der Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108. In einer Ausführungsform, die jetzt detaillierter beschrieben werden wird, umfasst das Steuern der Fahrzeugsysteme 124 ein Lokalisieren von Positionen des ersten Fahrzeugs 106 und/oder des zweiten Fahrzeugs 108.
  • IV. ZEIT-SYNCHRONISIERTE FAHRZEUGSENSOR-DATENAUFNAHME-VERARBEITUNG ZUR LOKALISIERUNG
  • In einer Ausführungsform kann eine Zeitsynchronisation einer Datenaufnahme-Verarbeitung wie oben beschrieben verwendet werden, um Lokalisierungstechniken zu verbessern. Genaue/Akkurate Lokalisierungstechniken sind insbesondere in städtischen Gebieten oder anderen Gebieten hilfreich, in denen Satellitenpositionierung (z.B. GPS-Systeme) nicht gut funktionieren. Beispielsweise können Positionsdaten von GPS-Systemen große Fehler und Varianzen aufweisen. Ferner stellen schlechtes Wetter, städtische Regionen, bergiges Gelände, usw. Herausforderungen für die Fahrzeuglokalisierung dar, da GPS-Systeme eine unverstellte Sicht auf Satelliten benötigen. Gemeinschaftliche Lokalisierung unter Verwendung von Fahrzeug-Kommunikation unter Verwendung der Systeme und Verfahren, die oben beschrieben worden sind, kann Fahrzeugen helfen, ihre eigenen Positionen und die Positionen von anderen Fahrzeugen genauer zu bestimmen.
  • Ein illustratives Beispiel einer gemeinschaftlichen Lokalisierung unter Verwendung einer Zeit-synchronisierten Fahrzeugsensor-Datenaufnahme ist in 6A gezeigt. Aus Gründen der Einfachheit sind gleiche Bezugszeichen und gleich bezeichnete Elemente in 6A ähnlich zu Elementen mit gleichen Bezugszeichen und gleichen Bezeichnungen in 1A und 1B. Zusätzlich sollte festgehalten sein, dass wenngleich es so nicht dargestellt ist, 6A eine oder mehrere Komponenten umfassen kann, die in 1A und 1B gezeigt sind. Ein Verkehrsszenario 600 umfasst ein erstes Fahrzeug 106 und andere Fahrzeuge, nämlich ein zweites Fahrzeug 108a, das auf derselben Spur (d.h. der Spur 604b) und vor dem ersten Fahrzeug 106 fährt, sowie ein drittes Fahrzeug 108b, das auf einer benachbarten Spur (d.h. der Spur 604c) und in eine entgegengesetzte Verkehrsrichtung zu der Spur 604b fährt (d.h. in eine Richtung auf das erste Fahrzeug 106 zu). Jedes der in 6 gezeigten Fahrzeuge ist für V2V-Somputerkommunikation mit einander unter Verwendung von DSRC über V2V-Sendeempfänger 110, 112a und 112b betreibbar. Ähnlich den im Zusammenhang mit 1A und 1B beschriebenen Fahrzeugen kann jedes in 6 gezeigte Fahrzeug andere Fahrzeuge aus der Straße unter Verwendung entsprechender Sensoren „sehen“ oder beobachten. Beispielsweise kann das erste Fahrzeug106 Sensoren umfassen, die eine Position und/oder einen Abstand zu dem zweiten Fahrzeug 108a und/oder dem dritten Fahrzeug 108b detektieren. Das zweite Fahrzeug 108a kann Sensoren umfassen, die eine Position und/oder einen Abstand zu dem ersten Fahrzeug 106 und/oder dem dritten Fahrzeug 108b detektieren. In ähnlicher Weise kann das dritte Fahrzeug 108b Sensoren umfassen, die eine Position und/oder einen Abstand zu dem ersten Fahrzeug 106 und/oder dem zweiten Fahrzeug 108a detektieren. Zusätzlich kann unter Verwendung von V2V-Kommunikation jedes Fahrzeug Positionsinformationen über sich selbst und/oder andere Fahrzeuge teilen.
  • Jedes Fahrzeug kann im Raum in einer absoluten Position (d.h. einem globalen Referenzrahmen) und in einer relativen Position (d.h. einem lokalen Referenzrahmen) definiert sein. In 6A weist das erste Fahrzeug 106 eine absolute Position auf, die von einem globalen Referenzrahmen 608 definiert ist, der erdfest ist (Xn, Yn). Die Positionsbestimmungs-Einheit 140 kann die absolute Position des ersten Fahrzeugs 106 auf Grundlage von Informationen von der globalen Positionierungsquelle 141 und/oder auf Grundlage von Informationen (z.B. Radgeschwindigkeit, Beschleunigung) von einer Trägheits-Messeinheit oder einem oder mehreren der Fahrzeugsysteme 124 bestimmen, Das erste Fahrzeug 106 weist ebenfalls eine relative Position auf, die durch seinen eigenen Koordinatenrahmen definiert ist, nämlich einen Koordinatenrahmen 610 des ersten Fahrzeugs (X106, Y106). Wenn das erste Fahrzeug 106 das zweite Fahrzeug 108a und/oder das dritte Fahrzeug 108b detektiert, kann das erste Fahrzeug 106 relative Positionen des zweiten Fahrzeugs 108 und/oder des dritten Fahrzeugs 108b relativ zu dem ersten Fahrzeug 106 in dem Koordinatenrahmen 610 des ersten Fahrzeugs bestimmen. In ähnlicher Weise weist das zweite Fahrzeug einen Koordinatenrahmen 612 des zweiten Fahrzeugs auf (X108a, Y108a), und das dritte Fahrzeug weist einen Koordinatenrahmen 614 des dritten Fahrzeugs auf (X108b, Y108b). Es sollte festgehalten sein, dass wenngleich der lokale Referenzrahmen von jedem Fahrzeug in 6A bezüglich einem Mittelpunkt an der Front von jedem Fahrzeug bestimmt wird, in anderen Ausführungsformen der lokale Referenzrahmen an verschiedenen Positionen initialisiert werden kann. Dementsprechend kann jedes Fahrzeug seine eigene Position unter Verwendung seiner eigenen absoluten Position gemäß dem globalen Referenzrahmen 608 und/oder seiner relativen Position zu anderen Fahrzeugen gemäß seinem eigenen Koordinatenrahmen schätzen. Durch Austauschen von lokalen Positionsdaten und relativen Positionsdaten unter Verwendung der Zeit-Synchronisationsverfahren, die oben diskutiert worden sind, kann jedes Fahrzeug seine eigene Positionsschätzung aktualisieren, um sich selbst zu lokalisieren und andere Fahrzeuge und/oder Ziele zu lokalisieren.
  • Beispielsweise kann das erste Fahrzeug 106 eine Schätzung seiner eigenen Position bestimmen. In 6A bestimmt das erste Fahrzeug 106 eine Schätzung seiner eigenen Position als innerhalb eines Zielbereichs 616. Wie hierin diskutiert werden wird, tauscht das erste Fahrzeug 106 Positionsdaten mit dem zweiten Fahrzeug 108a über DSRC aus. Auf Grundlage der relativen Positionsdaten von dem zweiten Fahrzeug 108a kann das erste Fahrzeug 106 die Schätzung seiner eigenen Position verfeinern. Beispielsweise kann das erste Fahrzeug 106 auf Grundlage der relativen Positionsdaten von dem zweiten Fahrzeug 108a eine verfeinerte Positionsschätzung innerhalb eines (nicht gezeigten) reduzierten Bereichs des Zielbereichs 616 bestimmen. Diese Positionsschätzung und der Zielbereich 616 können mit relativen Positionsdaten von dem dritten Fahrzeug 108b weiter verfeinert werden. In einigen Ausführungsformen, die hierin beschrieben werden, kann das erste Fahrzeug 106 ebenfalls Positionsdaten von anderen Fahrzeugen bestätigen und/oder vergleichen und selektiv wählen, welche Positionsdaten verwendet werden, um seine eigene Positionsschätzung zu verfeinern.
  • Dementsprechend kann die Lokalisierung durch Teilen von lokalen Positionsdaten zwischen einer Mehrzahl von Fahrzeugen verbessert werden. Die Aufnahme und die Übertragung der Daten kann, wie oben diskutiert, gemäß einer gemeinsamen Zeitbasis synchronisiert werden, um die Lokalisierung weiter zu verbessern. Beispielsweise betätigt in den oben unter Bezugnahme auf 4, 5A und 5B beschriebenen Ausführungsformen jedes Fahrzeug Sensoren im Wesentlichen gleichzeitig. Jedoch unterscheiden sich die Sensordaten von jedem Fahrzeug, da jedes Fahrzeug Sensordaten im Wesentlichen gleichzeitig aus unterschiedlichen Perspektiven auf Grundlage der Position und/oder Orientierung von jedem Fahrzeug aufnimmt. Beispielsweise kann, wie üben im Zusammenhang mit 6A diskutiert, das erste Fahrzeug 106 Positionsdaten über das zweite Fahrzeug 108a und/oder das dritte Fahrzeug 108b gemäß seinem eigenen Referenzrahmen 610 aufnehmen. Das zweite Fahrzeug 108a kann Positionsdaten über das erste Fahrzeug 1006 und/oder das dritte Fahrzeug 108b gemäß seinem eignen relativen Referenzrahmen 612 aufnehmen, usw. Sensordaten, einschließlich Positionsdaten, die im Wesentlichen gleichzeitig, jedoch aus unterschiedlichen Perspektiven aufgenommen werden, können nützliche Informationen für die Lokalisierung liefern. Die hierin hinsichtlich einer Lokalisierung diskutierten Beispiele beziehen sich auf Zeitsynchronisation einer Datenaufnahme-Verarbeitung gemäß 4, 5A und 5B (d.h. minimale Zeit-synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung). Jedoch sollte festgehalten sein, dass in anderen Ausführungsformen eine Zeitsynchronisation von Datenaufnahme-Verarbeitung gemäß anderen hierin diskutierten Ausführungsformen (z.B. maximale Zeit-synchronisierte Fahrzeugsensor-Datenaufnahme-Verarbeitung) implementiert werden kann.
  • Eine Lokalisierung wird nun detaillierter unter Bezugnahme auf 6B diskutiert. 6B ist ein beispielhaftes Verkehrsszenario 618 zur Lokalisierung unter Verwendung von synchronisierter Fahrzeugsensor-Datenaufnahme gemäß einer beispielhaften Ausführungsform ähnlich zu 6A, jedoch einschließlich einem Ziel 606. Aus Gründen der Einfachheit sind gleiche Bezugszeichen und gleich bezeichnete Elemente in 6A und 6B ähnlich zu Elementen mit gleichen Bezugszeichen und gleichen Bezeichnungen, die in 1A und 1B beschrieben sind. Zusätzlich soll festgehalten sein, dass wenngleich nicht gezeigt, 6B eine oder mehrere Komponenten umfassen kann, die in 1A, 1B und 6A gezeigt sind. In 6B nähern sich in erstes Fahrzeug 106 und andere Fahrzeuge, nämlich ein zweites Fahrzeug 108a und ein drittes Fahrzeug 108b einem Ziel 606 an. Jedes dieser in 6B gezeigten Fahrzeuge ist für V2V-Computer-Kommunikation mit einander unter Verwendung von DSRC mittels V2V-Sendeempfängern 110, 112a und 112b betreibbar. Ähnlich den im Zusammenhang mit 1A, 1B und 6A beschriebenen Fahrzeugen, kann jedes in 6B gezeigte Fahrzeug das Ziel 606 unter Verwendung entsprechender Sensoren „sehen“ oder beobachten. In einigen Ausführungsformen können die entsprechenden Sensoren ebenfalls andere Fahrzeuge auf der Straße 602 beobachten. Beispielsweise kann das erste Fahrzeug 106 Sensoren umfassen, die eine Position und/oder einen Abstand zu dem zweiten Fahrzeug 108a und/oder dem dritten Fahrzeug 108b detektieren. Das zweite Fahrzeug 108a kann Sensoren umfassen, die eine Position und/oder einen Abstand zu dem ersten Fahrzeug 106 und/oder dem dritten Fahrzeug 108b detektieren. In ähnlicher Weise kann das dritte Fahrzeug 108b Sensoren umfassen, die eine Position und/oder einen Abstand zu dem ersten Fahrzeug 106 und/oder dem zweiten Fahrzeug 108a detektieren. Zusätzlich kann unter Verwendung von V2V-Kommunikation jedes Fahrzeug Positionsinformationen über sich selbst und/oder andere Fahrzeuge teilen.
  • Jedes Fahrzeug kann im Raum in einer absoluten Position (d.h. einem globalen Referenzrahmen) und einer relativen Position (d.h. einem lokalen Referenzrahmen) definiert sein. In 6B weist das erste Fahrzeug 106 eine absolute Position auf, die von einem globalen Referenzrahmen 608 definiert ist, der erdfest ist (Xn, Yn). Die Positionsbestimmungs-Einheit 140 kann die absolute Position des ersten Fahrzeugs 106 auf Grundlage von Informationen von der globalen Positionierungsquelle 141 und/oder auf Grundlage von Informationen (z.B. Radgeschwindigkeit, Beschleunigung) von einer Trägheits-Messeinheit oder einem oder mehreren der Fahrzeugsysteme 124 bestimmen. Das erste Fahrzeug 106 weist ebenfalls eine relative Position auf, die von seinem eigenen Koordinatenrahmen definiert ist, nämlich einem ersten Fahrzeug-Koordinatenrahmen (X106, Y106). Wenn das erste Fahrzeug 106 das zweite Fahrzeug 108a, das dritte Fahrzeug 108b und/oder das Ziel 606 detektiert, kann das erste Fahrzeug relative Positionen des zweiten Fahrzeugs 108a, des dritten Fahrzeugs 108b und/oder des Ziels 606 bezüglich des ersten Fahrzeugs 106 in dem ersten Fahrzeug-Koordinatenrahmen 610 bestimmen. In ähnlicher Weise weist das zweite Fahrzeug einen zweiten Fahrzeug-Koordinatenrahmen 612 auf (X108a, Y108a), und das dritte Fahrzeug weist einen dritten lokalen Fahrzeug-Koordinatenrahmen 614 auf (X108b, Y108b). Es sei festgehalten, dass wenngleich der lokale Referenzrahmen von jedem Fahrzeug in 6B bezüglich einem Mittelpunkt an der Front von jedem Fahrzeug bestimmt wird, der lokale Referenzrahmen an verschiedenen Positionen initialisiert werden kann. Dementsprechend kann jedes Fahrzeug seine eine Position unter Verwendung seiner eigenen absoluten Position gemäß dem globalen Referenzrahmen 608 und/oder seiner relativen Positionen zu anderen Fahrzeugen gemäß seinem eigenen Koordinatenrahmen schätzen. Durch Austauschen von lokalen Positionsdaten und relativen Positionsdaten unter Verwendung der oben diskutierten Zeitsynchronisations-Verfahren kann jedes Fahrzeug seine eigene Positionsschätzung aktualisieren, um sich selbst zu lokalisieren und andere Fahrzeuge und/oder Ziele zu lokalisieren.
  • Unter Bezugnahme auf 7 wird ein Verfahren zum Lokalisieren unter Verwendung einer synchronisierten Fahrzeugsensor-Datenaufnahme beschrieben werden. Es sei festgehalten, dass in einigen Ausführungsformen eine oder mehrere der Komponenten des Verfahrens 700 weggelassen, umorganisiert und/oder mit den hierin beschriebenen Verfahren 200 und 400 integriert werden können. Aus Gründen der Einfachheit wird das Verfahren 700 unter Bezugnahme auf das Verfahren 400 beschrieben werden. Dementsprechend kann das Verfahren 700 bei Block 702 ein Erhalten einer Geoposition (z.B. einer globalen Position) von jedem Fahrzeug und/oder einer relativen Position von jedem Fahrzeug umfassen. In einigen Ausführungsformen kann eine Geoposition nicht verfügbar sein, beispielsweise weil ein Zugang zu der globalen Positionierungsquelle 141 versperrt ist. Unter Bezugnahme auf Block 406 aus 4 kann ein Teilen von Sensordaten durch ein Übertragen von Sensordaten, die durch Betätigung von jedem Sensor im Wesentlichen zur gleichen Zeit erhalten werden (z.B. bei Block 404), ein Teilen einer globalen Position des übertragenden Fahrzeugs, eine relative Position des empfangenden Fahrzeugs, eine relative Position des Ziels und/oder eine relative Position von jedem der anderen Fahrzeuge umfassen, die Sensordaten teilen.
  • Somit überträgt in einer Ausführungsform das erste Fahrzeug 106 erste Fahrzeugpositions-Daten zu dem zweiten Fahrzeug 108, wobei die ersten Fahrzeugpositions-Daten eine Geoposition des ersten Fahrzeugs (Xn 106, Yn 106) und eine relative Position des zweiten Fahrzeugs 108a (X106 108a. Y106 108a) auf Grundlage der Sensordaten von der Sensoreinheit 126 des ersten Fahrzeugs 106 umfassen. In einigen Ausführungsformen kann das erste Fahrzeug ebenfalls eine relative Position des Ziels 606 (X106 606, Y106 606) und eine relative Position des dritten Fahrzeugs 108b (X106 108b, Y106 108b) übertragen. Ferner überträgt das zweite Fahrzeug 108a zweite Fahrzeugpositions-Daten zu dem ersten Fahrzeug 106, wobei die Positionsdaten des zweiten Fahrzeugs 108a eine Geoposition des zweiten Fahrzeugs (Xn 108a, Yn 108a) und eine relative Position des ersten Fahrzeugs 106 (X108a 106, Y108a 106) mit den Sensordaten von der Sensoreinheit 154 des zweiten Fahrzeugs 108a umfassen. In einigen Ausführungsformen kann das zweite Fahrzeug ebenfalls eine relative Position des Ziels 606 (X108a 606, Y108a 606) und eine relative Position des dritten Fahrzeugs 108b (X108a 108b, Y108a 108b) übertragen. In ähnlicher Weise kann das dritte Fahrzeug 108b eine Geoposition des dritten Fahrzeugs 108b (Xn 108b, Yn 108b), eine relative Position des ersten Fahrzeugs 106 (X108b 106, Y108b 106), eine relative Position des zweiten Fahrzeugs 108a (X108b 108a, Y108b 108a) und eine relative Position des Ziels 606 (X108b 606, Y108b 606) zu dem ersten Fahrzeug 106 und/oder dem zweiten Fahrzeug 108a übertragen.
  • Unter Verwendung der geteilten Positionsinformationen kann jedes Fahrzeug eine Lokalisierung von sich selbst, anderen Fahrzeugen und/oder dem Ziel 606 bei Block 708 durchführen. Insbesondere kann das Verfahren 700 bei Block 704 optional ein Vergleichen von selbst bestimmten Positionen mit empfangenen relativen Positionen und/oder empfangenen Geopositionen umfassen. Beispielsweise kann das erste Fahrzeug 106 seine selbst-Geoposition, die Geoposition (d.h. absolute Position) des ersten Fahrzeugs 106 (Xn 106, Yn 106) mit der relativen Position des ersten Fahrzeugs (X108a 106, Y108a 106) von dem zweiten Fahrzeug 108a aus betrachtet, der relativen Position des ersten Fahrzeugs 106 (X108b 106, Y108b 106) von dem dritten Fahrzeug aus betrachtet, der Geoposition des zweiten Fahrzeugs 108 (Xn 108a, Yn 108a, die von dem zweiten Fahrzeug 108a übertragen worden ist und/oder der Geoposition des dritten Fahrzeugs 108b (Xn 108b, Yn 108b), die von dem dritten Fahrzeug 108b übertragen worden ist, vergleichen. In einigen Ausführungsformen kann das erste Fahrzeug 106 seine selbst-Geoposition und/oder eine relative Position des Ziels 606 von sich selbst aus gesehen (X106 606, Y106 606) mit den relativen Positionen des Ziels 606 wie von dem zweiten Fahrzeug gesehen und übertragen (X108a 606, Y108a 606) und wie von dem dritten Fahrzeug gesehen und übertragen (X108b 606, Y108b 606) vergleichen. Auf Grundlage dieser Vergleiche kann das erste Fahrzeug 106 eine selbst-lokalisierte Position des ersten Fahrzeugs 106, eine lokalisierte Position des zweiten Fahrzeugs 108a, eine lokalisierte Position des dritten Fahrzeugs 108b und/oder eine lokalisierte Position des Ziels 606 bei Block 708 bestimmen. Die Bestimmung und/oder Berechnung dieser lokalisierten Positionen kann unter Verwendung von Triangulation, Trilateration, Koppelnavigation, usw. durchgeführt werden.
  • In einer Ausführungsform können bei Block 706 die relativen Positionen, die bei Block 704 zum Vergleich oder bei Block 708 zum Berechnen der lokalisierten Positionen verwendet werden, aus den relativen Position ausgewählt werden, die von den anderen Fahrzeugen erhalten werden. Beispielsweise kann, wenn jeder Datenframe von Sensordaten erhalten wird (z.B. bei Block 406) das erste Fahrzeug 106 relative Positionen aus den relativen Positionen identifizieren, die von dem zweiten Fahrzeug 108a und/oder dem dritten Fahrzeug 108b übertragen werden, zur Verwendung in der Lokalisierungsbestimmung bei Block 708. Beispielsweise kann das erste Fahrzeug 106 relative Positionen auf Grundlage eines Toleranzniveaus identifizieren. In anderen Ausführungsformen kann das erste Fahrzeug 106 ein Konfidenzniveau zu jeder relativen Position zur Verwendung in der Lokalisierungsbestimmung bei Block 708 zuweisen. In dieser Ausführungsform kann das Konfidenzniveau auf einem Abstand zwischen dem ersten Fahrzeug 106 und dem Fahrzeug basieren, von welchem die relative Position erhalten wird. In anderen Ausführungsformen kann das Konfidenzniveau auf einer Fehlerschwelle von der absoluten Position des ersten Fahrzeugs 106 und/oder einer relativen Position des ersten Fahrzeugs 106 basieren, die von dem ersten Fahrzeug 106 bestimmt wird.
  • Ferner umfasst das Verfahren 700 bei Block 710 ein Steuern der Fahrzeugsysteme teilweise basierend auf den selbst-lokalisierten Positionen, die bei Block 708 bestimmt werden. Beispielsweise kann die Positionsbestimmungs-Einheit 140 die selbst-lokalisierten Positionen für Navigationszwecke verwenden. In anderen Ausführungsformen können fortschrittliche Fahrer-Assistenzsysteme die selbst-lokalisierten Positionen für Antikollisions-Zwecke verwenden. Auf Grundlage der oben beschriebenen Verfahren und Systeme können Positionsdaten von mehreren Fahrzeugen, in denen Sensoren im Wesentlichen gleichzeitig von einer gemeinsamen globalen Zeitreferenz betätigt werden, fusioniert werden, um eine genaue Lokalisierung zu erzielen.
  • Die hierin diskutierten Ausführungsformen können ebenfalls im Kontext von Computer-lesbaren Speichermedien beschrieben und implementiert werden, die Computer-ausführbare Anweisungen speichern. Computer-lesbare Speichermedien umfassen Computer-Speichermedien und -Kommunikationsmedien. Beispielsweise Flash-Speicherlaufwerke, Digital Versatile Discs (DVDs), Compact Disks (CDs), Floppy-Disks und Bandkassetten. Computer-lesbare Speichermedien können flüchtige und nicht-flüchtige, entfernbare und nicht-entfernbare Medien umfassen, die in beliebigen Verfahren oder Technologien zum Speichern von Informationen implementiert werden, wie beispielsweise Computer-lesbare Anweisungen, Datenstrukturen, Module oder andere Daten. Computer-lesbare Speichermedien schließen nicht-transitorische konkrete Medien und propagierte Datensignale aus.
  • Es sei festgehalten, dass verschiedene Implementationen der oben offenbarten und anderer Merkmale und Funktionen oder Alternativen und Abwandlungen davon vorteilhaft in viele andere verschiedene Systeme oder Anwendungen kombiniert werden können. Auch können verschiedene zuvor unvorhergesehene oder nicht vorweggenommene Alternativen, Modifikationen, Variationen oder Verbesserungen daran nachfolgend von Fachleuten vorgenommen werden können, die ebenfalls hiervon umfasst sein sollen.

Claims (22)

  1. Computer-implementiertes Verfahren zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks, umfassend: Herstellen einer betriebsmäßigen Verbindung für Computer-Kommunikation zwischen einem ersten und einem zweiten Fahrzeug unter Verwendung des Fahrzeug-Kommunikationsnetzwerks; Empfangen eines globalen Zeitsignals bei dem ersten Fahrzeug und bei dem zweiten Fahrzeug, wobei ein Prozessor des ersten Fahrzeugs ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal synchronisiert und ein Prozessor des zweiten Fahrzeugs ein lokales Uhrensignal des zweiten Fahrzeugs mit dem globalen Zeitsignal synchronisiert; Bestimmen eines Aufnahmeintervalls für eine Sensordaten-Aufnahmeprozesszeit, welche eine Gesamtanzahl von Datenframes maximiert, welche durch einen Sensor des ersten Fahrzeugs und durch einen Sensor des zweiten Fahrzeugs aufgenommen werden können; Übertragen eines ersten Sensor-Auslösepulses gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird, wobei das erste Fahrzeug die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug überträgt; und Übertragen eines zweiten Sensor-Auslösepulses gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird, wobei der zweite Sensor-Auslösepuls von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt ist, und wobei das zweite Fahrzeug die Sensordaten von dem Sensor des zweiten Fahrzeugs zu dem ersten Fahrzeug überträgt.
  2. Computer-implementiertes Verfahren nach Anspruch 1, wobei das Übertragen des zweiten Sensor-Auslösepulses ein Übertragen des zweiten Sensor-Auslösepulses zu einer Zeit umfasst, welche um das Aufnahmeintervall von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt ist, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs zu einer Zeit ausgelöst wird, welche um das Aufnahmeintervall von der Aufnahme der Sensordaten von dem Sensor des ersten Fahrzeugs versetzt ist.
  3. Computer-implementiertes Verfahren nach Anspruch 1, ferner umfassend ein Übertragen einer Nachricht von dem ersten Fahrzeug zu dem zweiten Fahrzeug, wobei die Nachricht das Aufnahmeintervall umfasst.
  4. Computer-implementiertes Verfahren nach Anspruch 1, ferner umfassend ein Übertragen einer Nachricht von dem ersten Fahrzeug zu dem zweiten Fahrzeug, wobei die Nachricht da Aufnahmeintervall und eine Startzeit für eine Datenaufnahme der Sensordaten von dem Sensor des zweiten Fahrzeugs umfasst.
  5. Computer-implementiertes Verfahren nach Anspruch 3, wobei die Startzeit für die Datenaufnahme der Sensordaten von dem Sensor des zweiten Fahrzeugs um das Aufnahmeintervall von einer Startzeit für die Datenaufnahme der Sensordaten von dem Sensor des ersten Fahrzeugs versetzt ist.
  6. Computer-implementiertes Verfahren nach Anspruch 1, ferner umfassend ein Herstellen der betriebsmäßigen Verbindung für Computer-Kommunikation zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug unter Verwendung des Fahrzeug-Kommunikationsnetzwerks auf ein Detektieren eines Auslöseereignisses durch das erste Fahrzeug hin.
  7. Computer-implementiertes Verfahren nach Anspruch 1, wobei das Bestimmen des Aufnahmeintervalls für die Sensordaten-Aufnahmeprozesszeit, die die Gesamtanzahl von Datenframes maximiert, auf einer Anzahl von Fahrzeugen innerhalb eines vorbestimmten Abstands von dem ersten Fahrzeug basiert.
  8. Computer-implementiertes Verfahren nach Anspruch 1, wobei das Bestimmen des Aufnahmeintervalls für die Sensordaten-Aufnahmeprozesszeit, welche die Gesamtanzahl von Datenframes maximiert, auf einem Abstand zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug basiert.
  9. System zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks, umfassend: ein erstes Fahrzeug, welches zu einer Computer-Kommunikation mit einem zweiten Fahrzeug unter Verwendung des Fahrzeug-Kommunikationsnetzwerks eingerichtet ist; und einen Prozessor, welcher ein globales Zeitsignal von einer globalen Positionsbestimmungsquelle empfängt und ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal synchronisiert; wobei der Prozessor ein Aufnahmeintervall bestimmt, welches eine Gesamtanzahl von Datenframes zur Aufnahme durch einen Sensor des ersten Fahrzeugs auf Grundlage eines Sensors des zweiten Fahrzeugs maximiert; wobei der Prozessor einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs überträgt, wodurch eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird, wobei der Sensor des ersten Fahrzeugs die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug überträgt; und der Prozessor einen zweiten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs überträgt, wodurch eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird, wobei der Sensor des zweiten Fahrzeugs die Sensordaten von dem Sensor des zweiten Fahrzeugs zu dem ersten Fahrzeug überträgt.
  10. System nach Anspruch 9, wobei ein lokales Uhrensignal des zweiten Fahrzeugs mit der globalen Positionierungsquelle synchronisiert ist.
  11. System nach Anspruch 9, wobei der Prozessor den zweiten Sensor-Auslösepuls zu einer Zeit überträgt, welche um das Aufnahmeintervall von einer Zeit versetzt ist, zu welcher der erste Sensor-Auslösepuls übertragen wird.
  12. System nach Anspruch 9, wobei auf ein Detektieren eines Auslöseereignisses durch den Prozessor hin das erste Fahrzeug und das zweite Fahrzeug eine betriebsmäßige Verbindung für Computer-Kommunikation unter Verwendung des Fahrzeug-Kommunikationsnetzwerks herstellen.
  13. System nach Anspruch 9, wobei der Prozessor einen Abstand zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug bestimmt, und wobei der Prozessor das Aufnahmeintervall auf Grundlage eines Abstands zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug bestimmt.
  14. System nach Anspruch 9, wobei der Prozessor ein oder mehrere Fahrzeugsysteme des ersten Fahrzeugs auf Grundlage der Sensordaten von dem Sensor des ersten Fahrzeugs und der Sensordaten von dem Sensor des zweiten Fahrzeugs steuert.
  15. System nach Anspruch 9, wobei der Prozessor eine Startzeit für eine Datenaufnahme der Sensordaten von dem Sensor des zweiten Fahrzeugs festlegt, wobei die Startzeit für die Datenaufnahme der Sensordaten des Sensors des zweiten Fahrzeugs im das Aufnahmeintervall von einer Startzeit für eine Datenaufnahme der Sensordaten von dem Sensor des ersten Fahrzeugs versetzt ist.
  16. Nicht-flüchtiges Computer-lesbares Speichermedium, welche Anweisungen umfasst, welche, wenn sie von einem Prozessor ausgeführt werden, den Prozessor dazu veranlassen: eine betriebsmäßige Verbindung für Computer-Kommunikation zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug herzustellen; ein globales Zeitsignal von einer globalen Positionierungsquelle zu empfangen; ein lokales Uhrensignal des ersten Fahrzeugs mit dem globalen Zeitsignal zu synchronisieren und ein lokales Zeitsignal des zweiten Fahrzeugs mit dem globalen Zeitsignal zu synchronisieren; ein Aufnahmeintervall zu bestimmen, welches eine Gesamtanzahl von Datenframes zur Aufnahme durch einen Sensor des ersten Fahrzeugs und durch einen Sensor des zweiten Fahrzeugs maximiert; einen ersten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des ersten Fahrzeugs zu erzeugen, wobei eine Aufnahme von Sensordaten von dem Sensor des ersten Fahrzeugs ausgelöst wird, und die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug zu übertragen; und einen zweiten Sensor-Auslösepuls gemäß dem Aufnahmeintervall zu dem Sensor des zweiten Fahrzeugs zu erzeugen, wobei eine Aufnahme von Sensordaten von dem Sensor des zweiten Fahrzeugs ausgelöst wird, wobei der zweite Sensor-Auslösepuls von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt ist, und die Sensordaten von dem Sensor des ersten Fahrzeugs zu dem zweiten Fahrzeug zu übertragen.
  17. Nicht-flüchtiges Computer-lesbares Speichermedium nach Anspruch 16, ferner umfassend ein Steuern von einem oder mehreren Fahrzeugsystemen des ersten Fahrzeugs auf Grundlage der Sensordaten von dem Sensor des ersten Fahrzeugs und der Sensordaten von dem Sensor des zweiten Fahrzeugs.
  18. Nicht-flüchtiges Computer-lesbares Speichermedium nach Anspruch 16, ferner umfassend ein Übertragen einer Nachricht von dem ersten Fahrzeug zu dem zweiten Fahrzeug, wobei die Nachricht das Aufnahmeintervall umfasst.
  19. Nicht-flüchtiges Computer-lesbares Speichermedium nach Anspruch 16, wobei das Übertragen des zweiten Sensor-Auslösepulses ein Übertragen des zweiten Sensor-Auslösepulses zu einer Zeit umfasst, welche um das Aufnahmeintervall von dem ersten Sensor-Auslösepuls um das Aufnahmeintervall versetzt ist, wodurch eine Aufnahme der Sensordaten von dem Sensor des zweiten Fahrzeugs zu einer Zeit ausgelöst wird, welche um das Aufnahmeintervall von der Aufnahme der Sensordaten von dem Sensor des ersten Fahrzeugs versetzt ist.
  20. Computer-implementiertes Verfahren zum Steuern einer Fahrzeugsensor-Datenaufnahme unter Verwendung eines Fahrzeug-Kommunikationsnetzwerks, umfassend: Herstellen einer betriebsmäßigen Verbindung für Computer-Kommunikation zwischen einer Mehrzahl von Fahrzeugen unter Verwendung des Fahrzeug-Kommunikationsnetzwerks, wobei jedes Fahrzeug aus der Mehrzahl von Fahrzeugen einen Prozessor, eine lokale Uhr und einen Sensor umfasst; unter Verwendung der betriebsmäßigen Verbindung für Computer-Kommunikation, Synchronisieren der lokalen Uhr von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen mit einem globalen Zeitsignal von einer globalen Positionsbestimmungsquelle; Bestimmen eines Aufnahmeintervalls für einen Uhrenzyklus von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen, wobei das Aufnahmeintervall eine Gesamtzahl von Datenframes zur Aufnahme durch die Sensoren der Mehrzahl von Fahrzeugen maximiert; alternativ Aufnehmen von Sensordaten von den Sensoren der Mehrzahl von Fahrzeugen zu Zeiten, welche um das Aufnahmeintervall versetzt sind, wobei jedes Fahrzeug aus der Mehrzahl von Fahrzeugen die Sensordaten zu den anderen Fahrzeugen in der Mehrzahl von Fahrzeugen überträgt.
  21. Computer-implementiertes Verfahren nach Anspruch 20, ferner umfassend ein Festlegen einer Startzeit für eine Sensor-Datenaufnahme bei jedem Fahrzeug aus der Mehrzahl von Fahrzeugen gemäß der lokalen Uhr von jedem Fahrzeug aus der Mehrzahl von Fahrzeugen, wobei die Startzeit für jedes Fahrzeug voneinander um das Aufnahmeintervall verschoben ist.
  22. Computer-implementiertes Verfahren nach Anspruch 20, wobei das Aufnahmeintervall auf einer Anzahl der Mehrzahl von Fahrzeugen basiert.
DE102018213692.0A 2017-08-25 2018-08-14 System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation Withdrawn DE102018213692A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/686,250 US10334331B2 (en) 2017-08-25 2017-08-25 System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US15/686,250 2017-08-25

Publications (1)

Publication Number Publication Date
DE102018213692A1 true DE102018213692A1 (de) 2019-02-28

Family

ID=65321856

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018213692.0A Withdrawn DE102018213692A1 (de) 2017-08-25 2018-08-14 System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation

Country Status (3)

Country Link
US (1) US10334331B2 (de)
CN (1) CN109426258B (de)
DE (1) DE102018213692A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191480A1 (en) * 2016-05-02 2017-11-09 Dura Automotive Systems Control system and method for a vehicle
US10473793B2 (en) * 2017-01-19 2019-11-12 Ford Global Technologies, Llc V2V collaborative relative positioning system
US20190043359A1 (en) * 2017-08-03 2019-02-07 Laird Technologies, Inc. Sensor-equipped traffic safety message systems and related methods
CN110418310B (zh) * 2018-04-28 2021-03-30 华为技术有限公司 车辆雷达通信一体化的实现方法、相关设备及系统
US10569770B1 (en) * 2018-12-11 2020-02-25 Mando Corporation Driver assistance system
US10816635B1 (en) * 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Autonomous vehicle localization system
US11117686B2 (en) * 2019-03-26 2021-09-14 Hamilton Sundstrand Corporation Shared resistive sensor measurement with FPGA based collision avoidance protection
KR20200130888A (ko) * 2019-05-07 2020-11-23 현대모비스 주식회사 복합정보 기반 scc시스템 제어 방법 및 장치
US11640177B2 (en) * 2019-05-15 2023-05-02 Deere & Company Control and mapping based on multi-vehicle sensor fusion
US11637860B2 (en) * 2019-06-17 2023-04-25 At&T Intellectual Property I, L.P. Autonomous vehicle DoS resistant communication system using acoustic communications
CN112180414A (zh) * 2019-07-01 2021-01-05 北京图森智途科技有限公司 一种机载设备同步方法、机载同步装置和智能机器
EP3891474B1 (de) 2019-08-30 2023-12-20 Baidu.com Times Technology (Beijing) Co., Ltd. Synchronisierung der sensoren von autonom fahrenden fahrzeugen
CN110782687B (zh) * 2019-08-30 2022-07-19 腾讯科技(深圳)有限公司 数据处理方法、装置以及电子设备
KR102635388B1 (ko) * 2019-10-24 2024-02-13 현대모비스 주식회사 자동차용 센서 통합 모듈 및 이를 이용한 시스템
DE102019216517B3 (de) * 2019-10-25 2021-03-18 Daimler Ag Verfahren zur Synchronisation zumindest zweier Sensor-Systeme
EP4183145A4 (de) * 2020-07-15 2024-04-03 Qualcomm Inc Durchsetzung der bereichszuverlässigkeit für über drahtlose übertragungen gemeinsame informationen
EP3951420A1 (de) * 2020-08-07 2022-02-09 Aptiv Technologies Limited Objektdetektionssystem mit einem seitenkommunikationskanal
WO2022094836A1 (en) * 2020-11-05 2022-05-12 Qualcomm Incorporated Alternative coordinate system for sensor sharing
CN114662053A (zh) * 2020-12-22 2022-06-24 北京万集科技股份有限公司 车辆纵向分车方法、装置及电子设备
CN112566340B (zh) * 2020-12-23 2023-03-31 广州橙行智动汽车科技有限公司 一种多辆车的车灯同步控制方法、装置、车辆、可读介质
US11451955B2 (en) 2021-09-01 2022-09-20 Autonomous Roadway Intelligence, Llc V2X and vehicle localization by local map exchange in 5G or 6G

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US7979173B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
US8983771B2 (en) 1997-10-22 2015-03-17 Intelligent Technologies International, Inc. Inter-vehicle information conveyance system and method
KR100414359B1 (ko) * 1999-08-02 2004-01-07 강신란 프루브 카를 이용한 교통 정보 수집 방법, 장치 및 프로그램 저장매체
US6611755B1 (en) * 1999-12-19 2003-08-26 Trimble Navigation Ltd. Vehicle tracking, communication and fleet management system
DE10002069C2 (de) 2000-01-18 2002-01-24 Daimler Chrysler Ag Anordnung zur Verbesserung der Sicht in Fahrzeugen
US20030102997A1 (en) 2000-02-13 2003-06-05 Hexagon System Engineering Ltd. Vehicle communication network
US7280674B2 (en) 2001-06-05 2007-10-09 University Of Florida Research Foundation Device and method for object illumination and imaging using time slot allocation based upon road changes
WO2004031877A1 (de) 2002-09-27 2004-04-15 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes
CN1708678A (zh) * 2002-11-07 2005-12-14 斯耐普昂技术有限公司 依照数据触发值的交通工具数据流暂停
DE10256620A1 (de) 2002-12-03 2004-07-08 Daimlerchrysler Ag Radarsystem mit integrierter Datenübertragung
US7444240B2 (en) 2004-05-20 2008-10-28 Ford Global Technologies, Llc Collision avoidance system having GPS enhanced with OFDM transceivers
US7164118B2 (en) 2004-10-29 2007-01-16 Deere & Company Method and system for obstacle detection
JP2006140739A (ja) * 2004-11-11 2006-06-01 Fujitsu Ten Ltd 通信同期装置、通信同期システム、通信同期方法および通信同期プログラム
US8812226B2 (en) 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8229663B2 (en) 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing
US7994902B2 (en) 2009-02-25 2011-08-09 Southwest Research Institute Cooperative sensor-sharing vehicle traffic safety system
US9472097B2 (en) 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
US8504864B2 (en) * 2010-12-01 2013-08-06 GM Global Technology Operations LLC Data sensor coordination using time synchronization in a multi-bus controller area network system
DE102011102541A1 (de) * 2011-05-26 2012-11-29 Valeo Schalter Und Sensoren Gmbh Sensorvorrichtung für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben von zumindest zwei Sensoren in einem Kraftfahrzeug
US9253753B2 (en) 2012-04-24 2016-02-02 Zetta Research And Development Llc-Forc Series Vehicle-to-vehicle safety transceiver using time slots
US9300423B2 (en) 2012-04-24 2016-03-29 Zetta Research and Development LLC—ForC Series Device for synchronizing a time base for V2V communictation
US9117371B2 (en) 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance
JP6071550B2 (ja) * 2012-12-28 2017-02-01 三菱重工メカトロシステムズ株式会社 車両通信システム、車載器、プログラム、及び、通信方法
US20140302774A1 (en) * 2013-04-04 2014-10-09 General Motors Llc Methods systems and apparatus for sharing information among a group of vehicles
US9224297B2 (en) * 2013-04-23 2015-12-29 Ford Global Technologies, Llc Park assist object distance measurement clock control
US9361650B2 (en) 2013-10-18 2016-06-07 State Farm Mutual Automobile Insurance Company Synchronization of vehicle sensor information
FR3020616B1 (fr) 2014-04-30 2017-10-27 Renault Sas Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
JP2015228171A (ja) * 2014-06-02 2015-12-17 旭化成エレクトロニクス株式会社 センサシステム及びセンサ並びにセンサ信号出力方法
TWI571399B (zh) 2014-08-20 2017-02-21 啟碁科技股份有限公司 預警方法及車用雷達系統
US9916505B2 (en) * 2014-09-22 2018-03-13 Deere & Company Method and system for collecting image data
US20160205656A1 (en) * 2015-01-13 2016-07-14 GM Global Technology Operations LLC Determination of object-to-object position using data fusion techniques
US9639999B2 (en) * 2015-01-14 2017-05-02 Tata Consultancy Services Limited System and method for estimating speed of a vehicle
US9563808B2 (en) 2015-01-14 2017-02-07 GM Global Technology Operations LLC Target grouping techniques for object fusion
US20160223643A1 (en) 2015-01-28 2016-08-04 Wenhua Li Deep Fusion of Polystatic MIMO Radars with The Internet of Vehicles for Interference-free Environmental Perception
US10598781B2 (en) 2015-05-29 2020-03-24 Maxlinear, Inc. Cooperative and crowd-sourced multifunctional automotive radar
US20170017734A1 (en) 2015-07-15 2017-01-19 Ford Global Technologies, Llc Crowdsourced Event Reporting and Reconstruction
US9922565B2 (en) * 2015-07-20 2018-03-20 Dura Operating Llc Sensor fusion of camera and V2V data for vehicles
US10338201B2 (en) * 2015-09-17 2019-07-02 Qualcomm Incorporated Timing synchronization of LIDAR system to reduce interference
US10397546B2 (en) 2015-09-30 2019-08-27 Microsoft Technology Licensing, Llc Range imaging
US20170142187A1 (en) * 2015-10-18 2017-05-18 Juan R. Pimentel Method for Uploading All of In-Vehicle Data to the Cloud in an Efficient, Automated, Secure, and Reliable Fashion
US9785150B2 (en) * 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
JP6607110B2 (ja) * 2016-03-23 2019-11-20 トヨタ自動車株式会社 車両用注意喚起装置
US10168418B1 (en) 2017-08-25 2019-01-01 Honda Motor Co., Ltd. System and method for avoiding sensor interference using vehicular communication

Also Published As

Publication number Publication date
CN109426258B (zh) 2023-04-18
US10334331B2 (en) 2019-06-25
US20190069051A1 (en) 2019-02-28
CN109426258A (zh) 2019-03-05

Similar Documents

Publication Publication Date Title
DE102018213694A1 (de) System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation
DE102018213692A1 (de) System und Verfahren zur synchronisierten Fahrzeugsensor-Datenaufnahme-Verarbeitung unter Verwendung von Fahrzeug-Kommunikation
DE102018213691A1 (de) System und Verfahren zum Vermeiden von Sensorinterferenz mittels Fahrzeugkommunikation
DE102018109366B4 (de) Verfahren zur lichtsignalanlagenerfassung
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102019102195B4 (de) Autonomes Antriebssystem für ein Fahrzeug, Fahrzeug mit solch einem autonomen Antriebssystem sowie Verfahren zum Erkennen einer Kollision zwischen einem autonomen Fahrzeug und einem Objekt
DE102018105140A1 (de) Objektverfolgung
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE102018218895A1 (de) System und Verfahren zum Bereitstellen eines infrastrukturbasierten Sicherheitsalarms im Zusammenhang mit wenigstens einer Fahrbahn
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE102019115897A1 (de) Fahrerüberwachungssystem und verfahren zum betreiben desselben
DE102020104236A1 (de) Fahrzeugbetrieb als Reaktion auf ein Notfallereignis
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE102020132302A1 (de) Sicherheitssystem für ein fahrzeug
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE102019127038A1 (de) Erfassung von angriffen auf fahrzeugnetzwerke
DE112020004545T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung
DE102020113421A1 (de) Vorrichtung und verfahren zum autonomen fahren
DE112018004773B4 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren, programm und fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee