DE102019117136A1 - Kommunikation und steuerung für verkehrsinfrastruktur - Google Patents

Kommunikation und steuerung für verkehrsinfrastruktur Download PDF

Info

Publication number
DE102019117136A1
DE102019117136A1 DE102019117136.9A DE102019117136A DE102019117136A1 DE 102019117136 A1 DE102019117136 A1 DE 102019117136A1 DE 102019117136 A DE102019117136 A DE 102019117136A DE 102019117136 A1 DE102019117136 A1 DE 102019117136A1
Authority
DE
Germany
Prior art keywords
vehicle
computer
data
sensor
support structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019117136.9A
Other languages
English (en)
Inventor
Ankit Girish Vora
Helen Elizabeth Kourous-Harrigan
Jeffrey Thomas Remillard
Lu Xu
Linjun Zhang
Codrin Cionca
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019117136A1 publication Critical patent/DE102019117136A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung stellt Kommunikation und Steuerung für Verkehrsinfrastruktur bereit. In einem Computer, der an einer stationären Trägerstruktur angebracht ist, können ein Fahrzeug und ein Objekt in der Nähe der Trägerstruktur aus Daten von einem Sensor erfasst werden, der an der Trägerstruktur angebracht ist. Es kann ein Risikozustand auf Grundlage des erfassten Fahrzeugs und Objekts identifiziert werden.

Description

  • TECHNISCHES GEBIET
  • Die Offenbarung betrifft allgemein Verkehrsinfrastruktur und Kommunikation.
  • ALLGEMEINER STAND DER TECHNIK
  • Die Steuerung von Straßenverkehr und/oder Reaktion auf Ereignisse wie Infrastrukturprobleme (z. B. eine defekte Brücke), Unfälle, Naturkatastrophen usw. kann von Informationen zu diesen Bedingungen abhängen. Beispielsweise kann ein Computer in einem Notfalleinsatzzentrum Sensordaten von Kameras oder anderen Arten von Sensoren empfangen, die an der Infrastruktur angebracht sind, z. B. an Kreuzungen, Brücken, Tunneln usw. angebracht sind.
  • KURZDARSTELLUNG
  • Offenbart wird ein System, umfassend eine stationäre Trägerstruktur; und ein Sensor und einen Computer, die jeweils an der Trägerstruktur angebracht sind; wobei der Computer dazu programmiert ist, ein Fahrzeug und ein Objekt in der Nähe der Trägerstruktur aus Daten von dem Sensor zu erfassen und einen Risikozustand auf Grundlage des erfassten Fahrzeugs und Objekts zu identifizieren.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, auf Grundlage des Risikozustands eine Anweisung an das Fahrzeug zu senden.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, den Risikozustand auf Grundlage eines Abstands zwischen dem erfassten Fahrzeug und dem Objekt weiter zu identifizieren.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, den Risikozustand auf Grundlage einer Klassifizierung des Objekts weiter zu identifizieren.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, den Risikozustand auf Grundlage einer Geschwindigkeit des Fahrzeugs weiter zu identifizieren.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, den Risikozustand auf Grundlage einer Geschwindigkeit des Objekts weiter zu identifizieren.
  • Das System kann ferner einen zweiten Sensor umfassen, wobei der Sensor und der zweite Sensor eine Kamera und ein Lidar beinhalten.
  • Das System kann den Computer beinhalten, der dazu programmiert ist, das Fahrzeug und das Objekt in der Nähe der Trägerstruktur aus Daten vom Sensor und vom zweiten Sensor zu erfassen.
  • Das System kann beinhalten, dass das erfasste Objekt ein stationäres Objekt ist.
  • Das System kann beinhalten, dass das erfasste Objekt ein mobiles Objekt ist.
  • Ein Verfahren umfasst, in einem Computer, der an einer stationären Trägerstruktur angebracht ist, Erfassen eines Fahrzeugs und eines Objekts in der Nähe der Trägerstruktur aus Daten von einem Sensor, der an der Trägerstruktur angebracht ist; und Identifizieren eines Risikozustands auf Grundlage des erfassten Fahrzeugs und Objekts.
  • Das Verfahren kann ferner das Senden einer Anweisung an das Fahrzeug auf Grundlage des Risikozustands umfassen.
  • Das Verfahren kann ferner das weitere Identifizieren des Risikozustands auf Grundlage eines Abstands zwischen dem erfassten Fahrzeug und dem Objekt umfassen.
  • Das Verfahren kann ferner das weitere Identifizieren des Risikozustands auf Grundlage einer Klassifizierung des Objekts umfassen.
  • Das Verfahren kann ferner das weitere Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Fahrzeugs umfassen.
  • Das Verfahren kann ferner das weitere Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Objekts umfassen.
  • Das Verfahren kann ferner beinhalten, dass ein zweiter Sensor an der Trägerstruktur angebracht ist, wobei der Sensor und der zweite Sensor eine Kamera und ein Lidar beinhalten.
  • Das Verfahren kann ferner das Erfassen des Fahrzeugs und des Objekts in der Nähe der Trägerstruktur aus Daten von dem Sensor und dem zweiten Sensor umfassen.
  • Das Verfahren kann ferner beinhalten, dass das erfasste Objekt ein stationäres Objekt ist.
  • Das Verfahren kann ferner beinhalten, dass das erfasste Objekt ein mobiles Objekt ist.
  • Figurenliste
    • 1 ist ein Diagramm, das ein beispielhaftes Infrastrukturkommunikations- und -steuersystem veranschaulicht.
    • 2 ist ein Blockschaubild, das Verarbeitung in einem Infrastrukturknotencomputer veranschaulicht.
    • 3 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Verarbeiten von Sensordaten eines Infrastrukturknotens.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Eine stationäre Trägerstruktur kann verschiedene Komponenten wie etwa Sensoren und einen Computer tragen, die daran angebracht sind (z. B. mit verschiedenen Anbringungsmechanismen, Gehäusen usw.). Der Computer kann dazu programmiert sein, Daten von einem oder mehreren Sensoren, die an der Trägerstruktur angebracht sind, und/oder von einem oder mehreren Fahrzeugen in der Nähe der Trägerstruktur zu empfangen. Auf Grundlage der empfangenen Daten kann der Computer ein oder mehrere physische Attribute von Objekten und/oder Fahrzeugen in der Nähe der Trägerstruktur bestimmen. Durch Beurteilen einer Position und/oder Trajektorie eines Fahrzeugs und eines oder mehrerer Objekte (die ein oder mehrere andere Fahrzeuge beinhalten können) kann der Infrastrukturcomputer Risikoszenarien und/oder Verstöße gegen Verkehrsregeln identifizieren und kann auf Grundlage dessen Maßnahmen vorgeben.
  • 1 ist ein Blockschaubild eines beispielhaften Infrastrukturkommunikations- und -steuersystems (oder Infrastruktursystems) 100. Das System 100 beinhaltet ein Fahrzeug 105, das ein Bodenfahrzeug wie etwa ein Pkw, ein Lastwagen usw. ist. Zusätzlich oder alternativ kann das Fahrzeug 105 ein Fahrrad, ein Motorrad usw. beinhalten. Das Fahrzeug 105 beinhaltet einen Fahrzeugcomputer 110, Sensoren 115, Aktoren 120 zum Betätigen verschiedener Fahrzeugkomponenten 125 und ein Fahrzeugkommunikationsmodul 130. Das Kommunikationsmodul 130 ermöglicht es dem Fahrzeugcomputer 110 über ein Netz 135, mit einem oder mehreren Datensammlungs- oder Infrastrukturknoten 140 und einem Zentralserver 170 zu kommunizieren.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher eine oder mehrere Formen von computerlesbaren Medien und speichert Anweisungen, die von dem Computer 110 ausführbar sind, um verschiedene Betriebsvorgänge einschließlich der hierin offenbarten durchzuführen.
  • Der Computer 110 kann das Fahrzeug 105 in einem autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen (oder manuellen) Modus betreiben. Zu Zwecken dieser Offenbarung ist ein autonomer Modus als ein Modus definiert, in dem ein jedes von einem Antrieb, Bremsen und Lenken des Fahrzeugs 105 von dem Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer 110 eines oder zwei von Antrieb, Bremsen und Lenken des Fahrzeugs 105; in einem nicht autonomen Modus steuert ein menschlicher Fahrzeugführer Antrieb, Abbremsung und Lenkung des Fahrzeugs 105.
  • Der Computer 110 kann Programmierung beinhalten, um eines oder mehrere von Bremsen, Antrieb (z. B. Steuerung der Beschleunigung im Fahrzeug durch Steuern von einem oder mehreren von einem Verbrennungsmotor, Elektromotor, Hybridmotor usw.), Lenkung, Klimatisierung, Innen- und/oder Außenbeleuchtung des Fahrzeugs 105 usw. zu betreiben und um zu bestimmen, ob und wann der Computer 110, und nicht ein menschlicher Fahrzeugführer, diese Vorgänge steuern soll. Außerdem kann der Computer 110 dazu programmiert sein, zu bestimmen, ob und wann ein menschlicher Fahrzeugführer diese Vorgänge steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, der z. B. Teil von elektronischen Steuereinheiten (electronic controller units - ECUs) oder dergleichen im Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugkomponenten 125 ist, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., beinhalten oder über z. B. einen Kommunikationsbus des Fahrzeugs 105 wie unten beschrieben kommunizierend daran gekoppelt sein. Der Computer 110 ist allgemein für Kommunikation in einem Fahrzeugkommunikationsnetz ausgebildet, das einen Bus im Fahrzeug beinhalten kann, wie etwa ein CAN (controller area network) oder dergleichen, und/oder andere drahtgebundene und/oder drahtlose Mechanismen.
  • Über das Netz des Fahrzeugs 105 kann der Computer 110 Nachrichten an verschiedene Vorrichtungen im Fahrzeug senden und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z.B. Sensoren 115, ein Aktor 120, eine Mensch-Maschine-Schnittstelle (human machine interface - HMI) usw. Alternativ oder zusätzlich kann das Kommunikationsnetz des Fahrzeugs 105 in Fällen, in denen der Computer 110 tatsächlich eine Vielzahl von Vorrichtungen umfasst, zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung repräsentativ als der Computer 110 dargestellt sind. Wie unten erwähnt, können ferner verschiedene Steuerungen und/oder Sensoren 115 über das Fahrzeugkommunikationsnetz Daten an den Computer 110 bereitstellen.
  • Die Sensoren 115 des Fahrzeugs 105 können verschiedene Vorrichtungen beinhalten, wie sie zum Bereitstellen von Daten an den Computer 110 bekannt sind. Beispielsweise können die Sensoren 115 einen oder mehrere LIDAR(Light Detection und Ranging)-Sensoren 115 usw. beinhalten, die an einer Oberseite des Fahrzeugs 105, hinter der vorderen Windschutzscheibe des Fahrzeugs 105, um das Fahrzeug 105 herum usw. angeordnet sind und relative Positionen, Größen und Formen von Objekten in der Umgebung des Fahrzeugs 105 bereitstellen. Als ein weiteres Beispiel können ein oder mehrere Radarsensoren 115, die an Stoßfängern des Fahrzeugs 105 fixiert sind, Daten zum Bereitstellen von Positionen der Objekte, zweiter Fahrzeuge 105 usw. im Verhältnis zur Position des Fahrzeugs 105 bereitstellen. Die Sensoren 115 können ferner alternativ oder zusätzlich beispielsweise einen oder mehrere Kamerasensoren 115, z. B. mit Frontsicht, Seitensicht usw., beinhalten, die Bilder von einem Bereich in der Umgebung des Fahrzeugs 105 bereitstellen.
  • Aktoren 120 des Fahrzeugs 105 sind über Schaltungen, Chips und/oder andere elektronische und/oder mechanische Komponenten implementiert, die verschiedene Fahrzeugsubsysteme gemäß geeigneten Steuersignalen betätigen können, wie es bekannt ist. Die Aktoren 120 können zum Steuern von Komponenten wie Bremsung, Beschleunigung und Lenkung eines Fahrzeugs 105 verwendet werden.
  • Im Zusammenhang der vorliegenden Offenbarung ist jede Fahrzeugkomponente 125 eine oder mehrere Hardwarekomponenten, die dazu ausgebildet sind, eine mechanische oder elektromechanische Funktion oder einen Vorgang - wie etwa das Bewegen des Fahrzeugs, Abbremsen oder Anhalten des Fahrzeugs 101, Lenken des Fahrzeugs 105 usw. - durchzuführen. Nicht einschränkende Beispiele von Komponenten 125 beinhalten eine Antriebskomponente (die z. B. einen Verbrennungsmotor und/oder einen Elektromotor usw. beinhaltet), eine Getriebekomponente, eine Lenkkomponente (die z. B. ein oder mehrere von einem Lenkrad, einer Lenkzahnstange usw. beinhalten kann), eine Bremskomponente (wie unten beschrieben), eine Einparkhilfskomponente, eine adaptive Geschwindigkeitsregelungskomponente, eine adaptive Lenkkomponente, einen bewegbaren Sitz usw.
  • Zusätzlich kann der Computer 110 zum Kommunizieren mit Vorrichtungen außerhalb des Fahrzeugs 105 über ein Fahrzeug-an-Fahrzeug-Kommunikationsmodul oder eine Fahrzeug-an-Fahrzeug-Kommunikationsschnittstelle 130 konfiguriert sein, z. B. über drahtlose Fahrzeug-to-Fahrzeug(vehicle-to-vehicle - V2V)- oder Fahrzeug-to-infrastructure(vehicle-to-infrastructure - V2X)-Kommunikation mit einem anderen Fahrzeug, mit einem Infrastrukturknoten 140 (in der Regel über direkte Funkfrequenzkommunikation) und/oder (in der Regel über das Netz 135) einen entfernten Server 170. Das Modul 130 kann einen oder mehrere Mechanismen beinhalten, mit denen die Computer 110 der Fahrzeuge 105 kommunizieren können, darunter eine beliebige gewünschte Kombination von drahtlosen (z. B. zellular, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und eine beliebige gewünschte Netzwerktopologie (oder Topologien, wenn eine Vielzahl von Kommunikationsmechanismen benutzt wird). Zu beispielhafter Kommunikation, die über das Modul 130 bereitgestellt wird, gehören zellular, Bluetooth, IEEE 802.11, DSRC (dedicated short range communications) und/oder Weitverkehrsnetze (wide area networks, WAN), darunter das Internet, die Datenkommunikationsdienste bereitstellen.
  • Das Netz 135 stellt einen oder mehrere Mechanismen dar, mit denen ein Fahrzeugcomputer 105 mit einem Infrastrukturknoten 140 und/oder Zentralserver 170 kommunizieren kann. Entsprechend kann es sich bei dem Netz 135 um einen oder mehrere von verschiedenen drahtgebundenen oder drahtlosen Kommunikationsmechanismen handeln, darunter jede gewünschte Kombination aus drahtgebundenen (z. B. Kabel und Glasfaser) und/oder drahtlosen (z. B. zellular, Funk, Satellit, Mikrowelle und Hochfrequenz) Kommunikationsmechanismen und jede beliebige gewünschte Netztopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen benutzt werden). Beispielhafte Kommunikationsnetze beinhalten Funkkommunikationsnetze (z. B. unter Verwendung von Bluetooth®, Bluetooth® Low Energy (BLE), IEEE 802.11, Fahrzeug-Fahrzeug (V2V) wie etwa Dedicated Short Range Communications (DSRC) usw.), lokales Netze (LAN) und/oder Weitverkehrsnetze (WAN) einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Ein Infrastrukturknoten 140 beinhaltet eine physische Struktur wie etwa einen Mast oder eine andere Trägerstruktur (z. B. einen Pfosten, einen Kasten, der an einem Brückenträger anbringbar ist, einen Mobiltelefonmast, eine Verkehrszeichenstange usw.), an der Infrastruktursensoren 145 sowie ein Infrastrukturkommunikationsmodul 150 und ein Computer 155 angebracht, untergebracht und/oder enthalten sein und mit Strom versorgt werden können usw. Zur einfachen Darstellung ist ein Infrastrukturknoten 140 in 1 gezeigt, doch kann und wird das System 100 wahrscheinlich Dutzende, Hunderte oder Tausende von Knoten 140 beinhalten. Der Infrastrukturknoten 140 ist in der Regel stationär, d. h. fest an einer spezifischen geografischen Position angeordnet und nicht aus dieser weg beweglich. Die Infrastruktursensoren 145 können einen oder mehrere Sensoren wie oben für die Sensoren 115 des Fahrzeugs 105 beschrieben beinhalten, z. B. Lidar, Radar, Kameras, Ultraschallsensoren usw. Die Infrastruktursensoren 145 sind fest oder stationär. Das heißt, jeder Sensor 145 ist so am Infrastrukturknoten angebracht, dass er ein im Wesentlichen unbewegliches und unveränderliches Blickfeld aufweist.
  • Die Sensoren 145 stellen somit im Gegensatz zu den Sensoren 115 des Fahrzeugs 105 in mehrerlei vorteilhafter Hinsicht Blickfelder bereit. Da die Sensoren 145 erstens ein im Wesentlichen konstantes Blickfeld aufweisen, können Bestimmungen der Positionen von Fahrzeug 105 und Objekt 160, 165 mit weniger und einfacheren Verarbeitungsressourcen erreicht werden als für den Fall, dass auch die Bewegung der Sensoren 145 berücksichtigt werden muss. Ferner beinhalten die Sensoren 145 eine Außenperspektive des Fahrzeugs 145 und können mitunter Merkmale und Eigenschaften der Objekte 160, 165 erfassen, die nicht im Blickfeld der Sensoren 115 des Fahrzeugs 105 liegen, und/oder können eine genauere Erfassung z. B. in Bezug auf die Position und/oder Bewegung des Fahrzeugs 105 in Bezug auf andere Objekte 160, 165 bereitstellen. Außerdem können die Sensoren 145 mit dem Computer 155 des Knotens 140 über eine drahtgebundene Verbindung kommunizieren, während Fahrzeuge 105 in der Regel mit Knoten 140 und/oder einem Server 170 nur drahtlos kommunizieren können, oder nur zu sehr eingeschränkten Zeiten, wenn eine drahtgebundene Verbindung verfügbar ist. Drahtgebundene Kommunikation ist zuverlässiger und kann schneller sein als drahtlose Kommunikation wie etwa Fahrzeug-zu-Infrastruktur-Kommunikation oder dergleichen.
  • Das Kommunikationsmodul 150 und der Computer 155 weisen in der Regel mit dem Fahrzeugcomputer 110 und dem Fahrzeugkommunikationsmodul 130 gemeinsame Merkmale auf und werden daher zur Vermeidung von Redundanz nicht weiter beschrieben. Obwohl zur einfachen Darstellung nicht gezeigt, beinhaltet der Infrastrukturknoten 140 auch eine Stromquelle wie etwa eine Batterie, Solarzellen und/oder eine Verbindung zum Netzstrom.
  • Ein Infrastrukturknoten 140 kann bereitgestellt werden, um ein oder mehrere mobile Objekte 160 zu überwachen. Ein „Objekt“ im Zusammenhang dieser Offenbarung ist eine physische, d. h. materielle Struktur, die von einem Sensor 115 und/oder 145 erfasst wird. Ein „mobiles“ Objekt 160 ist ein Objekt, das fähig ist, sich zu bewegen, obwohl das mobile Objekt 160 sich zu einer gegebenen Zeit nicht unbedingt bewegen muss. Das mobile Objekt 160 befindet sich allgemein nur für einen relativ kurzen Zeitraum in der Nähe des Knotens 140, z. B. höchstens zwei bis drei Minuten. (In diesem Zusammenhang bedeutet „in der Nähe“, dass sich das Objekt 160 im Blickfeld von ein oder mehreren Sensoren 145 des Knotens 140 befindet.) Das „mobile“ Objekt 160 wird der Einfachheit halber so bezeichnet, um es von festen oder Infrastrukturobjekten 165 zu unterscheiden, die an späterer Stelle erörtert werden. Beispielhafte mobile Objekten 160 ein tierisches (z. B. menschliches) Objekt 160a, ein Fahrzeug 160b (und/oder, wie auf der Hand liegt, das Fahrzeug 105 kann als ein Objekt 160 gelten, weshalb das Fahrzeug 105 auch als ein Objekt 105 bezeichnet werden kann), ein Fahrrad, Felsen und/oder anderer Schmutz usw.
  • Der Knoten 140 kann physische Merkmale von Objekten 160 überwachen, d. h. der Knotencomputer 155 kann Daten von den Sensoren 145 im Wesentlichen kontinuierlich, periodisch und/oder auf Anweisung eines Servers 170 usw. empfangen und analysieren. Ein physisches Merkmal in diesem Zusammenhang ist ein physisches Attribut oder eine physische Eigenschaft eines Objekts 160, wie etwa Geschwindigkeit, Richtung, Topografie einer Oberfläche (z. B. ist es unregelmäßig oder glatt, mit Schlaglöchern usw.), ein Material, welches das Objekt 160 bedeckt, z. B. Asphalt oder Kies, oder ein Beschädigungszustand wie Überschwemmung oder Schmutz von einer Lawine oder einem Erdrutsch. Ferner können übliche Objektklassifizierungs- oder -identifikationstechniken verwendet werden, z. B. im Computer 155 auf Grundlage von Lidarsensoren 145, Kamerasensoren 145 usw., Daten zum Identifizieren einer Art des Objekts, z. B. Fahrzeug, Person, Felsen, Fahrrad, Motorrad usw.
  • Ein Infrastrukturobjekt 165, wie oben erwähnt, ist ein Objekt, das in der Regel nach seiner Auslegung fest angeordnet ist und/oder in Bezug auf den Knoten 140 stationär bleibt. Beispielsweise können Infrastrukturobjekte 165 eine Straße 165a, eine Ampel 165b, einen Fußgängerüberweg 165c, eine Straßenmarkierung 165d usw. beinhalten. Infrastrukturobjekte 165 werden häufig bereitgestellt, um Fußgänger- und/oder Fahrzeugverkehr zu lenken, z. B. regelt eine Ampel das Passieren von Fußgängern und/oder Fahrzeugen 105, 160b an verschiedenen Orten, z. B. einer Kreuzung, auf einer Straße 165a.
  • Bei dem Server 170 kann es sich um eine übliche Rechenvorrichtung handeln, d. h. mit einem oder mehreren Prozessoren und einem oder mehreren Speichern, die programmiert sind, um Vorgänge bereitzustellen, wie sie hier offenbart sind. Ferner kann auf den Server 170 über das Netz 135 zugegriffen werden, z. B. das Internet oder ein anderes Weitverkehrsnetz.
  • 2 ist ein Blockschaubild, das Verarbeitung in einem Infrastrukturknotencomputer 155 veranschaulicht.
  • Ein Computer 155 eines Infrastrukturknotens 140 kann einen Speicher oder eine andere Speichervorrichtung mit Kartendaten 205 beinhalten, die einen Bereich (z. B. innerhalb eines vorgegebenen Radius wie etwa 100 Meter, 200 Meter usw.) um den Knoten 140 beschreiben. Diese Kartendaten 205 können beispielsweise von einem Zentralserver 170, einem Techniker, der den Knoten 140 wartet, usw. empfangen und/oder regelmäßig aktualisiert werden. Kartendaten 205 beinhalten in der Regel Geokoordinaten, die feste oder stationäre Objekte 165, z. B. eine Straße 165a, eine Ampel 165b, einen Fußgängerüberweg 165c usw. definieren.
  • Ferner kann der Computer 155 auch verschiedene Daten von den Sensoren 145 des Knotens 140 sowie, z.B. über V2X-Kommunikation, von den Sensoren 115 des Fahrzeugs 105 empfangen. Bilddaten 210 sind digitale Bilddaten, die z. B. Pixel mit Intensitäts- und Farbwerten umfassen und durch einen Kamerasensoren 115, 145 erlangt werden können. LIDAR-Daten 215 beinhalten in der Regel typische LIDAR-Punktwolkendaten, die durch Lidarsensoren 115, 145 erlangt werden, d. h. mit Daten, die Punkte in drei Dimensionen beschreiben, das heißt, jeder Punkt stellt eine Position einer Oberfläche eines Objekts 160, 165, 105 dar.
  • Kartendaten 205 und Bilddaten 210 können an eine Klassifizierungseinrichtung 220 bereitgestellt werden. Die Klassifizierungseinrichtung 220 umfasst Programmierung zum Benutzen von einer oder mehreren üblichen Bildklassifizierungstechniken. Beispielsweise kann die Klassifizierungseinrichtung maschinelle Lerntechniken verwenden, wobei Bilder 210 verschiedener Objekte 160 und physische Merkmale derselben an ein Programm für maschinelles Lernen zum Trainieren der Klassifizierungseinrichtung 220 bereitgestellt werden können. Trainingsbilder 210 können von einer Vielzahl von Knoten 140, von Bildern, die durch Fahrzeuge 105 gesammelt wurden, oder anderen Quellen bereitgestellt werden. Nach dem Training kann die Klassifizierungseinrichtung 220 ein Bild 210 als Eingabe akzeptieren und dann als Ausgabe für jeden von einem oder mehreren jeweiligen interessierenden Bereichen im Bild 210 eine Angabe von einem oder mehreren Objekten 160 oder eine Angabe bereitstellen, dass kein Objekt 160 im jeweiligen interessierenden Bereich vorhanden ist.
  • Die Kartendaten 205 werden verwendet, um einen interessierenden Bereich in einem Bild 210 festzulegen. Beispielsweise können die Kartendaten 205 Geokoordinaten oder dergleichen für verschiedene physische Merkmale von Infrastrukturobjekten 165 in der Nähe des Knotens 140 (d. h. innerhalb eines Blickfelds der Sensoren 145 des Knotens 140), d. h. in einem Blickfeld eines Sensors 145 wie etwa eines Kamerasensors 145 festlegen, der an dem Knoten 140 angebracht oder befestigt ist. Programmierung der Klassifizierungseinrichtung 220 oder anderweitig Teil des Computers 155 kann einen interessierenden Bereich in einem Bild 210 gemäß Geokoordinaten bestimmen, die in den Kartendaten 205 festgelegt sind. Das heißt, Geokoordinaten in den Kartendaten 205 können kartesischen oder polaren Koordinaten in einem Blickfeld eines Bildsensors 145 zugeordnet oder damit assoziiert sein. Die Klassifizierungseinrichtung 220 kann Koordinaten in einem Bild 210, das einen interessierenden Bereich repräsentiert, auf Grundlage von Geokoordinaten in den Kartendaten 205 identifizieren, z. B. einem Blickfeld von einem oder mehreren Sensoren 145 oder einer Untergruppe davon, z. B. einem vorgegebenen Bereich in der Nähe des Knotens 145, z. B. einem Fußgängerüberweg 165c und einem Bereich einer Straße 165a, der den Fußgängerüberweg 165c beinhaltet, wie etwa zehn Meter der Straße 165a in beiden Richtungen vom Fußgängerüberweg 165c. Der interessierende Bereich kann dann von der Klassifizierungseinrichtung 220 gemäß üblicher Bildklassifizierungs- und/oder Objekterkennungstechniken analysiert werden. Demgemäß kann die Klassifizierungseinrichtung 220 eine Identifikation von einem oder mehreren Objekten 160 mit jeweiligen Geokoordinaten jedes identifizierten Objekts 160, d. h. gemäß den Kartendaten 205, ausgeben.
  • Eine Datenzusammenführungseinrichtung 230 umfasst weitere Programmierung im Computer 155. Die Datenzusammenführungseinrichtung beinhaltet Programmierung, um eine erste Gruppe von einem oder mehreren Objekten 160, die von der Bildklassifizierungseinrichtung 220 identifiziert werden, und eine zweite Gruppe von einem oder mehreren Objekten 160, die von der Lidaranalyseeinrichtung 225 identifiziert werden, als Eingabe zu akzeptieren. Die Datenzusammenführungseinrichtung 230 kann eine dritte Gruppe von einem oder mehreren identifizierten Objekten 160 ausgeben. Die Gruppe von identifizierten Objekts 160 kann in der Form einer Liste oder dergleichen bereitgestellt werden, wobei jedes Objekt 160 in der Gruppe durch eine Kennung und/oder Beschreibung identifiziert ist, z. B. „Fußgänger (eine Person)“ „Fahrzeug“, „Fahrrad“ usw., zusammen mit einer Gruppe Geokoordinaten, die eine Position oder Positionen des jeweiligen Objekts 160 identifizieren. Beispielsweise können die Geokoordinaten einen Mittel- oder Referenzpunkt, z. B. für ein Objekt 160, festlegen.
  • Ferner können nach dem Identifizieren eines Objekts Objektmerkmale aus Daten des Sensors 145 bestimmt werden. Beispielsweise kann eine Trajektorie eines Objekts 160 bestimmt werden, z. B. unter Verwendung von üblichen Techniken zum Verfolgen eines Objekts 160 gemäß den Daten des LIDAR-Sensors 145. Alternativ oder zusätzlich, wie oben angemerkt, kann die Position eines Objekts 160 z. B. unter Bezugnahme auf die Kartendaten 205 bestimmt werden.
  • Identifizierte Objekte 160 können durch die folgende Verarbeitung der Datenzusammenführungseinrichtung 230 bestimmt werden. Insbesondere kann die Datenzusammenführungseinrichtung 230 jedes in der ersten Gruppe identifizierte Objekt 160 mit jedem in der zweiten Gruppe identifizierten Objekt 160 vergleichen, um zu bestimmen, ob eine kombinierte Konfidenz in ein durch die Bilddaten 210 und die Lidardaten 215 identifiziertes Objekt 160 den Schluss zulässt, dass das Objekt 160 identifiziert werden kann. Beispielsweise können in der Bildklassifizierungseinrichtung 220 und der Lidaranalyseeinrichtung 225 jeweils übliche Bildklassifizierungs- und Lidardatenanalysetechniken verwendet werden, um jedem vorhergesagten Objekt 160 eine Konfidenzstufe, z. B. eine Zahl zwischen oder einschließlich null und eins zuzuweisen. Wenn eine Kombination der Konfidenzen für die Vorhersagen des Objekts 160 von der Bildklassifizierungseinrichtung 220 und der Lidaranalyseeinrichtung 225 einen Schwellenwert erreicht oder überschreitet, kann das Objekt 160 in die Merkmalbedingungen 235 aufgenommen werden, die von der Datenzusammenführungseinrichtung 230 ausgegeben werden. In einem Beispiel kann ein Objekt 160 in die Bedingungen 235 aufgenommen werden, wenn entweder die Bildklassifizierungseinrichtung 220 oder die Lidaranalyseeinrichtung 225 ein Objekt 160 mit einer Konfidenz über einem vorgegebenen Schwellenwert, z. B. 0,9 oder 90 %, vorhersagen.
  • 3 ist ein Ablaufdiagramm eines beispielhaften Prozesses 300 zum Verarbeiten von Daten des Sensors 145 des Infrastrukturknotens 140, um ein Risikoereignis eines Fahrzeugs 105 zu identifizieren und aufgrund dessen eine Maßnahme zu ergreifen. Der Prozess 300, dessen Blöcke in einer anderen als der hier beschriebenen Reihenfolge ausgeführt werden können und/oder der in Kombination mit anderer Verarbeitung und/oder unter Weglassung bestimmter hier beschriebener Verarbeitung ausgeführt werden kann, kann durch Programmierung in einem Computer 155 eines Knotens 140 ausgeführt werden.
  • Der Prozess 300 beginnt an einem Block 305, an dem der Computer 155 Daten eines Sensors 145 empfängt, z. B. Bilddaten 210 und/oder Lidardaten 215. Ferner kann der Computer 155 in Block 305 Kartendaten 205 empfangen, z. B. von einem entfernten Computer 170, kann die Kartendaten 205 aber auch außerhalb des Prozesses 300 empfangen, z. B. durch regelmäßigen Download von dem entfernten Computer 170. Darüber hinaus kann der Empfang der Daten des Sensors 145 im Computer 155 im Wesentlichen kontinuierlich durchgeführt werden, oder kann alternativ periodisch durchgeführt werden, z. B. alle fünf Minuten, jede Stunde usw. Auch kann eine Nachricht von einem entfernten Computer 170 oder einer anderen Vorrichtung über das Netz 135 den Computer 155 veranlassen oder anweisen, Daten des Sensors 145 zu beziehen. Außerdem kann der Computer 155 Daten von einem Fahrzeug 105 und/oder ein oder mehreren zweiten Fahrzeugen, z. B. Daten vom Sensor 115 des Fahrzeugs 105 oder andere Daten von einem Fahrzeug 105 empfangen, z. B. Daten, die eine Geschwindigkeit, Fahrtrichtung usw. des Fahrzeugs 105 beschreiben.
  • Als Nächstes fährt der Prozess 300 mit einem Block 310 fort. In Block 310 benutzt der Computer 155 die Bildklassifizierungseinrichtung 220, die Lidaranalyseeinrichtung 225 und die Datenzusammenführungseinrichtung 230 zum Erzeugen einer Gruppe von identifizierten Objekten 160, wie oben beschrieben, und bestimmt dann, ob sich Fahrzeuge 105 in der Nähe des Knotens 140 befinden, was z. B. bedeutet, dass das oder die Fahrzeuge 105 sich in einem Feld des oder der Sensoren 145 befinden und erfasst und in die identifizierten Objekte 160 aufgenommen wurden. Es sei angemerkt, dass mehrere Fahrzeuge 105 identifiziert werden können, wobei der Prozess 300 in diesem Fall für jedes der identifizierten Fahrzeuge 105 separat fortfahren könnte, z. B. mit separaten Prozesssträngen.
  • Für jedes in Block 310 identifizierte Fahrzeug 105 speichert der Computer 155 in der Regel identifizierende Angabe, d. h. Daten, die zum Identifizieren des Fahrzeugs 105 verwendet werden können. In einigen Fällen können die Sensordaten 145 ein Bild eines Kennzeichens eines Fahrzeugs 105 oder einer Plakette bereitstellen, anhand derer ein Kennzeichen oder dergleichen identifiziert werden kann, z. B. unter Verwendung üblicher Bildanalysetechniken. Alternativ oder zusätzlich, z. B. wenn keine eindeutigen identifizierenden Angabe verfügbar sind, kann der Computer 155 ein Bild des Fahrzeugs 105 zur späteren Identifikation speichern. Beispielsweise kann das Bild zur Überprüfung und Analyse an den Server 170 gesendet werden. Weiter alternativ oder zusätzlich kann das Fahrzeug 105 z. B. gemäß dedizierter Kurzstreckenkommunikation oder einer anderen drahtlosen Kommunikation eine Kennung an den Knoten 140 senden.
  • An einem Entscheidungsblock 315 bestimmt der Computer 155 als Nächstes, ob ein Fahrzeug 105 wie oben bezüglich des Blocks 310 beschrieben erfasst wurde. Wenn nicht, kehrt der Prozess 300 zu Block 305 zurück (oder alternativ, obwohl in 3 nicht gezeigt, kann der Prozess 300 enden). Ferner sind Implementierungen möglich, wobei, auch wenn kein Fahrzeug 105 erfasst wird, die Sensoren 145 des Knotens 140 Daten zum Objekt 160 sammeln, darunter möglicherweise anderen Fahrzeugen, um Warnungen und Maßnahmen zu möglichen Risikoereignissen bereitzustellen. Wenn ein Fahrzeug 105 erfasst wird, fährt der Prozess 300 in jedem Fall mit Block 320 fort.
  • An einem Entscheidungsblock 320 bestimmt der Computer 155 als Nächstes, ob ein oder mehrere Risikoereignisse identifiziert wurden. Risikoereignisse können gemäß einem oder mehreren physischen Zuständen oder Attributen eines Fahrzeugs 105 und/oder eines oder mehrerer Objekte 160 identifiziert werden, die von dem Computer 155 des Knotens 140 identifiziert werden. Ein physischer Zustand in diesem Zusammenhang ist eine Beschreibung einer physischen Eigenschaft eines mobilen Objekts 160 und/oder Fahrzeugs 105, die sich messen und quantifizieren lässt, z. B. lineare Geschwindigkeit oder Geschwindigkeit (wobei „lineare Geschwindigkeit“ die allgemeine Bedeutung eines Vektors trägt, der Geschwindigkeit einschließt, d. h. lineare Geschwindigkeit beinhaltet Geschwindigkeit und außerdem eine Richtungskomponente) eines Fahrzeugs 105, Position eines Objekts 160, Abstand eines Fahrzeugs 105 von einem mobilen Objekt 160 usw. Demgemäß wird ein Risikoereignis durch Beurteilen einer Kombination von Kriterien bestimmt, die eine Position und/oder lineare Geschwindigkeit eines Fahrzeugs 105 (einschließlich dessen, ob sich ein Fahrzeug 105 bewegt oder stationär ist, d. h. die lineare Geschwindigkeit des Fahrzeugs 105 null ist), eine Position und/oder lineare Geschwindigkeit eines mobilen Objekts 160, eine Klassifizierung eines mobilen Objekts 160, eine Position eines Infrastrukturobjekts 165, eine Klassifizierung eines Infrastrukturobjekts 165 usw. beinhalten können. Der Computer 155 beurteilt die Kriterien, um zu bestimmen, ob eine oder mehrere Bedingungen für ein oder mehrere Risikoereignisse erfüllt sind. In der Regel wird ein Risikoereignis durch Beurteilen einer Position und/oder linearen Geschwindigkeit eines Fahrzeugs bestimmt. Ferner beinhaltet das Bestimmen eines Risikoereignisses zusätzlich zum Beurteilen der Position und/oder linearen Geschwindigkeit eines Fahrzeugs in der Regel das Beurteilen der Position und/oder linearen Geschwindigkeit eines mobilen Objekts 160 und/oder einer Position eines Infrastrukturobjekts 165, wobei wenigstens ein Kriterium zum Bestimmen eines Risikoereignisses lautet, dass ein Abstand zwischen dem Fahrzeug 105 und einem Objekt 160 oder 165 kleiner als ein vorgegebener Abstand ist, der als das Risikoereignis wenigstens teilweise definierend festgelegt ist.
  • Beispielsweise kann der Computer 155 eine Position und/oder Trajektorie eines Fahrzeugs 105 und/oder mobilen Objekts 160 in Bezug auf ein Fahrzeug 105 beurteilen, um zu bestimmen, ob dem Fahrzeug 105 ein Risikoereignis zugeordnet werden soll. Wenn sich das Fahrzeug 105 innerhalb eines vorgegebenen Abstands vom Objekt 160 befindet, z. B. das Fahrzeug 105 zu nah an einem Fußgänger 160a ist, kann ein Risikoereignis identifiziert werden. Der Computer 155 kann eine Tabelle oder dergleichen speichern, die verschiedene physische Merkmale oder Zustände eines Fahrzeugs 105 verschiedenen Risikoereignissen zuordnet, d. h. Zustände des Fahrzeugs 105, die, möglicherweise in Kombination mit Zuständen eines Objekts 160, ein Risikoereignis bestimmen. Beispielsweise kann ein Risikoereignis angegeben werden, wenn sich ein Fahrzeug 105 innerhalb eines vorgegebenen Abstands von einem Fußgänger 160a befindet, an einer Ampel 165b innerhalb eines vorgegebenen Abstands von oder auf einem Fußgängerüberweg 165c anhält, sich innerhalb eines vorgegebenen Abstands von einer Markierung einer Straße 165a wie etwa einer Mittellinie 165d befindet oder diese überquert, auf einer festgelegten Spur (z. B. einem Seitenstreifen einer Straße 165a) über einer festgelegten linearen Geschwindigkeit zum Fahren auf der festgelegten Spur fährt usw. Tabelle 1 stellt einige wenige von vielen möglichen Beispielen für Risikoereignisse dar, die auf Grundlage von physischen Merkmale mobiler Objekte 160 und/oder Infrastrukturobjekte 165 identifiziert werden können. Tabelle 1
    Erfasster physischer Zustand/Erfasste physische Zustände Risikoereignis (se)
    Fahrzeug hält auf oder innerhalb eines vorgegebenen Abstands (z. B. 1 Meter) von einem Fußgängerüberweg an Regelverletzung Fußgängerüberweg
    Fahrzeug fährt auf einen Fußgängerüberweg, während sich ein Fußgänger auf dem Fußgängerüberweg befindet Regelverletzung Fußgängerüberweg, Fußgängergefährdung
    Fahrzeug überquert Straßenmittellinien- und/oder Seitenstreifenmarkierung Unvorsichtiges Fahren
    Fahrzeug bewegt sich oder hält innerhalb eines vorgegebenen Abstands (z. B. 1 Meter) von einem Fußgänger an Regelverletzung Fußgängerüberweg, Fußgängergefährdung
  • Wenn kein Risikoereignis erfasst wird, kehrt der Prozess 300 zu Block 305 zurück (oder kann alternativ, obwohl nicht gezeigt, enden). Anderenfalls wird als Nächstes Block 325 ausgeführt.
  • In Block 325 führt der Computer 155 eine oder mehrere Maßnahmen auf Grundlage des identifizierten Risikoereignisses aus. Die eine oder mehreren Maßnahmen können das Senden einer Nachricht an den Server 170 beinhalten, die das Fahrzeug festlegt (z. B. ein Bild eines Kennzeichens und/oder andere identifizierende Informationen bereitstellt). Der entfernte Server 170 kann dann das Risikoereignis des Fahrzeugs 105 melden, z. B. an eine Strafverfolgungsbehörde. Die eine oder mehreren Maßnahmen können alternativ oder zusätzlich das Senden einer Steueranweisung an ein Fahrzeug 105 von dem Knoten 140 beinhalten, z. B. um eine Geschwindigkeit einzustellen (z. B. langsam bis nicht mehr als 5 oder 10 Kilometer pro Stunde), bis zu wenigstens einem vorgegebenen Abstand (z. B. fünfzig Meter) von einem Fußgängerüberweg 165c oder anderen Infrastrukturelement, um auf einer Spur, die ein Straßenseitenstreifen ist und/oder in unmittelbarer Nähe eines Fußgängerwegs liegt, eine Geschwindigkeit einzustellen (z. B. langsam bis nicht mehr als 5 oder 10 Kilometer pro Stunde), am Rand einer Straße 165a anzuhalten, z. B. da eine Geschwindigkeit oder ein Abstand nah an einem Objekt 160 wie etwa einem Fußgänger 160 über und/oder unter einem jeweiligen Schwellenwert liegt, usw. Der Knoten 140 kann über Fahrzeug-an-Infrastrukturmechanismen eine Nachricht, z. B. eine Drahtlosnachricht, an ein Fahrzeug 105 senden, die ein Fahrzeug durch das Kennzeichen oder die Kennung identifiziert und ferner die Anweisung beinhaltet.
  • Nach Block 325 endet der Prozess 300.
  • Im hier verwendeten Sinne bedeutet das Adverb „im Wesentlichen“, dass eine Form, eine Struktur, eine Messung, eine Größe, eine Zeit usw. aufgrund von Imperfektionen von Materialien, Bearbeitung, Herstellung, Datenübertragung, Rechengeschwindigkeit usw. von einer genau beschriebenen Geometrie, einem genau beschriebenen Abstand, einer genau beschriebenen Messung, einer genau beschriebenen Größe, einer genau beschriebenen Zeit usw. abweichen kann.
  • Im Allgemeinen können die beschriebenen Rechensysteme und/oder -vorrichtungen beliebige von einer Anzahl von Computerbetriebssystemen benutzen, darunter, ohne darauf beschränkt zu sein Versionen und/oder Arten der Ford Sync®-Anwendung, AppLink/Smart Device Link-Middleware, das Microsoft Automotive®-Betriebssystem, das Microsoft Windows®-Betriebssystem, das Unix-Betriebssystem (z. B. das Solaris®-Betriebssystem, vertrieben von der Oracle Corporation aus Redwood Shores, Kalifornien), das AIX UNIX-Betriebssystem, vertrieben von International Business Machines aus Armonk, New York, das Linux-Betriebssystem, die Betriebssysteme Mac OSX und iOS, vertrieben von Apple Inc. aus Cupertino, Kalifornien, das BlackBerry-Betriebssystem, vertrieben von Blackberry, Ltd. aus Waterloo, Kanada, und das Android-Betriebssystem, entwickelt von Google, Inc. und der Open Handset Alliance, oder die QNX® CAR-Plattform für Infotainment, angeboten von QNX Software Systems. Zu Beispielen für Rechenvorrichtungen gehören, ohne Einschränkung, ein Fahrzeugbordcomputer, ein Arbeitsplatzrechner, ein Server, ein Desktop-, Notebook-, Laptop- oder Handheld-Computer, oder anderes Rechensystem und/oder eine andere Rechenvorrichtung.
  • Computer und Rechenvorrichtungen beinhalten allgemein von einem Computer ausführbare Anweisungen, wobei die Anweisungen von einer oder mehreren Rechenvorrichtungen ausführbar sind, wie sie oben aufgeführt wurden. Von einem Computer ausgeführte Anweisungen können aus Computerprogrammen kompiliert oder interpretiert werden, die mithilfe verschiedener Programmiersprachen und/oder -techniken erstellt wurden, darunter, ohne Einschränkung, und entweder allein oder in Kombination, Java™, C, C++, Matlab, Simulink, Stateflow, Visual Basic, Java Script, Perl, HTML usw. Einige dieser Anwendungen können auf einer virtuellen Maschine, wie etwa der Java Virtual Machine, der virtuellen Maschine Dalvik oder dergleichen kompiliert und ausgeführt werden. Allgemein empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse durchgeführt werden, darunter ein oder mehrere hier beschriebene Prozesse. Diese Anweisungen und anderen Daten können durch verschiedene computerlesbare Medien gespeichert und übertragen werden. Eine Datei in einer Rechenvorrichtung ist allgemein eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert sind, etwa einem Speichermedium, einem Direktzugriffsspeicher usw.
  • Speicher kann ein computerlesbares Medium (auch als ein prozessorlesbares Medium bezeichnet) beinhalten, das ein beliebiges nicht transitorisches (z. B. greifbare) Medium, das an der Bereitstellung von Daten (z. B. Anweisungen) beteiligt ist, die von einem Computer (z. B. von einem Prozessor eines Computers) gelesen werden können, beinhaltet. Ein solches Medium kann viele Formen annehmen, zu denen, ohne darauf beschränkt zu sein, nicht flüchtige Medien und flüchtige Medien gehören. Zu nicht flüchtigen Medien gehören beispielsweise optische oder magnetische Disks und anderer dauerhafter Speicher. Zu flüchtigen Medien gehören beispielsweise dynamischer Direktzugriffsspeicher (DRAM), der in der Regel einen Hauptspeicher bildet. Diese Anweisungen können von einem oder mehreren Übertragungsmedien übertragen werden, darunter Koaxialkabel, Kupferdraht und Glasfasern, einschließlich der Drähte, die einen Systembus bilden, der an einen Prozessor einer ECU gekoppelt ist. Zu häufigen Formen computerlesbarer Medien gehören beispielsweise eine Diskette, eine flexible Disk, eine Festplatte, Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, ein beliebiger anderer Speicherchip oder eine Endlosbandkassette, oder ein beliebiges anderes Medium, das ein Computer auslesen kann.
  • Datenbanken, Datenbehälter oder andere hier beschriebene Datenspeicher können verschiedene Arten von Mechanismen zum Speichern, Zugreife auf und Abrufen verschiedener Arten von Daten beinhalten, darunter eine hierarchische Datenbank, einen Satz Dateien in einem Dateisystem, eine Anwendungsdatenbank in einem proprietären Format, ein relationales Datenbankmanagementsystem (RDBMS) usw. Jeder solche Datenspeicher ist allgemein in einer Rechenvorrichtung enthalten, die ein Computerbetriebssystem wie etwa eins der oben erwähnten benutzt, und auf ihn wird in einer oder mehreren verschiedenen Weisen über ein Netz zugegriffen. Ein Dateisystem kann von einem Computerbetriebssystem aus zugänglich sein und kann in verschiedenen Formaten gespeicherte Dateien beinhalten. Ein RDBMS benutzt allgemein die Structured Query Language (SQL), zusätzlich zu einer Sprache zum Erstellen, Speichern, Bearbeiten und Ausführen gespeicherter Abläufe, wie etwa die oben erwähnte Sprache PL/SQL.
  • In einigen Beispielen können Systemelemente als computerlesbare Anweisungen (z. B. Software) auf einer oder mehreren Rechenvorrichtungen (z. B. Servern, Personal-Computern usw.) implementier sein, die auf ihnen zugeordneten computerlesbaren Medien gespeichert sind (z. B. Disks, Speicher usw.). Ein Computerprogrammprodukt kann diese computerlesbaren Medien gespeicherten Anweisungen umfassen, um die hier beschriebenen Funktionen auszuführen.
  • Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren, Heuristiken usw. versteht es sich, dass zwar die Schritte dieser Prozesse usw. als in einer bestimmten Abfolge stattfindend beschrieben wurden, diese Prozesse jedoch auch ausgeübt werden können, wenn die beschriebenen Schritte in einer anderen als der hier beschriebenen Reihenfolge durchgeführt werden. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt werden können, dass andere Schritte hinzugefügt werden können oder dass bestimmte hier beschriebene Schritte weggelassen werden können. Mit anderen Worten, die vorliegenden Beschreibungen von Prozessen dienen der Veranschaulichung bestimmter Ausführungsformen und sind nicht als die Ansprüche einschränkend auszulegen.
  • Entsprechend versteht es sich, dass die vorstehende Beschreibung veranschaulichend und nicht einschränkend sein soll. Für den Fachmann werden bei der Lektüre der vorstehenden Beschreibung viele andere Ausführungsformen und Anwendungen ersichtlich sein als die hier bereitgestellten Beispiele. Der Umfang der Erfindung ist nicht unter Bezugnahme auf die vorstehende Beschreibung zu bestimmen, sondern sollte stattdessen unter Bezugnahme auf die beigefügten Ansprüche zusammen mit sämtlichen für diese zulässigen Äquivalenten bestimmt werden. Es wird erwartet und ist vorgesehen, dass künftige Entwicklungen auf dem hier erörterten Gebiet stattfinden werden und dass die offenbarten Systeme und Verfahren in diese künftigen Ausführungsformen einbezogen werden. Zusammenfassend versteht es sich, dass Modifikationen und Abwandlungen der Erfindung möglich sind und diese nur durch die nachfolgenden Ansprüche eingeschränkt wird.
  • Alle in den Ansprüchen verwendeten Begriffe sollen ihre einfache und gewöhnliche Bedeutung tragen, wie sie dem Fachmann bekannt ist, solange hierin keine ausdrücklich gegenteilige Angabe vorliegt. Insbesondere die Verwendung von Singularartikeln wie „ein“, „der“ usw. ist so auszulegen, dass ein oder mehrere der angegebenen Elemente aufgeführt sind, es sei denn, ein Anspruch führt eine ausdrücklich gegenteilige Einschränkung an.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, aufweisend: eine stationäre Trägerstruktur; und a Sensor und einen Computer, die jeweils an der Trägerstruktur angebracht sind; wobei der Computer dazu programmiert ist, ein Fahrzeug und ein Objekt in der Nähe der Trägerstruktur aus Daten von dem Sensor zu erfassen und einen Risikozustand auf Grundlage des erfassten Fahrzeugs und Objekts zu identifizieren.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, auf Grundlage des Risikozustands eine Anweisung an das Fahrzeug zu senden.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, den Risikozustand auf Grundlage eines Abstands zwischen dem erfassten Fahrzeug und dem Objekt weiter zu identifizieren.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, den Risikozustand auf Grundlage einer Klassifizierung des Objekts weiter zu identifizieren.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, den Risikozustand auf Grundlage einer Geschwindigkeit des Fahrzeugs weiter zu identifizieren.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, den Risikozustand auf Grundlage einer Geschwindigkeit des Objekts weiter zu identifizieren.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch einen zweiten Sensor, wobei der Sensor und der zweite Sensor eine Kamera und ein Lidar beinhalten.
  • Gemäß einer Ausführungsform ist der Computer ferner dazu programmiert, das Fahrzeug und das Objekt in der Nähe der Trägerstruktur aus Daten vom Sensor und vom zweiten Sensor zu erfassen.
  • Gemäß einer Ausführungsform ist das erfasste Objekt ein stationäres Objekt.
  • Gemäß einer Ausführungsform ist das erfasste Objekt ein mobiles Objekt.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren: Erfassen eines Fahrzeugs und eines Objekts in der Nähe der Trägerstruktur aus Daten von einem Sensor, der an der Trägerstruktur angebracht ist; und Identifizieren eines Risikozustands auf Grundlage des erfassten Fahrzeugs und Objekts.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Senden einer Anweisung an das Fahrzeug auf Grundlage des Risikozustands.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Identifizieren des Risikozustands auf Grundlage eines Abstands zwischen dem erfassten Fahrzeug und dem Objekt.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Identifizieren des Risikozustands auf Grundlage einer Klassifizierung des Objekts.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Fahrzeugs.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Objekts umfassen.
  • Gemäß einer Ausführungsform ist ein zweiter Sensor an der Trägerstruktur angebracht, wobei der Sensor und der zweite Sensor eine Kamera und ein Lidar beinhalten.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch Erfassen des Fahrzeugs und des Objekts in der Nähe der Trägerstruktur aus Daten von dem Sensor und dem zweiten Sensor umfassen.
  • Gemäß einer Ausführungsform ist das erfasste Objekt ein stationäres Objekt.
  • Gemäß einer Ausführungsform ist das erfasste Objekt ein mobiles Objekt.

Claims (12)

  1. Verfahren, umfassend: in einem Computer, der an einer stationären Trägerstruktur angebracht ist, Erfassen eines Fahrzeugs und eines Objekts in der Nähe der Trägerstruktur aus Daten von einem Sensor, der an der Trägerstruktur angebracht ist; und Identifizieren eines Risikozustands auf Grundlage des erfassten Fahrzeugs und Objekts.
  2. Verfahren nach Anspruch 1, ferner umfassend Senden einer Anweisung an das Fahrzeug auf Grundlage des Risikozustands.
  3. Verfahren nach Anspruch 1, ferner umfassend Identifizieren des Risikozustands auf Grundlage eines Abstands zwischen dem erfassten Fahrzeug und dem Objekt.
  4. Verfahren nach Anspruch 1, ferner umfassend Identifizieren des Risikozustands auf Grundlage einer Klassifizierung des Objekts.
  5. Verfahren nach Anspruch 1, ferner umfassend Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Fahrzeugs.
  6. Verfahren nach Anspruch 1, ferner umfassend Identifizieren des Risikozustands auf Grundlage einer Geschwindigkeit des Objekts.
  7. Verfahren nach Anspruch 1, wobei ein zweiter Sensor an der Trägerstruktur angebracht ist, wobei der Sensor und der zweite Sensor eine Kamera und ein Lidar beinhalten.
  8. Verfahren nach Anspruch 7, ferner umfassend Erfassen des Fahrzeugs und des Objekts in der Nähe der Trägerstruktur aus Daten von dem Sensor und dem zweiten Sensor.
  9. Verfahren nach Anspruch 1, wobei das erfasste Objekt ein stationäres Objekt ist.
  10. Verfahren nach Anspruch 1, wobei das erfasste Objekt ein mobiles Objekt ist.
  11. Computer, der dazu programmiert ist, das Verfahren nach einem der vorangehenden Ansprüche auszuführen.
  12. Computerlesbares Medium, das Anweisungen speichert, die von einem Computerprozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1 bis 10 auszuführen.
DE102019117136.9A 2018-06-26 2019-06-25 Kommunikation und steuerung für verkehrsinfrastruktur Pending DE102019117136A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/018,145 2018-06-26
US16/018,145 US10953871B2 (en) 2018-06-26 2018-06-26 Transportation infrastructure communication and control

Publications (1)

Publication Number Publication Date
DE102019117136A1 true DE102019117136A1 (de) 2020-01-02

Family

ID=68886280

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019117136.9A Pending DE102019117136A1 (de) 2018-06-26 2019-06-25 Kommunikation und steuerung für verkehrsinfrastruktur

Country Status (3)

Country Link
US (1) US10953871B2 (de)
CN (1) CN110648547A (de)
DE (1) DE102019117136A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111619561B (zh) * 2020-05-22 2022-01-14 安徽江淮汽车集团股份有限公司 自动驾驶汽车的逃逸救生方法、装置、设备及存储介质
US20220252404A1 (en) * 2021-02-10 2022-08-11 Ford Global Technologies, Llc Self-correcting vehicle localization
US11975710B2 (en) * 2021-03-24 2024-05-07 Ford Global Technologies, Llc Infrastructure-based vehicle management

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6573929B1 (en) 1998-11-23 2003-06-03 Nestor, Inc. Traffic light violation prediction and recording system
CA2290032A1 (en) 1999-11-16 2001-05-16 Daniel Bloom Traffic law enforcement system
US20020105423A1 (en) * 2000-12-05 2002-08-08 Rast Rodger H. Reaction advantage anti-collision systems and methods
ES2177469B1 (es) * 2001-05-16 2003-12-16 Fico Mirrors Sa Dispositivo de deteccion de presencia de objetos en un angulo muerto de un vehiculo automovil.
US7399220B2 (en) * 2002-08-02 2008-07-15 Kriesel Marshall S Apparatus and methods for the volumetric and dimensional measurement of livestock
CN101783072B (zh) 2009-12-23 2012-07-04 中国科学院自动化研究所 一种可变限速的车辆超速违章记录系统和方法
US20120200431A1 (en) 2011-02-03 2012-08-09 Rick Andrew Ross Traffic monitoring system and method
KR101145896B1 (ko) 2011-09-26 2012-05-15 (주) 엘케이일레븐 다기능 교통 신호 제어장치
US9253753B2 (en) * 2012-04-24 2016-02-02 Zetta Research And Development Llc-Forc Series Vehicle-to-vehicle safety transceiver using time slots
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
CN203825818U (zh) 2013-12-10 2014-09-10 安徽皖通科技股份有限公司 一种基于视频监控的城市交通违章信息采集系统
DE102014219165A1 (de) * 2014-09-23 2016-04-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Verkehrsraums
WO2016059499A1 (en) * 2014-10-17 2016-04-21 Philips Lighting Holding B.V. System and method for outdoor lighting operation and management using its protocols and connectivity infrastructure.
KR101678004B1 (ko) 2015-02-24 2016-11-21 주식회사세오 노드-링크 기반 카메라 네트워크 통합 감시 시스템 및 감시 방법
EP3159853B1 (de) 2015-10-23 2019-03-27 Harman International Industries, Incorporated Systeme und verfahren zur fortschrittlichen fahrerassistenzanalytik
KR101671428B1 (ko) 2016-02-25 2016-11-03 유한회사 비츠 지능형 교차로 위법 차량 감시 시스템
JP6765100B2 (ja) * 2016-08-31 2020-10-07 学校法人早稲田大学 視野外障害物検知システム
US9928432B1 (en) * 2016-09-14 2018-03-27 Nauto Global Limited Systems and methods for near-crash determination
US20180217603A1 (en) * 2017-01-31 2018-08-02 GM Global Technology Operations LLC Efficient situational awareness from perception streams in autonomous driving systems
US10373490B2 (en) * 2017-04-10 2019-08-06 Bitsensing Inc. Real-time traffic information collection
US20190047581A1 (en) * 2017-08-14 2019-02-14 GM Global Technology Operations LLC Method and apparatus for supporting mission-critical applications via computational cloud offloading

Also Published As

Publication number Publication date
US10953871B2 (en) 2021-03-23
US20190389456A1 (en) 2019-12-26
CN110648547A (zh) 2020-01-03

Similar Documents

Publication Publication Date Title
DE102015100812B4 (de) Verfahren zum Verwenden von Strassenniveaubildern zum Verbessern eines Modus eines automatisierten Fahrens für ein Fahrzeug
DE102019131118A1 (de) System und verfahren zur bewertung des betriebs von umgebungserfassungssystemen von fahrzeugen
EP3830523B1 (de) Verfahren zur aktualisierung einer umgebungskarte, vorrichtung für die fahrzeugseitige durchführung von verfahrensschritten des verfahrens, fahrzeug, vorrichtung für die zentralrechnerseitige durchführung von verfahrensschritten des verfahrens sowie computerlesbares speichermedium
DE102017120707A1 (de) Wassertiefenerkennung zur fahrzeugnavigation
EP3688742B1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
DE102016100428A1 (de) In virtuellen Umgebungen verfeinertes autonomes Fahren
DE102016100492A1 (de) Virtueller autonomer Antwortprüfstand
WO2020259892A1 (de) Infrastrukturseitige umfelderfassung beim autonomen fahren
DE102014220681A1 (de) Verkehrssignalvorhersage
DE102019123570A1 (de) Fahrzeugnavigation und -steuerung
DE102009011259A1 (de) Fahrzeug-Fahrzeug-Positionserkennungssystem und in Beziehung stehendes Betriebsverfahren
DE102019125131A1 (de) Sensorblickfeldabbildung
DE102020100884A1 (de) Priorisierte fahrzeugbenachrichtigung
DE102020100027A1 (de) Überwachungs- und steuerinfrastruktur für fahrzeuge
DE102020103522A1 (de) Fahrzeugsteuerung durch fahrbahnreibung
DE102020120085A1 (de) Erfassung von fahrzeugbedrohungen und reaktion darauf
DE102019117136A1 (de) Kommunikation und steuerung für verkehrsinfrastruktur
DE102020120957A1 (de) Verwendung von ganzheitlichen daten zur umsetzung von verkehrssicherheitsmassnahmen
DE102020105399A1 (de) Erfassen von veränderten fahrbedingungen
DE102021101281A1 (de) Prioritätsfahrzeugverwaltung
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102019127062A1 (de) Transportinfrastrukturkommunikation und -steuerung
DE102021111144A1 (de) Spurenbasierte fahrzeugsteuerung
DE102021104044A1 (de) Neuronales netzwerk zur positionsbestimmung und objektdetektion
DE102019116962A1 (de) Transportinfrastrukturkommunikation und -steuerung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE