DE102007048809A1 - Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr - Google Patents

Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr Download PDF

Info

Publication number
DE102007048809A1
DE102007048809A1 DE102007048809A DE102007048809A DE102007048809A1 DE 102007048809 A1 DE102007048809 A1 DE 102007048809A1 DE 102007048809 A DE102007048809 A DE 102007048809A DE 102007048809 A DE102007048809 A DE 102007048809A DE 102007048809 A1 DE102007048809 A1 DE 102007048809A1
Authority
DE
Germany
Prior art keywords
vehicle
information
environment
vehicles
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007048809A
Other languages
English (en)
Inventor
Matthias Strauss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Teves AG and Co OHG
Original Assignee
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves AG and Co OHG filed Critical Continental Teves AG and Co OHG
Priority to DE102007048809A priority Critical patent/DE102007048809A1/de
Priority to PCT/EP2007/060788 priority patent/WO2008043795A1/de
Priority to EP07821156.2A priority patent/EP2082388B1/de
Priority to US12/444,778 priority patent/US8179281B2/en
Publication of DE102007048809A1 publication Critical patent/DE102007048809A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr, bei dem einerseits die Umgebung eines Fahrzeuges und andererseits Bewegungsgrößen des eigenen Fahrzeuges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnittstelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation (60) übertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden, wobei das folgende Schritte durchlaufen werden:
a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmodell (50) erweitern
b) das erweiterte Umfeldmodell (50) mittels einer Anzeige (80) im eigenen Fahrzeug aktualisiert wiedergegeben wird
c) eine Situationsanalyse (70) des Umfelds und eine Bewertung der Situation im eigenen Fahrzeug durchgeführt wird
d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden
e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden
f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden.

Description

  • Die Erfindung betrifft Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr mit den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung zum Durchführen des Verfahrens.
  • 1. Stand der Technik
  • Unfälle resultieren fast immer aus einem Fehlverhalten eines Verkehrsteilnehmers. Dieses Fehlverhalten kann mehrere Ursachen haben:
    • 1.) Mangelnde Erfahrung
    • 2.) Absichtlich hohe Risikobereitschaft
    • 3.) Übersehen der relevanten Objekte oder Unaufmerksamkeit
    • 4.) Schlechte Sicht
  • Die ersten 3 Punkte bringen hierbei die größte Gefahr mit sich. Dem 4. wird kein hohes Gefahrenpotential zugemessen, da ein Verkehrsteilnehmer in einer solchen Situation möglichst vorsichtig sein wird und ansonsten unter Punkt 2 fällt.
  • Da Punkt 1 und 2 alleine von den persönlichen Eigenschaften des Fahrers abhängen, ist hier kaum etwas zu bewirken, außer durch eine verbesserte Ausbildung oder höhere Sanktionen. Für die letzten beiden Punkte wurde in den vergangenen Jahrzehnten bereits viel in Fahrerassistenzsysteme investiert, die auf klassischen Umfeldsensorik wie Video- oder Strahlsensoren beruhen. Aber auch für diese Sensoren gibt es Beschränkungen, die den Erfassungsbereich betreffen. Solche können z. B. Gegenstände, Nebel oder Schnee den Erfassungsbereich begrenzen. In kritischen Verkehrssituationen wie z. B. drohenden Kollisionen mit anderen Fahrzeugen kann ein Fahrer häufig nicht schnell genug bzw. nicht situationsgerecht reagieren.
  • Aus EP 0 473 866 A2 ist ein System bekannt, bei dem ein Sensor eine Vielzahl von potenziellen Kollisionsobjekten erfasst und mit Hilfe der erfassten Daten eine mögliche Kollision vorhergesagt wird. Zur Vermeidung der Kollision wird vorgeschlagen, dass von einer Fahrzeugsteuereinheit Bremsmittel und/oder Lenkmittel aktiviert werden, um eine Kollision zu vermeiden. Es wird nicht angegeben, auf welche Weise eine Steuereinheit entscheidet, ob die Lenkmittel, die Bremsmittel oder beides eingesetzt werden müssen, um die Kollision zu vermeiden.
  • Aus US 6,049 295 A1 ist ein Verfahren bekannt, das Kollisionen zwischen Fahrzeugen verhindern soll, die eine Kreuzung ohne Verkehrszeichen oder einen schlecht einsehbaren Straßenabschnitt befahren. Dieses Verfahren erfordert eine straßenfeste Einrichtung und fahrzeuggebundene Einrichtungen, die per Funk miteinander in Verbindung stehen.
  • Aus DE 198 30 547 A1 ist weiter ein Kreuzungswarnsystem bekannt, das ebenfalls auf straßenseitige und fahrzeugseitige Einrichtungen angewiesen ist.
  • Die bekannten Verfahren und Vorrichtungen zur Kollisionsvermeidung verwenden bei der Interpretation einer vorliegenden Fahrsituation einzelne fahrsituationstypische Informationen, um eine anschließenden Bewertung durchzuführen. Nachteilig hierbei ist, dass andere Informationen zur Verbesserung der Fahrsituationsbewertung nicht flexibel und einfach ausgewertet werden können.
  • Aufgabe der Erfindung ist es ein Verfahren bereitzustellen, das die bisherigen Einschränkungen des Standes der Technik bezüglich der Umfelderfassung aufhebt und das insbesondere verdeckte Objekte im Straßenverkehr erkennt.
  • Diese Aufgabe wird erfindungsgemäß mit den Merkmalen des Anspruchs 1 sowie den Merkmalen des Anspruchs 8 gelöst.
  • In einer ersten Ausgestaltung der Erfindung erfolgt bei dem Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr bei dem einerseits die Umgebung eines Fahrzeuges und andererseits Bewegungsgrößen des eigenen Fahrzeuges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnittstelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation 60) übertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden, wobei das Schritte durchlaufen werden:
    • a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmodell (50) erweitern
    • b) das erweiterte Umfeldmodell (50) mittels einer Anzeige (80) im eigenen Fahrzeug aktualisiert wiedergegeben wird
    • c) eine Situationsanalyse (70) des Umfelds und eine Bewertung der Situation im eigenen Fahrzeug durchgeführt wird
    • d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden
    • e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden
    • f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden
  • In einer vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahren erfolgt die Übermittlung der Information mittels Multicast und/oder Unicast und/oder Broadcast-Übertragung.
  • Eine besonders vorteilhafte Ausgetsaltung zeichnet sich dadurch aus, dass die empfangen Information priorisiert ausgewertet und die zu übertragenden Information nach einer Relevanzprüfung priorisiert gesendet werden.
  • Besonders vorteilhaft ist die Ausgestaltung des Verfahrens in der Art, dass die empfangen Information an ein eigenes Fahrerassistenzsystem (14) weitergeleitet werden und bei erkannten Fahrzeugen in der Umgebung, die ein aktiviertes Fahrerassistenzsystem aufweisen, die gesendeten Information zu dem jeweiligen Fahrerassistenzsystem des jeweiligen Fahrzeuges zugeführt werden.
  • In einer weitern vorteilhaften Ausgestaltung erfolgen vordefinierten Schritte im Fahrzeug 1 zur Reduktion der Unfallgefahr durch die Straffung der Gurte, und/oder das Vorfüllen der Bremsanlage des Fahrzeuges.
  • In einer vorteilhaften Ausbildung des erfindungegemäßen Verfahrens wird als visueller Sensor eine Stereokamera mit einem 12 bit Dynamikbereich verwendet, die eine Obejektracking und eine Objektverfolgung ausführt. Hierdurch erfolgt eine Art Reduktion der zu bewertenden Datenmenge, bei der Modifikation des Umfeldmodells.
  • Eine besonders vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die gesendeten Information in Form von Positions- und Dynamikinformationspaketen (29) erfolgt. Durch den paketorientierten Ansatz werden alle paketorientierten Übertragungsprotokolle adressiert.
  • Die Aufgabe wird gelöst durch die erfindungsgemäße Vorrichtung, umfassend mindestens einen Speicher, mindestens eine Rechnereinheit (15) und mindestens eine Schnittstelle (17) für den Datenaustausch, wobei die Informationen aus den benachbarten Fahrzeugen über das Kommunikationssystem (60) und über die Schnittstelle (17) zu der Rechnereinheit (15) weitergeleitet werden, die Daten des eigenen Fahrzeugs (1) durch die Sensoren (10, 20, 30) ermittelt, aktualisiert und über die Sensordatenverarbeitung (50) an ein Umfeldmodell (50) weitergeleitet werden, wobei unter Echtzeitbedingungen die eigene Position, das Umfeld und die Position der benachbarten Fahrzeuge über das Positionsbestimmungssystem (12) ermittelt und dem Rechner über die Schnittstelle (17) an das Umfeldmodell (50) zugeführt wird, aus den empfangenen Informationen und den ermittelten Daten eine Voraussage der Bewegungsbahn des eigenen Fahrzeugs, des Umfeld und der benachbarten Fahrzeuge erfolgt, wobei bei Gefahr eine Signalisierung über eine Ausgabeeinheit (80) an den Fahrer erfolgt oder durch ein Eingreifen mittels der Fahrzeugsicherheits- und/oder Fahrassistenzsysteme (13, 14) in die Bewegungsbahn des eigenen Fahrzeugs oder Signalisieren des Eingriffs der Bewegungsbahn des Fahrzeuges (1) an die benachbarten Fahrzeuge erfolgt.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird im Folgenden näher beschrieben.
  • Es zeigen
  • 1 Eine erfindungsgemäße Anzeigemdarstellung im Fahrzeug
  • 2 Erfindungsgemäße Blockschaltbild
  • 3 Ein Beispiel für ein Datenmodell
  • In dem Fahrzeug 1 befinden sich mindestens ein Kommunikations, ein Positionsbestimmungs-, Fahrzeugsicherheit-, Fahrerassistenzsystem 11/12/13/14, sowie Sensoren 10, 20, 30 und eine Sensordatenverarbeitung 40, und mindestens eine Rechnereinheit 15 mit Speicher die über drahtgebundene oder mobilen Datenbusleitungen einen Datenaustausch mit den Systementen und Sensoren durchführt, wobei auf der Rechnereinheit ein dynamisch änderbares Umfeldmodell 50, die Sensordatenverarbeitungseinheit 40 und eine Situationsanalyse 70 ausgeführt wird. Bevorzugt werden das Umfeldmodell 50, die Sensordatenverarbeitungseinheit 40 und die Situationsanalyse als Module aufgebaut. In der in 1 dargestellten Ausführungsform spiegelt sich das modulare Konzept wieder. Bespielweise erfolgt über das Kommunikationssystem 11 die der Austausch von Informationen über ein Mobilfunknetz wie GSM und das Kommunikationssystem 60 wird zur für die Übertragung und den Empfang von Information von Fahrzeug zu Fahrzeug eingesetzt. In einer bevorzugten Ausführungsform ist es angedacht, dass sämtliche Kommunikationsfunktionalität in einer einzigen Kommunikationssystem ausgeführt wird.
  • Als eine Ausgabeeinheit wird eine elektronische Anzeige im Fahrzeug 80 eingesetzt, die ortsfest und/oder variable für den Fahrer sichtbar im Fahrgastraum angebracht werden kann. Um den Erfassungsbereich sowohl für den Fahrer als auch für die Sensoren zu erweitern wird auf ein Verfahren zurückgegriffen, dessen Erfassungsbereich nicht von optischen Sichtverhältnissen eingeschränkt wird. Ein solches Verfahren ist die bereits erwähnte Fahrzeug-Fahrzeug Kommunikation. Das Kommunikationssystem 60 ist mindestens ausgelegt zur Fahrzeug zu Fahrzeug Kommunikation. Erfindungsgemäß wird als Kommunikationssystem eine standardisierte, nicht optische, funkbasierte Informationsübertragungsverfahren unterstützendes System für die Kommunikation zwischen mindestens zwei Fahrzeugen bzw. Teilnehmern eingesetzt. Das Kommunikationssystem 110 unterstützt unterschiedliche mobile Übertragungsverfahren, die eine Informationsverteilung im so genannten Point to Point Verbindung aufbauen, wogegen das Kommunikationssystem 60 einen Broadcast-Mode durchführt. Als Broadcast oder Rundruf in einem rechnergestützten Netzwerk wird die Übertragung von Datenpakete von einem Punkt, bzw. Fahrzeug aus, an alle Fahrzeuge bzw. Teilnehmer innerhalb eines Netzes verstanden. Mit ihr werden über definierte Funkstandards wie z. B. IEEE 802.11p Umfeldinformationen übertragen und im eigenen Fahrzeug dargestellt werden. In Gefahrensituationen erfolgt nach Ausführung des erfindungegemäßen Verfahrens zusätzlich eine Warnung oder ein Eingriff in das Fahrzeugverhalten. Mittels der Kommunikationssystem 11 und 60 werden unterschiedliche mobile Übertragungsverfahren, wie WLAN, DSRC, GSM, GPRS, UMTS, ausgeführt.
  • Positionsbestimmungssysteme 12 dienen zur Bestimmung der eigenen Position. Als Positionsbestimmungssysteme eignen sich GPS-Sender und Empfänger sowie Navigationssysteme. Erfindungsgemäß können auch integrierte Positionsbestimmungssysteme, die beide Funktionalitäten in einem Gerät vereinen eingesetzt werden.
  • Als Fahrzeugsicherheitssystemen 13 sind alle im Fahrzeug verfügbaren Bremssysteme mit elektronischer Regelung einsetzbar. Fahrzeugsicherheitssysteme können das Electronic Break System (EBS) 131, das Engine Management System (EMS) 132, Antiblockiersystem (ABS) 133, Antriebs-Schlupf-Regelung (ASR), Elektronisches Stabilitätsprogramm (ESP), Elektronische Differentialsperre (EDS), Transmission Control Unit (TCU), Elektronische Bremskraftverteilung (EBV) und/oder Motor-Schleppmomenten-Regelung (MSR) sein.
  • Fahrerassistenzsysteme 14 sind elektronische Zusatzeinrichtungen in Fahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen. Hierbei stehen oft Sicherheitsaspekte, aber auch die Steigerung des Fahrkomforts im Vordergrund. Diese Systeme greifen teilautonom oder autonom in Antrieb, Steuerung (z. B. Gas, Bremse) oder Signalisierungseinrichtungen des Fahrzeuges ein oder warnen durch geeignete Mensch-Maschine-Schnittstellen den Fahrer kurz vor oder während kritischer Situationen. Solche Fahrassistenzsysteme sind beispielsweise Einparkhilfe (Sensorarrays zur Hinderniss- und Abstandserkennung), Bremsassistent (BAS), Tempomat, Adaptive Cruise Control oder Abstandsregeltempomat (ACC) 141, Abstandswarner, Abbiegeassistent, Stauassistent, Spurerkennungssystem, Spurhalteassistent/Spurassistent (Querführungsunterstützung, lane departure warning (LDW)) 142, Spurhalteunterstützung (lane keeping support)), Spurwechselassistent (lane change assistance), Spurwechselunterstützung (lane change support), Intelligent Speed Adaption (ISA), Adaptives Kurvenlicht, Reifendruckkontrollsystem, Fahrerzustandserkennung, Verkehrszeichenerkennung, Platooning, Automatische Notbremsung (ANB), Auf- und Abblendassistent für das Fahrlicht, Nachtsichtsystem (Night Vision).
  • Durch die Integration von verschiedenen Systemen werden alle funktionellen Vorteile der einzelnen Subsysteme beibehalten und zusätzlich wird deren Gesamtleistung gesteigert. Während die einzelnen Subsysteme Unfälle reduzieren können, indem sie das Risiko bestimmter Gefahren minimieren, die nur für das eigene Fahrzeug gelten, können erfindungsgemäß komplexe Gefahrensituationen gelöst werden, an der insbesondere zahlreiche Fahrzeuge beteiligt sind.
  • Die Aufbau in 2 zeigt eine multi-sensoriellen Umgebungserfassung mit vernetztem Umfeldmodell. Kern des erfindungsgemäßen Verfahren sind die Schritte Sensordatenaufbereitung 40, Bildung und Ergänzung der Umfeldmodells 50 mittels der Sensordatenverarbeitung 40 und der Fahrzeug zu Fahrzeug Kommunikation 60, und die Zuführung des Umfeldmodels an eine Situationsanalyse.
  • Das Umfeldmodell 50 weißt eine Schnittstelle zu den Fahrzeugsicherheitssystem und Fahrerassistenzsystemen und ermöglicht gleichzeitig eine Validierung der Umgebungserfassung.
  • Zu Beginn des Verfahrens wird eine Bestandsaufnahme aller verwendbaren Sensoren durchgeführt und erstellt. Diese umfasst sowohl eine funktionelle Beschreibung als auch alle wichtigen Leistungsmerkmale der Sensoren. Trotz der Vielzahl der verfügbaren Sensoren werden die verwendeten Sensoren nach Technologie in folgende drei Kategorien eingeteilt: Lidar 10 basierend auf scannenden oder feststehenden Laserstrahlen und Radar 20 mit Ausprägungen für Fernbereichsradar und Nahbereichsradar und visuelle Sensoren in der Ausführung als Kameras 30, sowohl für den sichtbaren Bereich als auch für den unsichtbaren Bereich, der beispielweise die Wärmestrahlung umfasst.
  • Mit elektromagnetischen Wellen misst ein Radarsystem die Entfernung zu und gleichzeitig die Geschwindigkeit von Objekten, indem die Objekt-Rückstreuung ausgewertet wird. Für die Generierung der Radarwellen werden verschiedene Möglichkeiten wie Pulse-Radar, FMCW (frequency modulated continuous wave) und FSK (frequency shift keying) Modulation, sowie Kombinationen davon eingesetzt. Für den Abstandsregeltempomaten (ACC) wird ein Fernbereichsradar eingesetzt, bei dem Entfernungen bis zu 150 Metern gemessen werden können und die Objekte als punktförmig angesehen werden.
  • Beim Nahbereichsradar werden gleichzeitig mehrere Sensoren (Sender und Empfänger) verwendet, die jeweils einen deutlich größeren Öffnungswinkel (bis +/– 60°) besitzen. Durch verkoppelte Auswertung der Empfangssignale können auch mehrere Objekte bis zu einer Entfernung von 30 Metern lokalisiert werden. Während das Fernbereichsradar bei einer Frequenz von 77 GHz arbeitet, benutzt das Nahbereichsradar den Frequenzbereich um 24 GHz bzw. 79 GHz. Ein wichtiger Vorteil von Radar ist die Unempfindlichkeit der Radarwellenausbreitung gegenüber Witterungseinflüssen wie Regen, Schneefall oder Nebel.
  • Im Gegensatz zu Radar wird bei Lidar die Objektgeschwindigkeit gewöhnlich über mehrere Entfernungsmessungen bestimmt und nicht direkt durch Auswertung des Dopplereffektes. Nichtscannende Systeme mit mehreren Laserstrahlen und Photodioden (Multi-Beam-Lidar) werden wie das Fernbereichsradar für Abstandsregelung (ACC) eingesetzt, wobei durch die größere Anzahl an Strahlen eine bessere laterale Auflösung im Vergleich zum Fernbereichsradar erzielt wird. Im Nahbereich wird überwiegend scannendes Lidar eingesetzt, das im Prinzip eine komplette Rundumsicht (360° Öffnungswinkel) ermöglicht. Um Nickbewegungen des Fahrzeuges zu kompensieren ist es angedacht mehrere Abtastebenen zu benutzen.
  • Kameras bieten im Gegensatz zu den entfernungsmessenden Prinzipien von Radar und Lidar ein hochauflösendes Bild der Fahrumgebung. Da die Kontrastverhältnisse im Straßenverkehr oft sehr groß sind, wird erfindungsgemäß eine hochdynamische Kameras mit bspw. einem 12 Bit Dynamikbereich eingesetzt. Während für die Spurerkennung Grauwertkameras einsetzbar sind, sind für eine zuverlässige Ampeldetektion Farbkameras vorgesehen. Um die 2D-Information einer Monokamera mit Entfernungsinformation zu verknüpfen, werden nach der Erfindung Stereokameras mit einer horizontalen Basis, wie das Augenpaar beim Menschen, und bestimmt die Disparitäten zwischen den beiden Bildern hauptsächlich an vertikalen Kanten zur Entfernungsbestimmung. Des weiteren ist es erfindungsgemäß angedacht bewegliche Kameras einzusetzen, wie scannende Ansätze bei Lidar oder Radar, eine deutliche Vergrößerung des Blickwinkels, mit einer zusätzlichen Steuerung in der Blickrichtung z. B. basierend auf der Aufmerksamkeit. Erfindungegemäß ist es auch angedacht, dass Wärmebildkameras für die Fußgängererkennung einzusetzen, da die Temperatur des menschlichen Körpers ein zuverlässiges Detektionsmerkmal darstellt.
  • Erfindungsgemäß werden durch den Einsatz der genannten Sensoren, die Nachteile der einzelnen Sensoren in der Kombination miteinander, aufgehoben und ein Mehrwert durch den kombinierten Einsatz generiert.
  • Der Block Sensordatenaufbereitung 40 berücksichtigt in besonderer Weise die zusätzlichen Anforderungen eines multisensoriellen Ansatzes. Sobald Sensordaten in Beziehung gesetzt werden, wird sowohl die gegenseitige Lage der Sensoren als auch eine gemeinsame Zeitbasis in Bezug zu einander gesetzt. Hier zu erfolgt nach der Erfindung eine Ortskalibrierung zur Bestimmung der geometrischen Relation der Objekte und Fahrzeuge zu einander, eine Zeitsynchronisation zur Bestimmung der zeitlichen Relation der Objekte und Fahrzeuge zu einander und der Sensormodellierung, bei der eine Berücksichtigung von Sensoreigenschaften eingeht. Als Bezugspunkt für das Koordinatensystem ist es erfindungsgemäß angedacht, das Eigenfahrzeug zu verwenden, das natürlich mit ortsgebundener Information z. B. von Navigationskarten bzw. Positionsbestimmungssysteme 12 entsprechend in Verbindung gebracht wird.
  • Da sich die Objekte im Verkehrsumfeld oft mit hoher Geschwindigkeit bewegen, wird eine gemeinsame Zeitbasis für einen multisensoriellen Ansatz definiert. Stereokameras z. B. werden synchron betrieben, um beide Messungen zum gleichen Zeitpunkt zu erhalten. Erfindungsgemäß werden auch asynchrone Systeme verwendet, wenn die Messungen mit einem Zeitstempel versehen werden, der von einer gemeinsamen Systemuhr (Master-Clock) geliefert wird.
  • Für das eingesetzte Multisensorsystem Radar-Lidar-Kamera werden alle bekannten und benötigten Sensoreigenschaften in Sensormodellen zu hinterlegt und dann bei der Sensordatenverarbeitung explizit berücksichtigt, da die Eigenschaften der einzelnen Sensoren, wie Reichweite, Öffnungswinkel auch bei Änderungen, z. B. anderes Kameraobjektiv, effizient zu berücksichtigen sind.
  • Im Umfeldmodell 50 werden alle Ergebnisse der multisensoriellen Fahrumgebungserfassung und der zusätzlich empfangen Informationen aus der Umgebung durch die Fahrzeug zu Fahrzeug Kommunikation über das Kommunikationssystem 60 zusammengetragen. Empfang und Aktualisierung der Informationen aus den benachbarten Fahrzeugen erfolgt in der Art, das die benachbarten Fahrzeuge 2 und 3 ihre Positions- und Dynamikinformationspakete 29 (PDP), wie in 3 beispielhaft angegeben, über das im jeweiligen Fahrzeug befindliche und für den Informationsaustausch zwischen mindestens zwei Fahrzeugen zuständige Kommunikationssystem für die Fahrzeug zu Fahrzeug Kommunikation fortlaufend senden.
  • Die das jeweilige Fahrzeug repräsentierenden und verteilten Positions- und Dynamikinformationspakete 2 enthalten Informationen, z. B. die Fahrzeugkennung 21, die GPS-Daten mit genauen Informationen über das Spurhalten 22, die individuelle Fahrzeugparameter 23, wie z. B. die Fahrzeuggeometrie mit Länge 231, Breite 232, Wendekreis, den Fahrzeugtyp (PKW/Geländefahrzeug/Klein-Lastkraftwagen/LKW/usw.) 233, die vorab bekannten Informationen der Fahrzeugdynamik 24 mit max. Längs beschleunigung und -verzögerung 241, max. Querbeschleunigung 242, max. Fahrzeuggeschwindigkeit 23, die aktuelle Fahrzeuggeschwindigkeit 245, die Längsbeschleunigung, die Querbeschleunigung, die aktuelle Gierrate, den aktuellen Lenkwinkel.
  • Des Weiteren beinhalten die Positions- und Dynamikinformationspakete 29 Informationen über die aktuell im jeweiligen Fahrzeug aktiven Fahrzeugsicherheitssysteme 25 und Fahrerassistenzsysteme 25, sowie Informationen über die Fahrbahnparameter 26, wie z. B. Böschungswinkel und geschätzte Reibung. Vorgesehen sind weitere Felder in den Positions- und Dynamikinformationspakete 2 für optionale Angaben 27, wie den Zustand von Ampelsignalen oder die Position von erkannten Fußgängern.
  • Die Positions- und Dynamikinformationen aller benachbarten Fahrzeuge, mit denen das eigene Fahrzeug kommuniziert, werden in einem dynamisch aktualisierten, internen Speicher der Rechnereinheit 15, die als Datenbank ausgestaltet sein kann, gespeichert.
  • Wenn das sendende Fahrzeug bereits über ein aktives Positions- und Dynamikinformationspaket in der Datenbank verfügt, d. h. es bereits vom empfangenden, eigenen Fahrzeug "erkannt" wird, werden die Daten mit dem neuesten Positions- und Dynamikinformationspakete aktualisiert.
  • Fährt das Fahrzeug gerade in den Kommunikationsbereich, wird es mit dem ursprünglichen Positions- und Dynamikinformationspakete in die Datenbank eingegeben. Die Positions- und Dynamikinformationspakete 2 eines Fahrzeugs, das die Zone verlässt und das nach einem aktiven Zeitraum keine Daten mehr sendet, werden aus der Datenbank entfernt.
  • Die Aktualisierung und Übertragung der eigenen Positions- und Dynamikdaten des eigenen Fahrzeugs erfolgt in der Art, dass im eigenen Fahrzeugs die gleichen Daten wie beschrieben erfasst und berechnet und das gesamte Positions- und Dynamikdatenpaket durch das eigene Kommunikationssystem an die benachbarten Fahrzeuge übertragen werden.
  • Die Positionsdaten des ersten Positionsbestimmungssystems, der als ein GPS Empfänger ausgeführt sein kann, werden als Basisinformation verwendet. Diese Daten werden an das Umfeldmodell 50 weitergeleitet.
  • Das Umfeldmodell 50 umfasst erfindungsgemäß eine Vielzahl von vorab bekannten Objekttypen, die zur Beschreibung der Fahrumgebung, in einem sogenannten Objektkatalog strukturiert sind.
  • Zu jedem Objekt gibt es eine Anzahl von Attributen, die entweder mit der Sensorik gemessen und bestimmt werden, zum Beispiel Breite, Höhe, Entfernung, Geschwindigkeit, oder aber in einer sehr einfachen Ausführungsform als Look-Up Tabelle oder in einer weiteren Ausführungsform in der bereits erwähnten Datenbank erfasst sind, wie Anzahl der Fahrspuren, Zuordnung von Ampeln und Geschwindigkeitsbeschränkungen.
  • Bei den Objekten unterscheidet man zwischen statischen Objekten, d. h. Objekte, die zur Infrastruktur gehören, wie Fahrspuren, Verkehrszeichen oder Randbebauung und dynamischen Objekten. Die Beschreibung der Bewegung dynamischer Objekte erfolgt durch unterlagerte Dynamikmodelle, die relativ zu objektspezifischen Koordinatensystemen formuliert werden.
  • Fußgänger oder ungeschützte Verkehrsteilnehmer werden gesondert behandelt, da sowohl deren Erkennung als auch die dafür notwendigen Form und Dynamikmodelle, wie veränderliche Gestalt durch Arm- und Beinbewegungen, abrupte Richtungswechsel möglich sind und somit wesentlich komplexer sind als z. B. bei Fahrzeugen.
  • Die Situationsanalyse 70 definiert und beschreibt die Beziehungen zwischen den gefundenen Objekten, wie zum Beispiel Einscherer oder Gassenfahrt bei der Funktion des Stauassistenten. Abhängig von der Komplexität der Fahrerassistenzsystems, wie Abstandsanzeige, Abstandswarnung, Abstandsregeltempomat, Stauassistent, Notbremsung, werden unterschiedliche Abstraktionsstufen bei der Situationsanalyse, wie Abstand zum vorausfahrenden Fahrzeug, Berücksichtigung der eigenen Geschwindigkeit, Einscherer-Situation, mögliche Ausweichmanöver, erfindungsgemäß gebildet. Neben den Daten aus der Umgebungserfassung werden die Informationen aus der und Kommunikation mit anderen Fahrzeugen und/oder der Infrastruktur verwendet. Die gesamte verfügbare Information über die aktuelle Situation wird nun im erweiterten Umfeldmodell abgespeichert und steht der Situationsanalyse 70 zur Verfügung.
  • Die Anzeige im Fahrzeug 80 wird entweder direkt im Videobild oder auch als virtuelles Bild aus dem Blickwinkel, wir in 1 angedeutet, der Vogelperspektive dargestellt. Es ist angedacht, dass die Erkennungsergebnisse, wie Fahrzeuge oder Spurmarkierungen, direkt ins Bild einzutragen. Falls keine Videoaufnahmen zur Verfügung stehen oder der Erfassungsbereich anderer Sensoren größer als das Kamerablickfeld ist, werden die erkannten Objekte in einem virtuellen Bild dargestellt.
  • Eine Anzeige im Fahrzeug wird dann wie in 1 dargestellt erfolgen, für den Fall, dass sich zwei Fahrzeuge 1 und 2 als Linksabbieger gegenüber stehen und einer der beiden den entgegenkommenden Verkehr nicht sehen werden, da dieser von dem anderen Linksabbieger verdeckt wird, wobei der der Fahrer des Fahrzeugs 2 sofort erkennen würde, dass er nicht abbiegen darf.
  • Da durch das Verfahren das Sichtfeld erweitert und die Entscheidungsgrundlage in vielen Fällen erheblich beeinflusst wird, sind zahlreiche zusätzliche Variationen möglich, so dass das beschriebene Ausführungsbeispiel keine Einschränkung darstellt.
  • Durch das erweiterte Sichtfeld, werden vorteilhaft von vornherein Gefahrensituationen vermieden und somit die Anforderungen an passive Sicherheitssysteme minimiert bzw. reduziert.
  • Durch das Verfahren ist es in vorteilhaftweise möglich, anhand einer Situationsanalyse die Gefahr, die von einem Objekt ausgeht, zu bestimmen. Handelt es sich dann um ein sehr hohes Gefahrenpotential werden das Objekt in der Anzeige besonders hervorgehoben werden und Maßnahmen zur Vermeidung eines Unfalls eingeleitet. Solche Maßnahmen sind z. B. die Straffung der Gurte, das Vorfüllen der Bremsanlage. Es ist auch angedacht, dem Fahrer akustischen, haptische und visuellen Hinweise dem Fahrer auszugeben, dass eine Gefahrensituation im entstehen ist. Die eingeleiteten Maßnahmen werden wiederum über das Kommunikationssystem 60 an die Umgebung übertragen, um den in der Umgebung befindlichen Fahrzeugen die eingeleiteten Maßnahmen mitzuteilen.
  • Die relevanten Informationen werden an die Fahrerassistenzsysteme in den Fahrzeugen 2 und 3, die sich in unmittelbarer Umgebung befinden weitergegeben, um deren Erfassungsbereich ebenfalls zu erweitern. Es entsteht hierdurch ein Netz von Fahrzeugen, bei dem die nutzbare Informationsreichweite für das einzelne Fahrzeug stark erweitert wird. Der Fahrer des einzelnen Fahrzeuges wird bei seinen Handlungen nicht durch die Auswertung der Umfelderfassung, die lediglich eine begrenzte örtliche Reichweite besitzt, eingeschränkt. Hierdurch wird das Vorliegen von bestimmten örtlichen Gegebenheiten zu einem bestimmten Zeitpunkt den Fahrer zugänglich gemacht, wodurch dann in vorteilhafter Weise Maßnahmen ergriffen werden können, um zum Bespiel Unfälle zu vermeiden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - EP 0473866 A2 [0005]
    • - US 6049295 A1 [0006]
    • - DE 19830547 A1 [0007]

Claims (7)

  1. Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr bei dem einerseits die Umgebung eines Fahrzeuges und andererseits Bewegungsgrößen des eigenen Fahrzeuges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnittstelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation (60) übertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden dadurch kennzeichnet, das folgende Schritte durchlaufen werden: a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmodell (50) erweitern b) das erweiterte Umfeldmodell (50) mittels einer Anzeige (80) im eigenen Fahrzeug aktualisiert wiedergegeben wird c) eine Situationsanalyse (70) des Umfelds und eine Bewertung der Situation im eigenen Fahrzeug durchgeführt wird d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden
  2. Verfahren nach Anspruch 1 dadurch kennzeichnet, dass die Übermittlung der Information mittels Multicast und/oder Unicast und/oder Broadcast-Übertragung erfolgt.
  3. Verfahren nach einem der vorangegangen Ansprüche dadurch kennzeichnet, dass die empfangen Informationen priorisiert ausgewertet und die zu übertragenden Informationen nach einer Relevanzprüfung priorisiert gesendet werden.
  4. Verfahren nach einem der vorangegangen Ansprüche dadurch kennzeichnet, dass die empfangen Information an ein eigenes Fahrerassistenzsystem (14) weitergeleitet werden und bei erkannten Fahrzeugen in der Umgebung, die ein aktiviertes Fahrerassistenzsystem aufweisen, die gesendeten Informationen zu dem jeweiligen Fahrerassistenzsystem des jeweiligen Fahrzeuges zugeführt werden.
  5. Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, dass die vordefinierten Schritte zur Reduktion der Unfallgefahr im Fahrzeug (1) die Straffung der Gurte, und/oder das Vorfüllen der Bremsanlagen ausgeführt werden.
  6. Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, das der Sensor 30 eine Stereokamera mit einem 12 bit Dynamikbereich ist. 7 Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, die gesendeten Information in Form von Positions- und Dynamikinformationspaketen (29) erfolgt.
  7. Vorrichtung zur Durchführung des Verfahrens gemäß Anspruch 1, umfassend mindestens einen Speicher, mindestens eine Rechnereinheit (15) und mindestens eine Schnittstelle (17) für den Datenaustausch, dadurch gekennzeichnet, dass dass die Informationen aus den benachbarten Fahrzeugen über das Kommunikationssystem (60) und über die Schnittstelle (17) zu der Rechnereinheit (15) weitergeleitet werden, die Daten des eigenen Fahrzeugs (1) durch die Sensoren (10, 20, 30) ermittelt, aktualisiert und über die Sensordatenverarbeitung (50) an ein Umfeldmodell (50) weitergeleitet werden, wobei unter Echtzeitbedingungen die eigene Position, das Umfeld und die Position der benachbarten Fahrzeuge über das Positionsbestimmungssystem (12) ermittelt und dem Rechner über die Schnittstelle (17) an das Umfeldmodell (50) zugeführt wird, wobei bei Gefahr eine Signalisierung über die Schnittstelle an eine Ausgabeeinheit (80) an den Fahrer erfolgt oder durch ein Eingreifen mittels der Fahrzeugsicherheits- und/oder Fahrassistenzsysteme (13, 14) in die Bewegungsbahn des eigenen Fahrzeugs und/oder Signalisieren des Eingriffs der Bewegungsbahn des Fahrzeuges (1) an die benachbarten Fahrzeuge erfolgt.
DE102007048809A 2006-10-13 2007-10-10 Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr Withdrawn DE102007048809A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102007048809A DE102007048809A1 (de) 2006-10-13 2007-10-10 Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr
PCT/EP2007/060788 WO2008043795A1 (de) 2006-10-13 2007-10-10 Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
EP07821156.2A EP2082388B1 (de) 2006-10-13 2007-10-10 Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
US12/444,778 US8179281B2 (en) 2006-10-13 2007-10-10 Method and apparatus for identifying concealed objects in road traffic

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006049101 2006-10-13
DE102006049101.7 2006-10-13
DE102007048809A DE102007048809A1 (de) 2006-10-13 2007-10-10 Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr

Publications (1)

Publication Number Publication Date
DE102007048809A1 true DE102007048809A1 (de) 2008-07-10

Family

ID=38834995

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007048809A Withdrawn DE102007048809A1 (de) 2006-10-13 2007-10-10 Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr

Country Status (4)

Country Link
US (1) US8179281B2 (de)
EP (1) EP2082388B1 (de)
DE (1) DE102007048809A1 (de)
WO (1) WO2008043795A1 (de)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009048493A1 (de) * 2009-09-25 2011-04-07 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein Fahrzeug, Fahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
DE102009053707A1 (de) 2009-11-18 2011-05-19 Man Nutzfahrzeuge Ag Vorrichtung zur Anzeige eines Hindernisses im Bewegungsbereich eines Nutzfahrzeugs
EP2385511A1 (de) * 2010-04-21 2011-11-09 Audi AG Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
WO2011161176A1 (de) * 2010-06-23 2011-12-29 Continental Teves Ag & Co. Ohg Verfahren und system zur beschleunigten objekterkennung und/oder beschleunigten objektattributerkennung sowie verwendung des verfahrens
DE102011075674A1 (de) 2011-05-11 2012-11-15 Continental Teves Ag & Co. Ohg Abstandsbestimmung mittels eines Kamerasensors
DE102012221260A1 (de) 2011-11-21 2013-05-23 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur kommunikationssignalbasierten Positionsermittlung von Objekten im Straßenverkehr sowie Verwendung der Vorrichtung
DE102009034214B4 (de) * 2008-07-25 2013-07-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System für die Kenntnis und Diagnose von Kommunikationsmerkmalen zwischen Fahrzeugen
DE102012208254A1 (de) 2012-05-16 2013-11-21 Continental Teves Ag & Co. Ohg Verfahren und System zur Erstellung eines aktuellen Situationsabbilds
DE102012210069A1 (de) 2012-06-14 2013-12-19 Continental Teves Ag & Co. Ohg Verfahren und System zum Anpassen eines Anfahrverhaltens eines Fahrzeugs an eine Verkehrssignalanlage sowie Verwendung des Systems
DE102012221004A1 (de) 2012-11-16 2014-05-22 Continental Teves Ag & Co. Ohg Verfahren und System zur verbesserten Bestimmung einer Eigenposition eines Fahrzeugs
DE102012023498A1 (de) 2012-12-03 2014-06-05 Continental Automotive Gmbh Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
DE102012025159A1 (de) 2012-12-21 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren und System zum Lernen von Verkehrsereignissen sowie Verwendung des Systems
DE102012024959A1 (de) * 2012-12-20 2014-06-26 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
DE102013201836A1 (de) 2013-02-05 2014-08-07 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Anwesenheitserkennung von Objekten in einer Fahrgastzelle eines Fahrzeugs
WO2015014708A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodelle für fahrzeuge
WO2015014707A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen eines umfeldmodells beim ausfall eines sensors eines fahrzeugs
US8977428B2 (en) 2009-03-06 2015-03-10 Toyota Jidosha Kabushiki Kaisha Vehicle drive support device
DE102013220312A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel und Verfahren zum Informationsaustausch mit einem Fortbewegungsmittel
DE102013220526A1 (de) * 2013-10-11 2015-04-16 Bayerische Motoren Werke Aktiengesellschaft Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme
DE102014007030A1 (de) * 2014-05-13 2015-11-19 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtung zur Warnung vor einer kritischen Verkehrssituation
DE102014211013A1 (de) * 2014-06-10 2015-12-17 Continental Teves Ag & Co. Ohg Fahrzeugkommunikationsgerät
DE102015105784A1 (de) * 2015-04-15 2016-10-20 Denso Corporation Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern
US9607517B2 (en) 2011-11-21 2017-03-28 Continental Teves Ag & Co. Ohg Method and device for the position determination of objects by means of communication signals, and use of the device
DE102016002603A1 (de) * 2016-03-03 2017-09-07 Audi Ag Verfahren zur Ermittlung und Bereitstellung einer auf eine vorbestimmte Umgebung bezogenen, Umfelddaten enthaltenden Datenbank
DE102016213038A1 (de) * 2016-07-18 2018-01-18 Zf Friedrichshafen Ag Verfahren zur Bereitstellung von Sensorinformationen für ein Kraftfahrzeug
DE102016215825A1 (de) * 2016-08-23 2018-03-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum externen Bereitstellen von Kartendaten für Assistenzsysteme von Kraftfahrzeugen
DE102020209515A1 (de) 2020-07-29 2022-02-03 Volkswagen Aktiengesellschaft Verfahren sowie System zur Unterstützung einer vorausschauenden Fahrstrategie
DE102021205061A1 (de) 2021-05-19 2022-11-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Ermitteln verdeckter Objekte in einer ein Umfeld repräsentierenden 3D-Punktwolke

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060058829A1 (en) * 2003-03-19 2006-03-16 Sampson Douglas C Intragastric volume-occupying device
JP4254844B2 (ja) * 2006-11-01 2009-04-15 トヨタ自動車株式会社 走行制御計画評価装置
JP4371137B2 (ja) * 2006-11-10 2009-11-25 トヨタ自動車株式会社 自動運転制御装置
JP4525670B2 (ja) * 2006-11-20 2010-08-18 トヨタ自動車株式会社 走行制御計画生成システム
DE102008040077A1 (de) * 2008-07-02 2010-01-07 Robert Bosch Gmbh Fahrerassistenzverfahren
US8935055B2 (en) * 2009-01-23 2015-01-13 Robert Bosch Gmbh Method and apparatus for vehicle with adaptive lighting system
DE102009020328A1 (de) * 2009-05-07 2010-11-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung
EP2302412B1 (de) * 2009-09-29 2012-08-15 Volvo Car Corporation System und Verfahren zur Beurteilung einer Frontalzusammenstoßdrohung eines Automobils
US8639437B2 (en) * 2010-06-09 2014-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Computationally efficient intersection collision avoidance system
US8965676B2 (en) * 2010-06-09 2015-02-24 Toyota Motor Engineering & Manufacturing North America, Inc. Computationally efficient intersection collision avoidance system
US8405541B2 (en) * 2010-09-01 2013-03-26 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-range radar system
WO2013009692A2 (en) * 2011-07-08 2013-01-17 Godfrey Matthew R Systems and methods for tracking and monitoring an electronic device
US8706458B2 (en) * 2011-10-05 2014-04-22 International Business Machines Corporation Traffic sensor management
DE102011116169A1 (de) * 2011-10-14 2013-04-18 Continental Teves Ag & Co. Ohg Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs
US8630806B1 (en) 2011-10-20 2014-01-14 Google Inc. Image processing for vehicle control
US9146898B2 (en) * 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
DE102011086520A1 (de) * 2011-11-17 2013-05-23 Robert Bosch Gmbh Schadensbegrenzung für ein Kraftfahrzeug in einer Gefahrensituation
JP5936258B2 (ja) * 2012-03-22 2016-06-22 富士重工業株式会社 運転支援装置
US10609335B2 (en) 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
KR101493360B1 (ko) * 2012-07-30 2015-02-23 주식회사 케이티 주변 차량의 상태 변화 감지를 통한 차량 주행 관리 방법 및 시스템
US9595195B2 (en) 2012-09-06 2017-03-14 Apple Inc. Wireless vehicle system for enhancing situational awareness
US9344989B2 (en) 2012-09-06 2016-05-17 Apple Inc. System with wireless messages to enhance location accuracy
US10796510B2 (en) * 2012-12-20 2020-10-06 Brett I. Walker Apparatus, systems and methods for monitoring vehicular activity
JP6107618B2 (ja) * 2013-11-26 2017-04-05 株式会社デンソー 周辺移動体表示装置
US9666069B2 (en) * 2014-02-14 2017-05-30 Ford Global Technologies, Llc Autonomous vehicle handling and performance adjustment
US9079587B1 (en) * 2014-02-14 2015-07-14 Ford Global Technologies, Llc Autonomous control in a dense vehicle environment
JP6237580B2 (ja) * 2014-11-13 2017-11-29 株式会社デンソー モータ制御装置
CN104442571B (zh) * 2014-11-26 2016-06-01 重庆长安汽车股份有限公司 一种夜视导航集成系统及控制方法
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
US10745003B2 (en) 2015-11-04 2020-08-18 Zoox, Inc. Resilient safety system for a robotic vehicle
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9734455B2 (en) 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9802661B1 (en) 2015-11-04 2017-10-31 Zoox, Inc. Quadrant configuration of robotic vehicles
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US10000124B2 (en) 2015-11-04 2018-06-19 Zoox, Inc. Independent steering, power, torque control and transfer in vehicles
US9494940B1 (en) 2015-11-04 2016-11-15 Zoox, Inc. Quadrant configuration of robotic vehicles
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
KR102547441B1 (ko) * 2015-11-09 2023-06-26 삼성전자주식회사 차량 간 메시지 전송 장치 및 방법
US9632507B1 (en) 2016-01-29 2017-04-25 Meritor Wabco Vehicle Control Systems System and method for adjusting vehicle platoon distances based on predicted external perturbations
US11169537B2 (en) * 2016-04-15 2021-11-09 Honda Motor Co., Ltd. Providing driving support in response to changes in driving environment
US10150414B2 (en) * 2016-07-08 2018-12-11 Ford Global Technologies, Llc Pedestrian detection when a vehicle is reversing
EP3273423B1 (de) * 2016-07-21 2019-03-13 Continental Automotive GmbH Vorrichtung und verfahren zur erkennung eines fussgängers
US9928746B1 (en) * 2016-09-16 2018-03-27 Ford Global Technologies, Llc Vehicle-to-vehicle cooperation to marshal traffic
DE102017203838B4 (de) * 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
DE102017218438A1 (de) * 2017-10-16 2019-04-18 Robert Bosch Gmbh Verfahren und System zum Betreiben eines Fahrzeugs
KR102485394B1 (ko) * 2017-12-11 2023-01-05 현대자동차주식회사 자동차 및 그 제어 방법
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
CN110875797B (zh) * 2018-08-31 2022-11-08 阿波罗智能技术(北京)有限公司 智能驾驶汽车的数据传输方法、装置及设备
DE102019102679A1 (de) * 2019-02-04 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Bereitstellen eines Bahnverlaufs eines Objekts für ein Fahrzeug
WO2021183110A1 (en) * 2020-03-10 2021-09-16 Google Llc System and methods for identifying obstructions and hazards along routes
DE102020208637A1 (de) * 2020-07-09 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorhersage von dynamischen Objekten an verdeckten Bereichen
US20220198200A1 (en) * 2020-12-22 2022-06-23 Continental Automotive Systems, Inc. Road lane condition detection with lane assist for a vehicle using infrared detecting device
CN114446092B (zh) * 2022-01-19 2022-12-27 无锡学院 一种基于三维相机组网的s型公路模拟障碍物预警方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0473866A2 (de) 1990-08-22 1992-03-11 Kollmorgen Corporation Zusammenstossvorbeugungssystem
DE19830547A1 (de) 1998-05-18 1999-12-02 Toyota Motor Co Ltd Kreuzungswarnungssystem
US6049295A (en) 1997-12-05 2000-04-11 Fujitsu Limited Method and system for avoiding a collision at an intersection and a recording medium storing programs performing such a method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
US6526352B1 (en) 2001-07-19 2003-02-25 Intelligent Technologies International, Inc. Method and arrangement for mapping a road
US7042345B2 (en) * 1996-09-25 2006-05-09 Christ G Ellis Intelligent vehicle apparatus and method for using the apparatus
US6289332B2 (en) * 1999-02-26 2001-09-11 Freightliner Corporation Integrated message display system for a vehicle
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
JP4040441B2 (ja) 2002-12-04 2008-01-30 トヨタ自動車株式会社 車両用通信装置
GB2400353A (en) * 2003-04-09 2004-10-13 Autoliv Dev Pedestrian detecting system provided on a motor vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0473866A2 (de) 1990-08-22 1992-03-11 Kollmorgen Corporation Zusammenstossvorbeugungssystem
US6049295A (en) 1997-12-05 2000-04-11 Fujitsu Limited Method and system for avoiding a collision at an intersection and a recording medium storing programs performing such a method
DE19830547A1 (de) 1998-05-18 1999-12-02 Toyota Motor Co Ltd Kreuzungswarnungssystem

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009034214B4 (de) * 2008-07-25 2013-07-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System für die Kenntnis und Diagnose von Kommunikationsmerkmalen zwischen Fahrzeugen
DE112009005027B4 (de) 2009-03-06 2018-07-19 Toyota Jidosha Kabushiki Kaisha Fahrzeugantriebsunterstützungsvorrichtung
US8977428B2 (en) 2009-03-06 2015-03-10 Toyota Jidosha Kabushiki Kaisha Vehicle drive support device
DE102009048493A1 (de) * 2009-09-25 2011-04-07 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein Fahrzeug, Fahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
DE102009053707A1 (de) 2009-11-18 2011-05-19 Man Nutzfahrzeuge Ag Vorrichtung zur Anzeige eines Hindernisses im Bewegungsbereich eines Nutzfahrzeugs
EP2385511A1 (de) * 2010-04-21 2011-11-09 Audi AG Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
CN102947870A (zh) * 2010-06-23 2013-02-27 大陆-特韦斯贸易合伙股份公司及两合公司 用于验证信息的方法和系统
DE102011077998A1 (de) 2010-06-23 2012-01-05 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsvalidierung
US9096228B2 (en) 2010-06-23 2015-08-04 Continental Teves Ag & Co. Ohg Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
WO2011161177A1 (de) 2010-06-23 2011-12-29 Continental Teves Ag & Co. Ohg Verfahren und system zur informationsvalidierung
US9393958B2 (en) 2010-06-23 2016-07-19 Continental Teves Ag & Co. Ohg Method and system for validating information
WO2011161176A1 (de) * 2010-06-23 2011-12-29 Continental Teves Ag & Co. Ohg Verfahren und system zur beschleunigten objekterkennung und/oder beschleunigten objektattributerkennung sowie verwendung des verfahrens
WO2012152746A1 (de) 2011-05-11 2012-11-15 Continental Teves Ag & Co. Ohg Abstandsbestimmung mittels eines kamerasensors
DE102011075674A1 (de) 2011-05-11 2012-11-15 Continental Teves Ag & Co. Ohg Abstandsbestimmung mittels eines Kamerasensors
US9373041B2 (en) 2011-05-11 2016-06-21 Continental Teves Ag & Co. Ohg Distance measurement by means of a camera sensor
DE102012221260A1 (de) 2011-11-21 2013-05-23 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur kommunikationssignalbasierten Positionsermittlung von Objekten im Straßenverkehr sowie Verwendung der Vorrichtung
WO2013076132A1 (de) 2011-11-21 2013-05-30 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur kommunikationssignalbasierten positionsermittlung von objekten im strassenverkehr sowie verwendung der vorrichtung
US9245447B2 (en) 2011-11-21 2016-01-26 Continental Teves Ag & Co. Ohg Method and device for the position determination of objects in road traffic, based on communication signals, and use of the device
US9607517B2 (en) 2011-11-21 2017-03-28 Continental Teves Ag & Co. Ohg Method and device for the position determination of objects by means of communication signals, and use of the device
DE102012208254A1 (de) 2012-05-16 2013-11-21 Continental Teves Ag & Co. Ohg Verfahren und System zur Erstellung eines aktuellen Situationsabbilds
US9373255B2 (en) 2012-05-16 2016-06-21 Continental Teves Ag & Co. Ohg Method and system for producing an up-to-date situation depiction
WO2013171088A1 (de) 2012-05-16 2013-11-21 Continental Teves Ag & Co. Ohg Verfahren und system zur erstellung eines aktuellen situationsabbilds
US9483940B2 (en) 2012-06-14 2016-11-01 Continental Teves Ag & Co. Ohg Method and system for adapting the driving-off behavior of a vehicle to a traffic signal installation, and use of the system
DE102012210069A1 (de) 2012-06-14 2013-12-19 Continental Teves Ag & Co. Ohg Verfahren und System zum Anpassen eines Anfahrverhaltens eines Fahrzeugs an eine Verkehrssignalanlage sowie Verwendung des Systems
DE102012221004A1 (de) 2012-11-16 2014-05-22 Continental Teves Ag & Co. Ohg Verfahren und System zur verbesserten Bestimmung einer Eigenposition eines Fahrzeugs
DE102012023498A1 (de) 2012-12-03 2014-06-05 Continental Automotive Gmbh Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
DE102012024959A1 (de) * 2012-12-20 2014-06-26 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
US9652982B2 (en) 2012-12-21 2017-05-16 Continental Teves Ag & Co. Ohg Method and system for learning traffic events, and use of the system
DE102012025159A1 (de) 2012-12-21 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren und System zum Lernen von Verkehrsereignissen sowie Verwendung des Systems
WO2014122090A1 (de) 2013-02-05 2014-08-14 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur anwesenheitserkennung von objekten in einer fahrgastzelle eines fahrzeugs
DE102013201836A1 (de) 2013-02-05 2014-08-07 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Anwesenheitserkennung von Objekten in einer Fahrgastzelle eines Fahrzeugs
WO2015014707A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen eines umfeldmodells beim ausfall eines sensors eines fahrzeugs
WO2015014708A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodelle für fahrzeuge
US10198951B2 (en) 2013-08-01 2019-02-05 Bayerische Motoren Werke Aktiengesellschaft Models of the surroundings for vehicles
DE102013220312A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel und Verfahren zum Informationsaustausch mit einem Fortbewegungsmittel
DE102013220526A1 (de) * 2013-10-11 2015-04-16 Bayerische Motoren Werke Aktiengesellschaft Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme
DE102014007030A1 (de) * 2014-05-13 2015-11-19 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtung zur Warnung vor einer kritischen Verkehrssituation
DE102014211013A1 (de) * 2014-06-10 2015-12-17 Continental Teves Ag & Co. Ohg Fahrzeugkommunikationsgerät
DE102015105784A1 (de) * 2015-04-15 2016-10-20 Denso Corporation Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern
US10395533B2 (en) 2016-03-03 2019-08-27 Audi Ag Method for acquiring and providing a database which relates to a predetermined surrounding area and contains environmental data
CN108475474A (zh) * 2016-03-03 2018-08-31 奥迪股份公司 用于确定和提供与预先规定的环境有关的、含有环境数据的数据库的方法
DE102016002603A1 (de) * 2016-03-03 2017-09-07 Audi Ag Verfahren zur Ermittlung und Bereitstellung einer auf eine vorbestimmte Umgebung bezogenen, Umfelddaten enthaltenden Datenbank
CN108475474B (zh) * 2016-03-03 2020-07-03 奥迪股份公司 用于确定和提供与预先规定的环境有关的、含有环境数据的数据库的方法
DE102016213038A1 (de) * 2016-07-18 2018-01-18 Zf Friedrichshafen Ag Verfahren zur Bereitstellung von Sensorinformationen für ein Kraftfahrzeug
DE102016215825A1 (de) * 2016-08-23 2018-03-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum externen Bereitstellen von Kartendaten für Assistenzsysteme von Kraftfahrzeugen
DE102020209515A1 (de) 2020-07-29 2022-02-03 Volkswagen Aktiengesellschaft Verfahren sowie System zur Unterstützung einer vorausschauenden Fahrstrategie
DE102021205061A1 (de) 2021-05-19 2022-11-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Ermitteln verdeckter Objekte in einer ein Umfeld repräsentierenden 3D-Punktwolke
WO2022243262A1 (de) 2021-05-19 2022-11-24 Robert Bosch Gmbh Verfahren und vorrichtung zum ermitteln verdeckter objekte in einer ein umfeld repräsentierenden 3d-punktwolke

Also Published As

Publication number Publication date
US8179281B2 (en) 2012-05-15
US20100045482A1 (en) 2010-02-25
EP2082388A1 (de) 2009-07-29
EP2082388B1 (de) 2015-08-19
WO2008043795A1 (de) 2008-04-17

Similar Documents

Publication Publication Date Title
EP2082388B1 (de) Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
DE102018100112B4 (de) Verfahren und Systeme zum Verarbeiten von lokalen und Cloud-Daten in einem Fahrzeug
DE102008036131B4 (de) Verfahren und Vorrichtung zur Erkennung der Verkehrssituation in einer Fahrzeugumgebung
DE102018129197B4 (de) Verkehrssignalerkennungsvorrichtung und System zum autonomen Fahren
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102013113573B4 (de) Verfahren zum Priorisieren einer Fahrzeugreaktion für mehrere aktive Sicherheitssysteme im Fahrzeug
DE102016217645B4 (de) Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs
DE102017100029A1 (de) Vorhersage einer fahrerabsicht an einer kreuzung
DE102017121525A1 (de) Fahrzeug-mit-Fahrzeug-Kooperation zur Einweisung des Verkehrs
DE102020216470A1 (de) Fahrerassistenzsystem, damit ausgestattetes fahrzeug und verfahren zum steuern des fahrzeugs
EP3830522B1 (de) Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm
DE112006001864T5 (de) System zur Beobachtung der Fahrzeugumgebung aus einer entfernten Perspektive
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112020005298T5 (de) Fahrzeugsteuersystem und fahrzeugsteuerverfahren
DE102020111250A1 (de) Grafische benutzerschnittstelle zur anzeige des verhaltens autonomer fahrzeuge
DE102017114876A1 (de) Fahrerassistenzsystem zur Kollisionsvermeidung mittels Warn- und Interventionskaskade
DE102017221616A1 (de) System und Verfahren für einen Einfädelassistenten unter Anwendung von Fahrzeugkommunikation
EP3722169B1 (de) Kraftfahrzeug und verfahren zur kollisionsvermeidung
WO2007131801A1 (de) Verfahren und vorrichtung zur vermeidung von kollisionen von fahrzeugen
WO2018054523A1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
DE112020004545T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung
DE112021003340T5 (de) Hindernisinformationsverwaltungsvorrichtung,hindernisinformationsverwaltungsverfahren und vorrichtung für ein fahrzeug
DE112020003708T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140910

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee