DE102021132466B3 - Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers - Google Patents

Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers Download PDF

Info

Publication number
DE102021132466B3
DE102021132466B3 DE102021132466.1A DE102021132466A DE102021132466B3 DE 102021132466 B3 DE102021132466 B3 DE 102021132466B3 DE 102021132466 A DE102021132466 A DE 102021132466A DE 102021132466 B3 DE102021132466 B3 DE 102021132466B3
Authority
DE
Germany
Prior art keywords
road user
assembly
mobile device
unit
data cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021132466.1A
Other languages
English (en)
Inventor
Lars Franke
Mathias Haberjahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Joynext GmbH
Original Assignee
Joynext GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Joynext GmbH filed Critical Joynext GmbH
Priority to DE102021132466.1A priority Critical patent/DE102021132466B3/de
Priority to US17/994,440 priority patent/US11884350B2/en
Priority to DE202022106738.4U priority patent/DE202022106738U1/de
Priority to CN202223262026.2U priority patent/CN220189009U/zh
Application granted granted Critical
Publication of DE102021132466B3 publication Critical patent/DE102021132466B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J6/00Arrangement of optical signalling or lighting devices on cycles; Mounting or supporting thereof; Circuits therefor
    • B62J6/22Warning or information lights
    • B62J6/24Warning or information lights warning or informing the rider, e.g. low fuel warning lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • B62J50/22Information-providing devices intended to provide information to rider or passenger electronic, e.g. displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts (303, 304) in der Nähe eines Verkehrsteilnehmers mit einer Baugruppe (100) umfassend eine Sensoreinheit (101), die zur Erfassung von Objekten (303, 304) in einer Umgebung des Verkehrsteilnehmers eingerichtet ist, eine Objekterkennungseinheit (102), die zur Objekterkennung von mit der Sensoreinheit (101) erfassten Objekten (303, 304) eingerichtet ist, eine Speichereinheit (103), die zur Speicherung erkannter Objekte (303, 304) in einer Objektliste eingerichtet ist, und eine Übertragungseinheit (104), die zur Übertragung der Objektliste eingerichtet ist.

Description

  • Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers.
  • Insbesondere zielt die Erfindung auf die Erkennung eines Objekts in der Nähe eines Verkehrsteilnehmers ab, das von dem Verkehrsteilnehmer nicht wahrgenommen wird, beispielsweise, weil sich zwischen dem Verkehrsteilnehmer und dem Objekt ein anderes Objekt befindet, das dem Verkehrsteilnehmer die Sicht auf das Objekt verdeckt, oder wegen Dunkelheit oder witterungsbedingt, beispielsweise durch Nebel, eingeschränkten Sichtverhältnissen.
  • Ein Objekt in der Nähe eines Verkehrsteilnehmers, das von dem Verkehrsteilnehmer nicht wahrgenommen wird, kann eine Gefahr für den Verkehrsteilnehmer und/oder für das Objekt darstellen, insbesondere, wenn sich der Verkehrsteilnehmer und das Objekt aufeinander zubewegen beziehungsweise sich der Verkehrsteilnehmer auf das Objekt oder das Objekt auf den Verkehrsteilnehmer zubewegt.
  • Automobile neuerer Bauart weisen häufig Sensoren auf, mit denen Objekte in der Umgebung eines Automobils detektiert werden können. Derartige Sensoren sind beispielsweise Kameras, Radarsensoren, Lidar-Sensoren oder Ultraschallsensoren. Jedoch weisen keineswegs alle Automobile solche Sensoren auf. Ferner können auch diese Sensoren nicht immer alle Objekte in der Nähe eines Automobils erfassen. Andere Fahrzeuge wie Zweiradfahrzeuge weisen in weit geringerer Anzahl und geringerem Ausmaß Sensoren auf, mit denen Objekte in ihrer Umgebung detektiert werden. Insbesondere Fahrräder sind in der Regel nicht mit derartigen Sensoren ausgestattet. Gerade Fahrradfahrer sind im Straßenverkehr jedoch besonders gefährdet, da Fahrräder keine Schutzfunktionen für ihre Fahrer aufweisen und ein Fahrradfahrer bei einem Verkehrsunfall somit einem wesentlichen höheren Verletzungsrisiko ausgesetzt ist als beispielsweise ein Fahrzeuginsasse eines Automobils. Gleichfalls ungeschützt sind Fußgänger. Fahrradfahrer und Fußgänger werden auch als verletzliche Verkehrsteilnehmer, engl. Vulnerable Road User (VRU), bezeichnet.
  • DE 102017201538 A1 offenbart ein Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt in einer fahrzeugfremden Recheneinheit, wobei die fahrzeugfremde Recheneinheit Daten über einen Aufenthaltsort und eine Bewegung des Objekts von dem ersten Fahrzeug empfängt, zukünftige Aufenthaltsorte des Objekts vorherbestimmt und wenigstens einen der zukünftigen Aufenthaltsorte des Objekts an wenigstens ein zweites Fahrzeug übermittelt.
  • US 9120484 B1 beschreibt ein Verfahren und eine Vorrichtung zum Bestimmen eines oder mehrerer Objektmodelle eines autonomen Fahrzeuges, um das Verhalten der erkannten Objekte vorherzusagen.
  • DE 102018221054 A1 beschreibt ein Verfahren zum Bereitstellen von Kartendaten in einem ersten Kraftfahrzeug, gekennzeichnet durch die Schritte:
    1. a) Übermitteln von durch mehrere zweite Kraftfahrzeuge erfassten Positionsdaten betreffend in einer Umgebung der jeweiligen zweiten Kraftfahrzeuge durch die zweiten Kraftfahrzeuge erfasste Personen an eine zentrale Datenverarbeitungseinrichtung
    2. b) In Abhängigkeit von den aggregierten Positionsdaten Bestimmen mindestens eines Wegs, der von zumindest manchen der Personen zumindest zum Teil benutzt wurde, mittels der zentralen Datenverarbeitungseinrichtung und
    3. c) Bereitstellen von Wegdaten des bestimmten mindestens einen Wegs als Teil von den Kartendaten in dem ersten Kraftfahrzeug.
  • DE 112020001649 T5 offenbart eine Vorrichtung, umfassend zumindest eine Schnittstelle zum Empfangen eines Signals, das ein zweites Fahrzeug in der Nähe eines ersten Fahrzeugs identifiziert; und eine Verarbeitungsschaltungsanordnung, die ausgebildet ist, ein dem zweiten Fahrzeug zugeordnetes Verhaltensmodell zu erhalten, wobei das Verhaltensmodell das Fahrverhalten des zweiten Fahrzeugs definiert; das Verhaltensmodell zur Vorhersage von Aktionen des zweiten Fahrzeugs zu verwenden; und einen Pfadplan für das erste Fahrzeug basierend auf den vorhergesagten Aktionen des zweiten Fahrzeugs zu bestimmen.
  • Der Erfindung liegt die Aufgabe zugrunde, die Möglichkeiten zum Erkennen von Objekten in der Nähe eines verletzlichen Verkehrsteilnehmers (VRU) zu erweitern und zu verbessern. Die Aufgabe wird erfindungsgemäß mit einem Verfahren zum Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers, insbesondere eines verletzlichen Verkehrsteilnehmers, unter Verwendung einer Baugruppe gelöst, die folgende Funktionseinheiten aufweist:
    • - eine Sensoreinheit, die zur Erfassung von Objekten in einer Umgebung des Verkehrsteilnehmers eingerichtet ist,
    • - eine Objekterkennungseinheit, die zur Objekterkennung von mit der Sensoreinheit erfassten Objekten eingerichtet ist,
    • - eine Speichereinheit, die zur Speicherung erkannter Objekte in einer Objektliste eingerichtet ist, und
    • - eine Übertragungseinheit, die zur Übertragung der Objektliste, beispielsweise an eine Datenwolke (engl. Cloud) über eine erste Funkverbindung, insbesondere über eine Mobilfunkverbindung, oder/und an ein Mobilgerät über eine zweite Funkverbindung, eingerichtet ist, und das Verfahren folgende Schritte aufweist:
    • - Erfassung von Objekten (303, 304) in einer Umgebung des ersten Verkehrsteilnehmers mit der Sensoreinheit (101) der Baugruppe (100),
    • - Erkennung von mit der Sensoreinheit (101) erfassten Objekten (303, 304) mit der Objekterkennungseinheit (102) der Baugruppe (100) und
    • - Speicherung erkannter Objekte (303, 304) in einer Objektliste mit der Speichereinheit (103) der Baugruppe (100),
    • - Übertragung der Objektliste mit der Übertragungseinheit (104) der Baugruppe (100) in eine Datenwolke (306),
    • - Bestimmung einer Position des ersten Verkehrsteilnehmers,
    • - Übertragung der Position des ersten Verkehrsteilnehmers in die Datenwolke (306),
    • - Identifizierung eines Objekts (303, 304) in der Nähe des ersten Verkehrsteilnehmers in der Datenwolke (306) unter Verwendung der Objektliste,
    • - Übertragung einer Position und eines Objekttyps des identifizierten Objekts (303, 304) aus der Datenwolke (306) an ein Mobilgerät des ersten Verkehrsteilnehmers und
    • - Darstellung des Objekts (303, 304) und dessen Position auf dem Mobilgerät des ersten Verkehrsteilnehmers.
  • Mit einem Mobilgerät, das auch als mobiles Endgerät bezeichnet wird, wird ein Endgerät bezeichnet, das von einem Benutzer ohne große Mühe mitgeführt werden kann und somit mobil einsetzbar ist. Verbreitete Mobilgeräte sind beispielsweise Mobiltelefone, insbesondere Smartphones, Tablet-Computer und Notebooks.
  • Ein erfindungsgemäßes Verfahren ermöglicht die Erfassung von Objekten in einer Umgebung eines Verkehrsteilnehmers durch eine Sensoreinheit und die Erkennung erfasster Objekte durch eine Objekterkennungseinheit. Ferner ermöglicht die Baugruppe die Speicherung erkannter Objekte in einer Objektliste durch eine Speichereinheit und die Übertragung der Objektliste durch eine Übertragungseinheit an eine Datenwolke, entweder direkt oder über ein Mobilgerät, das die Objektliste in die Datenwolke überträgt. In der Datenwolke kann die Objektliste, insbesondere zusammen mit weiteren Objektlisten, ausgewertet und zur Identifizierung von Objekten in der Umgebung des Verkehrsteilnehmers verwendet werden. Die auf diese Weise in der Datenwolke ermittelten Informationen zu Objekten in der Umgebung des Verkehrsteilnehmers können in der Datenwolke für mehrere Verkehrsteilnehmer bereitgestellt werden. Insbesondere kann in der Datenwolke ein Objekt in der Nähe des Verkehrsteilnehmers identifiziert werden und die Position und der Objekttyp des identifizierten Objekts kann aus der Datenwolke an ein Mobilgerät des Verkehrsteilnehmers übertragen werden. Dadurch kann der Verkehrsteilnehmer insbesondere vor einer potentiell gefährlichen Situation gewarnt werden.
  • Bei einer weiteren Ausführungsform der Erfindung ist die Baugruppe an einem Fahrzeug angeordnet oder anordenbar. Beispielsweise ist das Fahrzeug ein Zweiradfahrzeug, insbesondere ein Fahrrad. Ferner ist die Baugruppe beispielsweise an oder in einer Beleuchtungsvorrichtung des Fahrzeugs angeordnet oder anordenbar.
  • Die vorgenannte Ausführungsform der Erfindung ermöglicht die Ausrüstung und insbesondere die Nachrüstung eines Fahrzeugs mit der Baugruppe. Die Anordnung der Baugruppe an oder in einer Beleuchtungsvorrichtung des Fahrzeugs ist vorteilhaft, da eine Energieversorgung der Beleuchtungsvorrichtung auch zur Energieversorgung der Funktionseinheiten der Baugruppe verwendet werden kann. Dadurch braucht für diese Funktionseinheiten keine separate Energieversorgung vorgesehen zu werden, beziehungsweise die Anbindung der Beleuchtungsvorrichtung an eine Energieversorgung des Fahrzeugs kann auch zur Anbindung der Funktionseinheiten der Baugruppe an die Energieversorgung des Fahrzeugs genutzt werden.
  • Insbesondere kann auch ein Fahrrad mit einer Baugruppe ausgestattet werden. Beispielsweise kann ein Elektrofahrrad (engl. Electric Bike, abgekürzt E-Bike), das heißt ein Fahrrad mit einem Elektromotor, mit der Baugruppe ausgestattet werden, wobei eine Antriebsbatterie des Elektrofahrrads zur Energieversorgung der Funktionseinheiten der Baugruppe eingesetzt werden kann.
  • Bei einer weiteren Ausführungsform der Erfindung weist die Sensoreinheit der Baugruppe eine Kamera, einen Radar-Sensor, einen Lidar-Sensor und/oder ein Funkmodul, beispielsweise ein Funkmodul einer V2X-Kommunikation, auf.
  • V2X-Kommunikation wird auch als Vehicle-to-Everything Communication, Car2X-Kommunikation oder Car-to-X Communication bezeichnet und ermöglicht den Austausch von Informationen und Daten zwischen einem Fahrzeug und anderen Verkehrsteilnehmern der V2X-Kommunikation in einer Umgebung des Fahrzeugs. Die Kommunikation zwischen Teilnehmern der V2X-Kommunikation erfolgt in der Regel durch Funksignale. Die Funksignale werden beispielsweise mit ITS-G5 / DSRC (Abkürzung für Dedicated Short Range Communication; deutsch zweckgebundene Nahbereichskommunikation) oder in einem Mobilfunknetz, beispielsweise über PC5- oder Uu-Schnittstellen, zwischen den Teilnehmern ausgetauscht.
  • Bei einer weiteren Ausführungsform der Erfindung ist die zweite Funkverbindung, über die die Objektliste an ein Mobilgerät übertragen wird, eine Bluetooth-Verbindung, eine WLAN-Verbindung oder eine NFC-Verbindung (NFC: Abkürzung für Near Field Communication; deutsch Nahfeldkommunikation), eingerichtet.
  • Die Aufgabe wird erfindungsgemäß ferner mit einem Verfahren zum Erkennen eines Objekts in der Nähe eines ersten Verkehrsteilnehmers unter Verwendung einer erfindungsgemäßen Baugruppe gelöst, die von dem ersten oder einem zweiten Verkehrsteilnehmer mitgeführt wird. Das Verfahren weist folgende Schritte auf:
    • - Erfassung von Objekten in einer Umgebung des ersten Verkehrsteilnehmers mit der Sensoreinheit der Baugruppe,
    • - Erkennung von mit der Sensoreinheit erfassten Objekten mit der Objekterkennungseinheit der Baugruppe und
    • - Speicherung erkannter Objekte in einer Objektliste mit der Speichereinheit der Baugruppe.
  • Bei dem erfindungsgemäßen Verfahren werden also mit der Sensoreinheit einer erfindungsgemäßen Baugruppe Objekte in einer Umgebung eines ersten Verkehrsteilnehmers erfasst. Die Baugruppe wird dabei von dem ersten Verkehrsteilnehmer oder einem zweiten Verkehrsteilnehmer mitgeführt. Insbesondere ist die Baugruppe beispielsweise an einem Fahrzeug des die Baugruppe mitführenden Verkehrsteilnehmers angeordnet, beispielsweise an oder in einer Beleuchtungsvorrichtung des Fahrzeugs. Des Weiteren werden die erfassten Objekte mit der Objekterkennungseinheit der Baugruppe erkannt und mit der Speichereinheit der Baugruppe in einer Objektliste gespeichert. Die Vorteile des erfindungsgemäßen Verfahrens entsprechen den oben genannten Vorteilen einer erfindungsgemäßen Baugruppe
  • Eine Ausführungsform des erfindungsgemäßen Verfahrens weist die folgenden weiteren Schritte auf:
    • - Übertragung der Objektliste mit der Übertragungseinheit der Baugruppe in eine Datenwolke,
    • - Bestimmung einer Position des ersten Verkehrsteilnehmers,
    • - Übertragung der Position des ersten Verkehrsteilnehmers in die Datenwolke,
    • - Identifizierung eines Objekts in der Nähe des ersten Verkehrsteilnehmers in der Datenwolke unter Verwendung der Objektliste,
    • - Übertragung einer Position und eines Objekttyps des identifizierten Objekts aus der Datenwolke an ein Mobilgerät des ersten Verkehrsteilnehmers und
    • - Darstellung des Objekts und dessen Position auf dem Mobilgerät des ersten Verkehrsteilnehmers.
  • Bei der vorgenannten Ausführungsform des erfindungsgemäßen Verfahrens wird also in einer Datenwolke ein Objekt in der Nähe des ersten Verkehrsteilnehmers identifiziert. Um dies zu ermöglichen, wird die Objektliste in die Datenwolke übertragen und es wird die Position des ersten Verkehrsteilnehmers bestimmt und in die Datenwolke übertragen. Anhand der Objektliste und möglicherweise weiteren Objektlisten, die von anderen Verkehrsteilnehmern in die Datenwolke übertragen werden, wird dann in der Datenwolke ein Objekt in der Nähe des ersten Verkehrsteilnehmers identifiziert. Die Position und der Objekttyp des identifizierten Objekts werden aus der Datenwolke an ein Mobilgerät des ersten Verkehrsteilnehmers übertragen und das Objekt und dessen Position werden auf dem Mobilgerät des ersten Verkehrsteilnehmers dargestellt. Dadurch kann der erste Verkehrsteilnehmer insbesondere auf ein von ihm nicht wahrgenommenes Objekt in seiner Nähe aufmerksam gemacht und gewarnt werden.
  • Es ist dabei nicht erforderlich, dass der erste Verkehrsteilnehmer die Baugruppe selbst mitführt. Stattdessen kann die Baugruppe auch von einem zweiten Verkehrsteilnehmer mitgeführt und zum Erfassen und Erkennen von Objekten in der Umgebung des ersten Verkehrsteilnehmers und zum Erstellen der Objektliste verwendet werden. Selbstverständlich kann die Baugruppe alternativ auch von dem ersten Verkehrsteilnehmer mitgeführt werden. Wesentlich ist nur, dass Objekte in der Umgebung des ersten Verkehrsteilnehmers mit einer erfindungsgemäßen Baugruppe, die von irgendeinem Verkehrsteilnehmer mitgeführt wird, erfasst und erkannt wird, eine Objektliste dieser Objekte erstellt wird und die Objektliste dann in die Datenwolke übertragen wird, um dort ausgewertet werden zu können.
  • Bei einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird der erste Verkehrsteilnehmer gewarnt, insbesondere wenn ein dargestelltes Objekt einen Mindestabstand von dem ersten Verkehrsteilnehmer unterschreitet, und/oder sich in einem rückwärtigen Bereich des ersten Verkehrsteilnehmers befindet und/oder sich dem ersten Verkehrsteilnehmer mit hoher Geschwindigkeit annähert. Die Warnung wird beispielsweise akustisch, visuell und/oder haptisch an den ersten Verkehrsteilnehmer ausgegeben, beispielsweise durch das Mobilgerät des ersten Verkehrsteilnehmers.
  • Bei einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens werden in der Objektliste Daten gespeichert, die für ein Objekt jeweils den Typ des Objekts (Objekttyp), eine Position des Objekts und/oder eine Geschwindigkeit und/oder eine Richtung einer Bewegung des Objekts beschreiben.
  • Durch die Position eines Objekts kann in der Datenwolke ermittelt werden, wie nahe sich das Objekt an dem ersten Verkehrsteilnehmer befindet. Durch die Geschwindigkeit und die Richtung der Bewegung eines Objekts kann in der Datenwolke ermittelt werden, ob und wie schnell sich das Objekt dem ersten Verkehrsteilnehmer nähert. Der Typ eines Objekts charakterisiert das Objekt selbst. Beispielsweise beschreibt der Typ eines Objekts, ob das Objekt ein Fahrzeug und gegebenenfalls welche Art von Fahrzeug das Objekt ist, oder ob das Objekt beispielsweise ein Fußgänger oder Fahrradfahrer ist.
  • Die Position des Objekts kann dabei beispielsweise relativ zu dem Verkehrsteilnehmer beschrieben werden. Beispielsweise wird die Position des Objekts durch einen Abstand des Objekts von dem Verkehrsteilnehmer und eine Richtung, in der sich das Objekt von dem Verkehrsteilnehmer aus gesehen befindet, beschrieben. Die Richtung wird dabei beispielsweise durch einen Winkel in einem auf den Verkehrsteilnehmer bezogenen Koordinatensystem beschrieben. Auch die Geschwindigkeit des Objekts kann relativ zu dem Verkehrsteilnehmer beschrieben werden, das heißt als eine Relativgeschwindigkeit zwischen dem Objekt und dem Verkehrsteilnehmer.
  • Bei einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die Objektliste zunächst von der Übertragungseinheit an ein Mobilgerät des die Baugruppe mitführenden Verkehrsteilnehmers übertragen. Danach wird die Objektliste beispielsweise über eine Mobilfunkverbindung von dem Mobilgerät des die Baugruppe mitführenden Verkehrsteilnehmers in die Datenwolke übertragen.
  • Bei einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens werden die Position und der Objekttyp des identifizierten Objekts über eine Mobilfunkverbindung aus der Datenwolke an das Mobilgerät des ersten Verkehrsteilnehmers übertragen.
  • Die vorgenannten Ausführungsformen des erfindungsgemäßen Verfahrens berücksichtigen, dass in der Regel eine Mobilfunkverbindung benötigt wird, um über ein Mobilgerät eines Verkehrsteilnehmers mit einer Datenwolke zu kommunizieren, da andere Kommunikationsnetze für diesen Zweck nicht überall verfügbar sind.
  • Ausführungsformen der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert. Dabei zeigen:
    • 1 ein Blockdiagramm einer Ausführungsform einer Baugruppe zum Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers,
    • 2 ein Ablaufdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens,
    • 3 eine Verwendung einer Baugruppe gemäß der Erfindung.
  • 1 (1) zeigt ein Blockdiagramm einer Baugruppe 100 zum Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers gemäß einer Ausführungsform der Erfindung. Die Baugruppe 100 weist folgende Funktionseinheiten auf, die in 1 abgebildet sind: eine Sensoreinheit 101, eine Objekterkennungseinheit 102, eine Speichereinheit 103 und eine Übertragungseinheit 104.
  • Die Baugruppe 100 ist beispielsweise an einem Fahrzeug angeordnet oder anordenbar. Das Fahrzeug ist beispielsweise ein Zweiradfahrzeug, insbesondere ein Fahrrad. Die Baugruppe ist beispielsweise an oder in einer Beleuchtungsvorrichtung oder separat am Fahrzeug angeordnet oder anordenbar oder beispielsweise in dem Fahrzeugrahmen integriert.
  • Die Sensoreinheit 101 ist zur Erfassung von Objekten in einer Umgebung des Verkehrsteilnehmers eingerichtet. Beispielsweise weist die Sensoreinheit 101 zu diesem Zweck eine Kamera, einen Radar-Sensor, einen Lidar-Sensor und/oder ein Funkmodul einer V2X-Kommunikation auf.
  • Die Objekterkennungseinheit 102 ist zur Objekterkennung von mit der Sensoreinheit 101 erfassten Objekten eingerichtet. Beispielsweise ist die Objekterkennungseinheit 102 eingerichtet, Sensorsignale einer Kamera, eines Radar-Sensors, und/oder eines Lidar-Sensors der Sensoreinheit 101 und/oder Funksignale einer V2X-Kommunikation auszuwerten.
  • Die Speichereinheit 103 ist zur Speicherung erkannter Objekte in einer Objektliste eingerichtet. Beispielsweise ist die Speichereinheit 103 eingerichtet, in der Objektliste Daten zu speichern, die für ein Objekt jeweils den Typ des Objekts (Objekttyp), eine Position des Objekts und/oder eine Geschwindigkeit und/oder eine Richtung des Objekts beschreiben. Die Position des Objekts und/oder die Geschwindigkeit und/oder die Richtung des Objekts werden dabei beispielsweise relativ zu dem Verkehrsteilnehmer beschrieben.
  • Die Speichereinheit 103 verfügt beispielsweise über einen nichtflüchtigen Speicher, welcher beispielsweise als EEPROM (engl. Electrically Erasable Programmable Read-Only Memory) ausgebildet ist. Alternativ dazu kann die Speichereinheit 103 auch eine andere Art von Speicher aufweisen, beispielsweise einen Flash-EEPROM oder eine Festplatte. Insbesondere kann die Speichereinheit 103 über mehrere der genannten Speicher verfügen.
  • Die Übertragungseinheit 104 ist zur Übertragung der Objektliste an ein Mobilgerät eingerichtet. Beispielsweise ist die Übertragungseinheit 104 zum Übertragen der Objektliste an das Mobilgerät über eine Funkverbindung, insbesondere über eine Bluetooth-Verbindung, eine WLAN-Verbindung oder eine NFC-Verbindung, eingerichtet.
  • 2 (2) zeigt ein Ablaufdiagramm 200 eines Verfahrens mit Verfahrensschritten 201 bis 210 zum Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers gemäß einer Ausführungsform der Erfindung. Das Verfahren wird unter Verwendung einer Baugruppe 100 ausgeführt, die Bezug nehmend auf 1 beschrieben wurde.
  • Die Verfahrensschritte 201 bis 210 werden nachfolgend auch unter Bezugnahme auf 3 beschrieben.
  • 3 (3) zeigt eine Verwendung 300 der Baugruppe 100. Die Baugruppe 100 ist an einem Fahrzeug 301 des Verkehrsteilnehmers angeordnet. Bei der dargestellten Verwendung 300 der Baugruppe 100 ist das Fahrzeug 301 ein Elektrofahrrad und die Baugruppe 100 ist an einer Beleuchtungsvorrichtung 302 des Elektrofahrrads angeordnet, die ein Rücklicht des Elektrofahrrads aufweist. Mit der Sensoreinheit 101 der Baugruppe 100 werden Objekte 303, 304 in einer Umgebung des Verkehrsteilnehmers erfasst. In 3 ist beispielhaft ein Objekt 303 dargestellt, das mit einer Kamera, einem Radar-Sensor oder einem Lidar-Sensor der Sensoreinheit 101 erfasst wird. Ferner weist die Sensoreinheit 101 ein Funkmodul einer V2X-Kommunikation auf, beispielsweise ein Funkmodul für ITS-G5 / DSRC oder eine PC5-Schnittstelle. In 3 ist beispielhaft ein Objekt 304 dargestellt, mit dem die Sensoreinheit 101 über das Funkmodul kommuniziert. Die Übertragungseinheit 104 der Baugruppe 100 kommuniziert über eine Funkverbindung, beispielsweise über eine Bluetooth-Verbindung, eine WLAN-Verbindung oder eine NFC-Verbindung, mit einem Mobilgerät 305 des Verkehrsteilnehmers. Das Mobilgerät 305 kommuniziert über eine Mobilfunkverbindung mit einer Datenwolke 306.
  • In einem ersten Verfahrensschritt 201 werden Objekte 303, 304 in einer Umgebung des Verkehrsteilnehmers mit der Sensoreinheit 101 der Baugruppe 100 erfasst. Beispielsweise werden Objekte 303, 304 mit einer Kamera, einem Radar-Sensor, einem Lidar-Sensor und/oder einem Funkmodul einer V2X-Kommunikation der Sensoreinheit 101 erfasst.
  • In einem zweiten Verfahrensschritt 202 werden mit der Sensoreinheit 101 erfasste Objekte 303, 304 mit der Objekterkennungseinheit 102 der Baugruppe 100 erkannt.
  • In einem dritten Verfahrensschritt 203 werden mit der Objekterkennungseinheit 102 erkannte Objekte 303, 304 mit der Speichereinheit 103 der Baugruppe 100 in einer Objektliste gespeichert. Beispielsweise werden in der Objektliste Daten gespeichert, die für ein Objekt 303, 304 jeweils den Objekttyp des Objekts 303, 304, eine Position des Objekts 303, 304 und/oder eine Geschwindigkeit des Objekts 303, 304 und/oder eine Richtung des Objekts 303, 304 beschreiben.
  • Die Position des Objekts 303, 304 kann dabei beispielsweise relativ zu dem Verkehrsteilnehmer beschrieben werden. Beispielsweise wird die Position des Objekts 303, 304 durch einen Abstand des Objekts 303, 304 von dem Verkehrsteilnehmer und eine Richtung, in der sich das Objekt 303, 304 von dem Verkehrsteilnehmer aus gesehen befindet, beschrieben. Die Richtung wird dabei beispielsweise durch einen Winkel in einem auf den Verkehrsteilnehmer bezogenen Koordinatensystem beschrieben. Auch die Geschwindigkeit des Objekts 303, 304 kann relativ zu dem Verkehrsteilnehmer beschrieben werden, das heißt als eine Relativgeschwindigkeit zwischen dem Objekt 303, 304 und dem Verkehrsteilnehmer.
  • In einem vierten Verfahrensschritt 204 wird die Objektliste mit der Übertragungseinheit 104 der Baugruppe 100 an ein von dem Verkehrsteilnehmer mitgeführtes Mobilgerät 305 des Verkehrsteilnehmers übertragen. Beispielsweise wird die Objektliste mit der Übertragungseinheit 104 über eine Funkverbindung, beispielsweise über eine Bluetooth-Verbindung, eine WLAN-Verbindung oder eine NFC-Verbindung, an das Mobilgerät 305 übertragen.
  • In einem fünften Verfahrensschritt 205 wird die Objektliste von dem Mobilgerät 305 in eine Datenwolke 306 übertragen. Beispielsweise wird die Objektliste über eine Mobilfunkverbindung von dem Mobilgerät 305 in die Datenwolke 306 übertragen.
  • In einem sechsten Verfahrensschritt 206 wird eine Position des Verkehrsteilnehmers bestimmt. Beispielsweise weist das Mobilgerät 305 eine Positionsbestimmungseinheit auf, mit der die Position des Verkehrsteilnehmers bestimmt wird. Alternativ weist die Baugruppe 100 eine Positionsbestimmungseinheit auf, mit der die Position des Verkehrsteilnehmers bestimmt wird.
  • Die Position des Verkehrsteilnehmers wird mit der Positionsbestimmungseinheit beispielsweise unter Verwendung eines oder mehrerer Navigationssatellitensysteme bestimmt, beispielsweise unter Verwendung von GPS, GLONASS, Beidou und/oder Galileo. In diesem Fall weist die Positionsbestimmungseinheit einen Empfänger für Satellitensignale auf, die von Navigationssatelliten der Navigationssatellitensysteme gesendet werden. Mit der Positionsbestimmungseinheit werden aus den von ihr empfangenen Satellitensignalen Positionskoordinaten gewonnen, welche eine geografische Position der Positionsbestimmungseinheit repräsentieren.
  • In einem siebten Verfahrensschritt 207 wird die Position des Verkehrsteilnehmers mit dem Mobilgerät 305 des Verkehrsteilnehmers in die Datenwolke 306 übertragen. Wenn die Position des Verkehrsteilnehmers nicht mit einer Positionsbestimmungseinheit des Mobilgeräts 305 ermittelt wird, wird die Position dabei zunächst an das Mobilgerät 305 und dann von dem Mobilgerät 305 in die Datenwolke 306 übertragen. Wenn die Position des Verkehrsteilnehmers beispielsweise mit einer Positionsbestimmungseinheit der Baugruppe 100 ermittelt wird, wird die Position zunächst mit der Übertragungseinheit 104 der Baugruppe 100 an das Mobilgerät 305 übertragen.
  • In einem achten Verfahrensschritt 208 wird in der Datenwolke 306 ein Objekt 303, 304 in der Nähe des Verkehrsteilnehmers identifiziert. Dabei wird die in dem fünften Verfahrensschritt 205 in die Datenwolke 306 übertragene Objektliste verwendet. Ferner können dabei zusätzlich weitere in die Datenwolke 306 übertragene Objektlisten verwendet werden, beispielsweise Objektlisten, die von anderen Verkehrsteilnehmern in die Datenwolke 306 übertragen wurden. Wenn in der Datenwolke 306 mehrere Objektlisten für Objekte 303, 304 in der Umgebung des Verkehrsteilnehmers vorliegen, werden diese Objektlisten in der Datenwolke 306 beispielsweise zu einer Umgebungsbeschreibung der Umgebung des Verkehrsteilnehmers fusioniert, das heißt die Objektlisten werden miteinander zu einer umfassenderen Umgebungsbeschreibung kombiniert. Diese Umgebungsbeschreibung wird in der Datenwolke 306 dann genutzt, um ein Objekt 303, 304 in der Nähe des Verkehrsteilnehmers zu identifizieren.
  • In einem neunten Verfahrensschritt 209 werden eine Position und ein Objekttyp des in dem achten Verfahrensschritt 208 identifizierten Objekts 303, 304 aus der Datenwolke 306 an das Mobilgerät 305 des Verkehrsteilnehmers übertragen. Beispielsweise werden die Position und der Objekttyp des identifizierten Objekts 303, 304 über eine Mobilfunkverbindung aus der Datenwolke 306 an das Mobilgerät 305 des Verkehrsteilnehmers übertragen.
  • In einem zehnten Verfahrensschritt 210 werden das in dem achten Verfahrensschritt 208 identifizierte Objekt 303, 304 und dessen Position auf dem Mobilgerät 305 des Verkehrsteilnehmers dargestellt. Darüber hinaus kann der Verkehrsteilnehmer akustisch, visuell und/oder haptisch gewarnt werden, beispielsweise wenn das Objekt 303, 304 einen Mindestabstand von dem Verkehrsteilnehmer unterschreitet, und/oder sich in einem rückwärtigen Bereich des Verkehrsteilnehmers befindet und/oder sich dem Verkehrsteilnehmer mit hoher Geschwindigkeit annähert.
  • Die oben anhand der 2 und 3 beschriebene Ausführungsform des erfindungsgemäßen Verfahrens kann zu einer alternativen Ausführungsform des erfindungsgemäßen Verfahrens abgewandelt werden, bei der ein Objekt 303, 304 in der Nähe eines ersten Verkehrsteilnehmers unter Verwendung einer Objektliste identifiziert wird, die mit einer von einem zweiten Verkehrsteilnehmer mitgeführten Baugruppe 100 erstellt wird und mit einem Mobilgerät des zweiten Verkehrsteilnehmers in die Datenwolke 306 übertragen wird.
  • Bei dieser alternativen Ausführungsform des erfindungsgemäßen Verfahrens werden die Verfahrensschritte 201 bis 205 mit der von dem zweiten Verkehrsteilnehmer mitgeführten Baugruppe 100 und dem Mobilgerät des zweiten Verkehrsteilnehmers durchgeführt. Es werden also Objekte 303, 304 in der Umgebung des ersten Verkehrsteilnehmers mit der von dem zweiten Verkehrsteilnehmer mitgeführten Baugruppe 100 erfasst, erkannt und in einer Objektliste gespeichert. Diese Objektliste wird an das Mobilgerät des zweiten Verkehrsteilnehmers und von dem Mobilgerät des zweiten Verkehrsteilnehmers in die Datenwolke 306 übertragen.
  • Die weiteren Verfahrensschritte 206 bis 210 werden dann der ersten Ausführungsform des erfindungsgemäßen Verfahrens entsprechend ausgeführt. Dabei wird in den Verfahrensschritten 206 und 207 eine Position des ersten Verkehrsteilnehmers bestimmt und in die Datenwolke 306 übertragen, wobei die Position des ersten Verkehrsteilnehmers beispielsweise mit einer Positionsbestimmungseinheit eines Mobilgeräts des ersten Verkehrsteilnehmers bestimmt wird. In dem Verfahrensschritt 208 wird analog zu der ersten Ausführungsform des erfindungsgemäßen Verfahrens in der Datenwolke 306 ein Objekt 303, 304 in der Nähe des ersten Verkehrsteilnehmers identifiziert. In dem Verfahrensschritt 209 werden die Position und der Objekttyp des in dem Verfahrensschritt 208 identifizierten Objekts aus der Datenwolke 306 an das Mobilgerät des ersten Verkehrsteilnehmers übertragen. In dem Verfahrensschritt 210 werden das in dem achten Verfahrensschritt 208 identifizierte Objekt 303, 304 und dessen Position auf dem Mobilgerät 305 des ersten Verkehrsteilnehmers dargestellt sowie eine Warnung für den ersten Verkehrsteilnehmer erzeugt. Bei der zweiten Ausführungsform des erfindungsgemäßen Verfahrens braucht der erste Verkehrsteilnehmer somit nicht selbst eine Baugruppe 100 mitzuführen.
  • Bezugszeichenliste
  • 100
    Baugruppe
    101
    Sensoreinheit
    102
    Objekterkennungseinheit
    103
    Speichereinheit
    104
    Übertragungseinheit
    200
    Ablaufdiagramm
    201 bis 210
    Verfahrensschritt
    300
    Verwendung einer Baugruppe
    301
    Fahrzeug
    302
    Beleuchtungsvorrichtung
    303, 304
    Objekt
    305
    Mobilgerät
    306
    Datenwolke

Claims (13)

  1. Verfahren zum Erkennen eines Objekts (303, 304) in der Nähe eines ersten Verkehrsteilnehmers unter Verwendung einer Baugruppe (100) zum Erkennen eines Objekts (303, 304), die von dem ersten oder einem zweiten Verkehrsteilnehmer mitgeführt wird, umfassend eine Sensoreinheit (101), die zur Erfassung von Objekten (303, 304) in einer Umgebung des Verkehrsteilnehmers eingerichtet ist, eine Objekterkennungseinheit (102), die zur Objekterkennung von mit der Sensoreinheit (101) erfassten Objekten (303, 304) eingerichtet ist, eine Speichereinheit (103), die zur Speicherung erkannter Objekte (303, 304) in einer Objektliste eingerichtet ist, und eine Übertragungseinheit (104), die zur Übertragung der Objektliste eingerichtet ist, mit folgenden Schritten: - Erfassung von Objekten (303, 304) in einer Umgebung des ersten Verkehrsteilnehmers mit der Sensoreinheit (101) der Baugruppe (100), - Erkennung von mit der Sensoreinheit (101) erfassten Objekten (303, 304) mit der Objekterkennungseinheit (102) der Baugruppe (100), - Speicherung erkannter Objekte (303, 304) in einer Objektliste mit der Speichereinheit (103) der Baugruppe (100), - Übertragung der Objektliste mit der Übertragungseinheit (104) der Baugruppe (100) in eine Datenwolke (306), - Bestimmung einer Position des ersten Verkehrsteilnehmers, - Übertragung der Position des ersten Verkehrsteilnehmers in die Datenwolke (306), - Identifizierung eines Objekts (303, 304) in der Nähe des ersten Verkehrsteilnehmers in der Datenwolke (306) unter Verwendung der Objektliste, - Übertragung einer Position und eines Objekttyps des identifizierten Objekts (303, 304) aus der Datenwolke (306) an ein Mobilgerät des ersten Verkehrsteilnehmers und - Darstellung des Objekts (303, 304) und dessen Position auf dem Mobilgerät des ersten Verkehrsteilnehmers.
  2. Verfahren gemäß Anspruch 1, wobei die Baugruppe (100) an einem Fahrzeug (301) angeordnet oder anordenbar ist.
  3. Verfahren gemäß Anspruch 2, wobei das Fahrzeug (301) ein Zweiradfahrzeug, insbesondere ein Fahrrad, ist.
  4. Verfahren gemäß Anspruch 2 oder 3, wobei die Baugruppe (100) an oder in einer Beleuchtungsvorrichtung (302) des Fahrzeugs (301) angeordnet oder anordenbar ist.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Sensoreinheit (101) der Baugruppe (100) eine Kamera, einen Radar-Sensor, einen Lidar-Sensor und/oder ein Funkmodul aufweist.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei die Übertragungseinheit (104) der Baugruppe (100) zum Übertragen der Objektliste an eine Datenwolke über eine erste Funkverbindung, insbesondere über eine Mobilfunkverbindung eingerichtet ist.
  7. Verfahren gemäß einem der Ansprüche 1 bis 5, wobei die Übertragungseinheit (104) der Baugruppe (100) zum Übertragen der Objektliste an ein Mobilgerät (305) über eine zweite Funkverbindung eingerichtet ist.
  8. Verfahren gemäß Anspruch 7, wobei die zweite Funkverbindung eine Bluetooth-Verbindung oder eine WLAN-Verbindung ist.
  9. Verfahren gemäß Anspruch 1, mit dem weiteren Schritt: - Warnung des ersten Verkehrsteilnehmers, insbesondere wenn ein dargestelltes Objekt einen Mindestabstand von dem ersten Verkehrsteilnehmer unterschreitet, und/oder sich in einem rückwärtigen Bereich des ersten Verkehrsteilnehmers befindet und/oder sich dem ersten Verkehrsteilnehmer mit hoher Geschwindigkeit annähert.
  10. Verfahren gemäß Anspruch 9, wobei in der Objektliste Daten gespeichert werden, die für ein Objekt (303, 304) jeweils den Typ des Objekts (303, 304), eine Position des Objekts (303, 304) und/oder eine Geschwindigkeit des Objekts (303, 304) und/oder eine Richtung einer Bewegung des Objekts (303, 304) beschreiben.
  11. Verfahren gemäß Anspruch 10, wobei die Objektliste zunächst von der Übertragungseinheit (104) an ein Mobilgerät (305) des die Baugruppe (100) mitführenden Verkehrsteilnehmers übertragen wird.
  12. Verfahren gemäß Anspruch 11, wobei die Objektliste über eine Mobilfunkverbindung von dem Mobilgerät (305) des die Baugruppe (100) mitführenden Verkehrsteilnehmers in die Datenwolke (306) übertragen wird.
  13. Verfahren gemäß einem der Ansprüche 9 bis 12, wobei die Position und der Objekttyp des identifizierten Objekts (303, 304) über eine Mobilfunkverbindung aus der Datenwolke (306) an das Mobilgerät des ersten Verkehrsteilnehmers übertragen werden.
DE102021132466.1A 2021-12-09 2021-12-09 Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers Active DE102021132466B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021132466.1A DE102021132466B3 (de) 2021-12-09 2021-12-09 Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers
US17/994,440 US11884350B2 (en) 2021-12-09 2022-11-28 Method for detection of an object near a road user
DE202022106738.4U DE202022106738U1 (de) 2021-12-09 2022-12-02 Baugruppe und Anordnung zum Erkennen eines Objekts
CN202223262026.2U CN220189009U (zh) 2021-12-09 2022-12-06 在两轮车辆上的组件和用于警告两轮车骑手的装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021132466.1A DE102021132466B3 (de) 2021-12-09 2021-12-09 Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers

Publications (1)

Publication Number Publication Date
DE102021132466B3 true DE102021132466B3 (de) 2023-06-15

Family

ID=85383820

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102021132466.1A Active DE102021132466B3 (de) 2021-12-09 2021-12-09 Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers
DE202022106738.4U Active DE202022106738U1 (de) 2021-12-09 2022-12-02 Baugruppe und Anordnung zum Erkennen eines Objekts

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202022106738.4U Active DE202022106738U1 (de) 2021-12-09 2022-12-02 Baugruppe und Anordnung zum Erkennen eines Objekts

Country Status (3)

Country Link
US (1) US11884350B2 (de)
CN (1) CN220189009U (de)
DE (2) DE102021132466B3 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9120484B1 (en) 2010-10-05 2015-09-01 Google Inc. Modeling behavior based on observations of objects observed in a driving environment
DE102017201538A1 (de) 2016-09-05 2018-03-08 Robert Bosch Gmbh Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt
DE102018221054A1 (de) 2018-12-05 2020-06-10 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
DE112020001649T5 (de) 2019-03-29 2022-04-21 Intel Corporation Autonomes fahrzeugsystem

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150228066A1 (en) * 2014-02-10 2015-08-13 Michael Scot Farb Rear Encroaching Vehicle Monitoring And Alerting System
US10393872B2 (en) * 2015-12-08 2019-08-27 Garmin Switzerland Gmbh Camera augmented bicycle radar sensor system
US20180222473A1 (en) * 2017-02-09 2018-08-09 GM Global Technology Operations LLC Collision avoidance for personal mobility devices
JP2020108106A (ja) * 2018-12-28 2020-07-09 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置
JP7230113B2 (ja) * 2021-06-07 2023-02-28 本田技研工業株式会社 制御装置、移動体、制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9120484B1 (en) 2010-10-05 2015-09-01 Google Inc. Modeling behavior based on observations of objects observed in a driving environment
DE102017201538A1 (de) 2016-09-05 2018-03-08 Robert Bosch Gmbh Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt
DE102018221054A1 (de) 2018-12-05 2020-06-10 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
DE112020001649T5 (de) 2019-03-29 2022-04-21 Intel Corporation Autonomes fahrzeugsystem

Also Published As

Publication number Publication date
US11884350B2 (en) 2024-01-30
US20230182843A1 (en) 2023-06-15
CN220189009U (zh) 2023-12-15
DE202022106738U1 (de) 2023-02-15

Similar Documents

Publication Publication Date Title
DE102016205139B4 (de) Vorrichtung und Verfahren zur Charakterisierung von Objekten
EP3830523B1 (de) Verfahren zur aktualisierung einer umgebungskarte, vorrichtung für die fahrzeugseitige durchführung von verfahrensschritten des verfahrens, fahrzeug, vorrichtung für die zentralrechnerseitige durchführung von verfahrensschritten des verfahrens sowie computerlesbares speichermedium
EP3446300B1 (de) Assistenzsystem und verfahren zur übertragung von daten bezüglich eines unfalls oder einer panne eines fahrzeugs
EP3830522B1 (de) Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm
WO2018114492A1 (de) Vorrichtung, verfahren und computerprogramm für ein fahrzeug zum bereitstellen einer unfallmeldung über einen unfall an eine notrufstelle
DE102013214383A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines Kollisionsignals hinsichtlich einer Fahrzeugkollision, Verfahren und Vorrichtung zum Verwalten von Kollisionsdaten hinsichtlich Fahrzeugkollisionen sowie Verfahren und Vorrichtung zum Steuern zumindest einer Kollisionsschutzeinrichtung eines Fahrzeugs
EP2724911A1 (de) Fahrassistenzverfahren und Fahrassistenzsystem zur Erhöhung des Fahrkomforts
DE10253192A1 (de) Verfahren und Vorrichtung zur Vermeidung von Kollisionen
DE102017116073A1 (de) System und verfahren zur verbesserung der fahrzeugumgebungserfassung
DE102017108775A1 (de) System und Verfahren zum Erkennen und Kommunizieren des Rutschens nicht verbundener Fahrzeuge
DE102013011969A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102018120517A1 (de) Erfassen von Spurenbedingungen in adaptiven Geschwindigkeitsregelsystemen
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102018215008A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugsystems eines Kraftfahrzeugs, Fahrerassistenzeinrichtung, und Kraftfahrzeug
DE102016224516A1 (de) Verfahren und Vorrichtung zum Erkennen zumindest eines Fußgängers durch ein Fahrzeug
DE102015213538A1 (de) Verfahren und System zum Warnen vor einer Falschfahrt eines Fahrzeugs
WO2020114778A1 (de) Verfahren und vorrichtung zum ermitteln eines kollisionsrisikos eines fortbewegungsmittels
DE112021003340T5 (de) Hindernisinformationsverwaltungsvorrichtung,hindernisinformationsverwaltungsverfahren und vorrichtung für ein fahrzeug
DE102018210852A1 (de) Verfahren zum Ermitteln von rechtswidrigem Fahrverhalten durch ein Fahrzeug
DE102021132466B3 (de) Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers
DE102019100529A1 (de) Verfahren und vorrichtung zum erleichtern von sicherheitsprüfungen für hochleistungs-fahrzeugfunktionen
EP4046403B1 (de) Verfahren zum bereitstellen einer objektnachricht über ein in einer umgebung eines verkehrsteilnehmers erkanntes objekt in einem kommunikationsnetzwerk zur kommunikation mit anderen verkehrsteilnehmern
DE102009022283A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Positionsbestimmungseinheit
DE102018201273A1 (de) Verfahren zum Überwachen eines Fahrstils eines Fahrers eines Kraftfahrzeugs und Kraftfahrzeug
WO2019076695A1 (de) Verfahren zum auswerten von verkehrsdaten, computerprogramm, maschinenlesbares speichermedium und vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final