DE102018123367A1 - Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder - Google Patents

Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder Download PDF

Info

Publication number
DE102018123367A1
DE102018123367A1 DE102018123367.1A DE102018123367A DE102018123367A1 DE 102018123367 A1 DE102018123367 A1 DE 102018123367A1 DE 102018123367 A DE102018123367 A DE 102018123367A DE 102018123367 A1 DE102018123367 A1 DE 102018123367A1
Authority
DE
Germany
Prior art keywords
vehicle
data points
special sign
recognized
vehicles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018123367.1A
Other languages
English (en)
Inventor
Arindam Das
Mohamed Jauhar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102018123367.1A priority Critical patent/DE102018123367A1/de
Publication of DE102018123367A1 publication Critical patent/DE102018123367A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Durch die Erfindung ist ein in einem Fahrunterstützungssystem (14) eines Fahrzeugs (16) angewendetes Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder (10) angegeben, die an Fremdfahrzeugen (12) bereitgestellt werden, mit den Schritten zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung (40) des Fahrzeugs (16) durch mindestens einen Umgebungssensor (18), Erkennen von Drittfahrzeugen (12) im zweidimensionalen Feld von Datenpunkten, Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen (12), Erkennen eines speziellen Schildes (10) in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge (12) enthält, und Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10). Durch die Erfindung ist auch ein Fahrunterstützungssystem (14) zum Ausführen des vorstehenden Verfahrens angegeben.

Description

  • Die vorliegende Erfindung betrifft ein in einem Fahrunterstützungssystem eines Fahrzeugs angewendetes Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder, die an Fremdfahrzeugen bereitgestellt werden.
  • Auch betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zum Ausführen des vorstehenden Verfahrens.
  • Autonomes und semi-autonomes Fahren werden in der Automobilindustrie immer wichtiger. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden gegenwärtig getestet, teilweise sogar unter realen Fahrsituationen. Autonomes Fahren wird als eine bahnbrechende Technologie im Automobilsektor betrachtet.
  • Autonomes und semi-autonomes Fahren basiert auf der Kenntnis der Umgebung des Fahrzeugs, das im Folgenden als Ego-Fahrzeug bezeichnet wird. Im Ego-Fahrzeug können verschiedenartige Umgebungssensoren verwendet werden, um seine Umgebung zu überwachen. Solche Umgebungssensoren können eine oder eine beliebige Kombination von Sensoren aus einer Gruppe bestehend aus Ultraschallsensoren, LiDAR-basierten Sensoren, Radarsensoren und optischen Kameras aufweisen. Basierend auf Sensordaten von diesen Umgebungssensoren kann ein Fahrunterstützungssystem z.B. Verkehrszeichen identifizieren und auf eine geeignete Weise agieren. Beispielsweise kann das Fahrunterstützungssystem, nachdem es ein Geschwindigkeitsbegrenzungsverkehrszeichen erkannt hat, seine Geschwindigkeit autonom an die vorgeschriebene Geschwindigkeitsbegrenzung anpassen, oder es kann den Fahrer anweisen, die Geschwindigkeit gemäß der vorgeschriebenen Geschwindigkeitsbegrenzung zu reduzieren.
  • Das Identifizieren von Fremdfahrzeugen und einer geeigneten Aktion für eine Fahrsituation ist weitaus komplexer als eine Verkehrszeichenerkennung. Die Verkehrszeichenerkennung beruht auf der Tatsache, dass Verkehrsschilder entlang der Straße oder Fahrbahn entweder seitlich neben der Straße oder auf Rahmen angeordnet sind, die die Straße oder Fahrbahn überbrücken. Manchmal kann Verkehrszeicheninformation auf der Straße oder Fahrbahn dargestellt sein. Daher wird die Eingabe für eine Verkehrszeichenerkennung im Allgemeinen durch Umgebungssensoren erfasst, die an der Vorderseite des Fahrzeugs angeordnet sind. Im Gegensatz zu dieser einfachen Einschränkung für Verkehrszeichen können Fremdfahrzeuge auf jeder Seite des Ego-Fahrzeugs erscheinen. Daher erfordert das zuverlässige Identifizieren von Fremdfahrzeugen den Empfang von Eingaben von Umgebungssensoren, die die gesamte Umgebung des Ego-Fahrzeugs abdecken.
  • Darüber hinaus ist auch die Aktion, die der Fahrer oder das Fahrunterstützungssystem nach der Erkennung eines Verkehrszeichens ausführt, typischerweise weniger komplex als bei der Erkennung eines Fremdfahrzeugs. Beispielsweise ist es für einen menschlichen Fahrer fast selbstverständlich, einen Sicherheitsabstand zu einem Fahrzeug einzuhalten, an dem ein Fahranfängerschild angebracht ist, um eine gefährliche Situation zu vermeiden. Es ist jedoch schwierig, eine solche situationsspezifische Aktion in einem Fahrunterstützungssystem zu implementieren.
  • Daher können Verfahren zur Verkehrszeichenerkennung nicht leicht angepasst werden, um die Fahrsicherheit basierend auf der Identifizierung von Fremdfahrzeugen und bestimmten Fahrzeugklassen mit einem allgemein erhöhten Risiko oder einer allgemein erhöhten Gefahr bei der Teilnahme am gemeinsamen Verkehr zu verbessern.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren für eine verbesserte Fahrsicherheit basierend auf der Erkennung spezieller Schilder anzugeben, die an Fremdfahrzeugen bereitgestellt werden.
  • Die Lösung der Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Insbesondere ist durch die vorliegende Erfindung ein in einem Fahrunterstützungssystem eines Fahrzeugs angewendetes Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder angegeben, die an Fremdfahrzeugen bereitgestellt werden, mit den Schritten zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung des Fahrzeugs durch mindestens einen Umgebungssensor, Erkennen von Fremdfahrzeugen in dem zweidimensionalen Feld von Datenpunkten, Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen, Erkennen eines speziellen Schildes in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge enthält, und Ausführen einer Aktion gemäß dem erkannten speziellen Schild.
  • Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem zum Ausführen des vorstehenden Verfahrens angegeben.
  • Grundidee der Erfindung ist es, Fremdfahrzeuge zu identifizieren, an denen spezielle Schilder befestigt sind oder die durch Zeichen auf den Fahrzeugen gekennzeichnet sind. Die Fahrsicherheit wird basierend auf einer Identifizierung von Fremdfahrzeugen und insbesondere von bestimmten Fahrzeugklassen mit einem allgemein erhöhten Risiko oder einer allgemein erhöhten Gefahr bei der Teilnahme am gemeinsamen Verkehr verbessert. Dies ermöglicht es, spezifische Situationen zu identifizieren und gemäß der spezifischen Situation eine geeignete Aktion auszuführen.
  • Das Verfahren weist den Schritt zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung des Fahrzeugs durch mindestens einen Umgebungssensor auf. Solche Umgebungssensoren können verschiedenartige Sensoren aufweisen, z.B. LiDAR-basierte Sensoren, Radarsensoren und/oder optische Kameras. Das zweidimensionale Feld von Datenpunkten wird durch mindestens einen Umgebungssensor des Fahrzeugs bereitgestellt. Das zweidimensionale Feld stellt mindestens einen Teil der Umgebung des Fahrzeugs dar. Abhängig von der Art des Sensors kann das zweidimensionale Feld von Datenpunkten die Umgebung in einem kartesischen Format oder in einem polaren Format darstellen. Die Datenpunkte selbst können mit weiterer Information annotiert sein.
  • Beispielsweise ist eine Kamera ein optisches Instrument zum Aufzeichnen oder Aufnehmen von Bildern, die einzelne Standbilder oder Sequenzen von Bildern sein können, die Videos oder Filme bilden. Die Kamera liefert ein pixelbasiertes Bild als zweidimensionales Feld von Datenpunkten, wobei die einzelnen Pixel Information in den drei Farbkanälen RGB enthalten. Radarsensoren verwenden Funkwellen zum Bestimmen des Bereichs, des Winkels oder der Geschwindigkeit von Objekten. LiDAR-basierte Sensoren messen die Entfernung zu einem Objekt, indem sie das Objekt mit gepulstem Laserlicht beleuchten und die reflektierten Impulse messen. Unterschiede in den Laser-Rücklaufzeiten, Wellenlängen und der Intensität können dann verwendet werden, um eine digitale 3-D-Darstellung der Umgebung des Fahrzeugs bereitzustellen.
  • Durch die Verwendung verschiedenartiger Sensoren, insbesondere wenn sie in Kombination verwendet werden, wird ermöglicht, dass das zweidimensionale Feld, das mindestens einen Teil der Umgebung des Fahrzeugs darstellt, Information enthält, die ein menschlicher Fahrer nicht leicht erfassen kann. Dies ist besonders nützlich bei schlechten Wetterverhältnissen, bei eingeschränkter Sicht oder bei Nacht.
  • Weitere Schritte in dem Verfahren sind das Erkennen von Fremdfahrzeugen in dem zweidimensionalen Feld von Datenpunkten und das Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen. Dieser zweistufige Ansatz ermöglicht es, die zu verarbeitende Datenmenge zu reduzieren, was für eine schnelle Verarbeitung wichtig ist. Daher kann das Erfassen und Erkennen der speziellen Schilder auf solche Segmente des zweidimensionalen Felds von Datenpunkten beschränkt werden, die die Fremdfahrzeuge enthalten.
  • Das Verfahren weist auch die Schritte zum Erkennen eines speziellen Schildes in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge enthält, und das Ausführen von Aktionen gemäß dem erkannten speziellen Schild auf. Daher können spezifische Situationen identifiziert und die Fahrsicherheit verbessert werden.
  • Das Fahrzeug, z.B. das Ego-Fahrzeug, kann gemäß der vorliegenden Erfindung ein Fahrzeugtyp wie beispielsweise ein Pkw oder ein Lkw sein. Das Fahrzeug kann manuell gesteuert werden. Alternativ unterstützt das Fahrzeug semi-autonomes oder autonomes Fahren. Es ist möglich, dass das Fahrzeug Insassen, wie beispielsweise einen Fahrer, transportiert oder zur Frachtabfertigung verwendet wird.
  • Fremdfahrzeuge sind alle vom Ego-Fahrzeug verschiedenen anderen Fahrzeuge. Ein Fremdfahrzeug kann sich in der Nähe des Ego-Fahrzeugs oder weit davon entfernt befinden. Es kann sich bewegen oder alternativ kann es statisch sein, wenn es z.B. geparkt ist. Fremdfahrzeuge sind Teil der Umgebung des Ego-Fahrzeugs. Daher können die Fremdfahrzeuge auf dem zweidimensionalen Feld von Datenpunkten der Umgebung identifiziert werden.
  • Die speziellen Schilder umfassen unterschiedliche Schilder, die vorübergehend am Fahrzeug befestigt werden können. Beispielsweise sind einige Fahrzeuge mit L-Schildern gekennzeichnet. Ein L-Schild ist ein quadratisches Schild, das z.B. den Sans-Serif-Buchstaben L für Fahranfänger trägt und in vielen Ländern an der Vorder- und/oder Rückseite eines Fahrzeugs befestigt werden muss, wenn der Fahrer ein Fahranfänger in der Probephase ist. In anderen Ländern werden P-Schilder (im Vereinigten Königreich für die Probezeit) oder N-Schilder (in Irland für Anfänger) für frisch qualifizierte Fahrer verwendet. In einigen Ländern ist es für ältere Fahrer obligatorisch, ein spezielles Schild anzuzeigen. Beispielsweise ist es in Japan für Fahrer, die 75 Jahre alt oder älter sind, obligatorisch, eine Koreisha-Markierung auf der Vorder- und auf der Rückseite ihres Fahrzeugs anzuzeigen.
  • Zusätzlich existieren andere spezielle Schilder, zum Beispiel Schilder, die Fahrzeuge mit behinderten Fahrern/Insassen identifizieren, z.B. speziell gekennzeichnete Kennzeichen in den USA oder Schilder, die die Nutzung von Behindertenparkplätzen erlauben, wie die „Blaue Plakette“ in der EU.
  • Der Begriff „spezielle Schilder“ umfasst jedoch nicht nur solche Schilder, die vorübergehend am Fahrzeug befestigt werden können, sondern auch Schilder oder Beschriftungen, die am Fahrzeug dauerhaft sichtbar sind. Solche „speziellen Schilder“ können sich auf eine Kennzeichnung von Notfallfahrzeugen beziehen, z.B. Polizei, Feuerwehr, Krankenwagen oder andere. Die speziellen Schilder markieren das entsprechende Fahrzeug und können daher als Anzeige für eine bestimmte Situation verwendet werden, insbesondere wenn das Fahrzeug entlang der Straße oder Fahrbahn geparkt ist. Dies ermöglicht eine situationsspezifische Aktion des Fahrers und/oder des Fahrassistenzsystems.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen des zweidimensionalen Felds von Datenpunkten der Umgebung des Fahrzeugs durch mindestens einen Umgebungssensor das Bereitstellen von Bilddaten der Umgebung durch mindestens eine Kamera auf. Kameras sind besonders gut geeignet, um Information über die Umgebung des Fahrzeugs bereitzustellen, die zum Erkennen spezieller Schilder genutzt werden kann.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Erkennen von Fremdfahrzeugen in dem zweidimensionalen Feld von Datenpunkten das Erkennen von Fremdfahrzeugen in dem zweidimensionalen Feld von Datenpunkten durch ein tiefes konvolutionelles neuronales Netzwerk auf.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Erkennen eines speziellen Schildes in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge enthält, das Erkennen eines speziellen Schildes in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge enthält, durch ein tiefes konvolutionelles neuronales Netzwerk auf.
  • Das Verarbeiten eines zweidimensionalen Felds von Datenpunkten, z.B. Bilddaten von optischen Kameras, insbesondere Videodaten, die eine Sequenz von mehreren Einzelbildern pro Sekunde enthalten, ist sehr anspruchsvoll. Riesige Datenmengen müssen in Echtzeit verarbeitet werden, um die Umgebung des Fahrzeugs ohne Verzögerungen zuverlässig zu erfassen. Die Ressourcen des Fahrzeugs zum Verarbeiten der Daten sind jedoch in Bezug auf den Raum zum Aufnehmen von Verarbeitungseinrichtungen und auch in Bezug auf die verfügbare Rechenleistung und elektrische Leistung begrenzt. Selbst wenn die technischen Probleme gelöst werden, sind die Ressourcen hinsichtlich ihres Preises beschränkt, um die Fahrzeuge zu einem erschwinglichen Preis bereitzustellen.
  • Ein leistungsfähiges Mittel zum Verarbeiten von Bilddaten sind neuronale Netzwerke. Herkömmliche Anwendungen neuronaler Netzwerke zur Bildverarbeitung basieren typischerweise auf konvolutionellen neuronalen Netzwerken (CNN) und insbesondere auf tiefen konvolutionellen neuronalen Netzwerken (DCNN). Die Verwendung solcher Netzwerktypen hat vielversprechende Ergebnisse zu einem erschwinglichen Preis gezeigt.
  • Die Verwendung von zwei DCNNs hat einige Vorteile. Da das erste DCNN die Aufgabe hat, nur Fremdfahrzeuge zu identifizieren, kann eine Transfer-Learning-Strategie verwendet werden. Transfer Learning ist die Verbesserung des Lernens einer neuen Aufgabe durch den Transfer von Wissen aus einer verwandten Aufgabe, die bereits gelernt worden ist. Darüber hinaus profitiert das zweite DCNN von dem ersten DCNN, indem es nur eine reduzierte Menge an zu verarbeitender Information empfängt. Auf diese Weise wird das Erkennen von speziellen Schildern erleichtert.
  • DCNNs weisen eine Eingabe- und eine Ausgabeschicht sowie mehrere verborgene Schichten auf. Die verborgenen Schichten eines DCNN bestehen typischerweise aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an und leiten das Ergebnis an die nächste Schicht weiter. Die Faltung emuliert die Reaktion eines individuellen Neurons auf visuelle Reize.
  • Bei der Nutzung von DCNNs stellen sich hinsichtlich der Strukturen der neuronalen Netzwerke einige Fragen. Diese beinhalteten, um nur einige zu nennen, eine Definition eines geeigneten neuronalen Netzwerktyps, das Bestimmen einer Anzahl und einer Position von Eingaben, das Bestimmen einer Anzahl zu verwendender verborgener Schichten (Hidden Layers), das Bestimmen einer Anzahl erforderlicher Ausgangsneuronen und das Bestimmen der bestimmten Aktivierungsfunktion. Diese Fragen sind wichtig, da im Falle eines zu großen/zu kleinen neuronalen Netzwerks das neuronale Netzwerk möglicherweise die Bilddaten über- bzw. unterbestimmen könnte. Infolgedessen würde das neuronale Netzwerk nicht in geeigneter Weise lernen anhand bereitgestellter Trainingsdaten geeignet zu generalisieren. Darüber hinaus wird ein geeignetes Training mit geeigneten Trainingsdaten als wichtig betrachtet, wenn neuronale Netzwerke verwendet werden.
  • In der vorliegenden Erfindung wird vorzugsweise ein Standard-DCNN wie AlexNet oder VGG16 verwendet. Diese Netzwerke funktionieren gut bei Bilderkennungsaufgaben. Die Dimension der Eingabeschicht für das erste DCNN beträgt vorzugsweise 224 x 224. Dies ermöglicht die Verwendung von Bilddaten von der ImageNet-Datenbank für Trainingszwecke. Das erste DCNN hat die Aufgabe, Fremdfahrzeuge zu erkennen. Die Ausgabe dieses DCNN ist vorzugsweise pixelbasiert und identifiziert die Pixel, die Fremdfahrzeugen zugeordnet sind. Die Softmax-Funktion kann in der letzten Schicht des DCNN verwendet werden.
  • Das zweite DCNN hat die Aufgabe, das spezielle Schild zu erkennen. Die den Fremdfahrzeugen zugeordneten Datenpunkte des zweidimensionalen Felds werden als Eingabe verwendet. Die Dimension der Ausgabe des Netzwerks hängt von der Anzahl der verschiedenen speziellen Schilder ab, die durch das Netzwerk erkannt werden sollen. Vorzugsweise wird die Softmax-Funktion in der letzten Schicht des DCNN verwendet.
  • Die Aktivierungsfunktion für das erste und das zweite DCNN ist vorzugsweise eine Gleichrichteraktivierungsfunktion, z.B. ReLU. Das Training der DCNNs ist vorzugsweise ein überwachtes Training mit annotierten Mustern spezieller Schilder. Als Optimierungsalgorithmus zum Trainieren des Algorithmus wird vorzugsweise Adam verwendet.
  • Das Training der DCNNs kann länderspezifisch sein. Da die gesetzlich vorgeschriebenen speziellen Schilder in jedem Land unterschiedlich sein können, sind die für das Training der DCNNs verwendeten Trainingsdaten vorzugsweise für die Vorschriften des Landes spezifisch. Auf diese Weise wird eine signifikante Reduzierung des Trainingsaufwands erreicht, der erforderlich ist, um eine vorgegebene Genauigkeit des DCNN zu erzielen.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen von Aktionen gemäß dem erkannten speziellen Schild das Benachrichtigen eines Fahrers durch ein akustisches und/oder optisches Signal auf. Eine Benachrichtigung des Fahrers erhöht die Aufmerksamkeit des Fahrers für die spezifische, potentiell gefährliche Situation. Dies gibt dem Fahrer die Möglichkeit, die Situation zum Beispiel durch Abbremsen oder Navigieren aus der Gefahrenquelle zu entschärfen.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen der Aktion gemäß dem erkannten speziellen Schild das Zuführen von Information über das erkannte spezielle Schild zu mindestens einer Steuereinrichtung des Fahrzeugs auf. Um eine Technik zum unterstützten oder autonomen Fahren zu ermöglichen, wird die Information über das erfasste spezielle Schild mindestens einer Steuereinrichtung des Fahrzeugs zugeführt. Die Steuereinrichtung des Fahrzeugs kann Teil eines Fahrunterstützungssystems oder eines Fahrerassistenzsystems sein. Ein Fahrunterstützungssystem ermöglicht typischerweise autonome und semi-autonome Fahrtechniken, während ein Fahrerassistenzsystem typischerweise den Fahrer in bestimmten Fahrsituationen unterstützt, ohne eine allgemeine Kontrolle über das Fahrzeug zu übernehmen. Die Steuereinrichtung kann die Information über das erkannte spezielle Schild dazu verwenden, auf eine vordefinierte Weise zu agieren.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild das Anpassen eines Sicherheitsabstands, insbesondere in Abhängigkeit von dem erkannten speziellen Schild, während einer Fahrt in der Nähe des Fremdfahrzeugs mit dem erkannten speziellen Schild , auf. Diese Aktion verbessert die Fahrsicherheit erheblich. Der Abstand zum Fremdfahrzeug mit einem speziellen Schild kann beispielsweise durch Ändern der Geschwindigkeit angepasst werden. Wenn das Fremdfahrzeug voraus fährt, führt eine Verlangsamung zu einem größeren Abstand. Wenn beispielsweise ein Fahranfänger erfasst wird, kann ein erhöhter Sicherheitsabstand zum Fahrzeug des Fahranfängers eingehalten werden. In vielen Fällen bevorzugt ein Fahranfänger das Fahren mit einer geringeren Geschwindigkeit im Vergleich zu einem erfahreneren Fahrer. In dem Fall, dass das Fahrzeug des Fahranfängers voraus fährt, erhöht eine Vergrößerung des Abstands zum Fahrzeug des Fahranfängers eine mögliche Reaktionszeit, falls ein Unfall auftritt. Außerdem eröffnet es anderen, erfahreneren Fahrern die Möglichkeit, zu überholen. In dem Fall, dass das Fahrzeug des Fahranfängers hinter dem Ego-Fahrzeug fährt, eröffnet die Aktion zum Vergrößern des Abstands anderen, erfahreneren Fahrern ebenfalls die Möglichkeit, zu überholen. In beiden Fällen sind Sicherheit und Komfort für den Fahrer erhöht. In Abhängigkeit von dem erfassten speziellen Schild können unterschiedliche Anpassungen des Sicherheitsabstandes vorgenommen werden.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild das Anpassen eines Parkabstands zum Fremdfahrzeug mit dem erkannten speziellen Schild als ein benachbartes Fahrzeug, insbesondere in Abhängigkeit vom erkannten speziellen Schild, auf. Diese Maßnahme ist besonders für behinderte Menschen hilfreich. Sie sind oft von Hilfsvorrichtungen abhängig, z.B. von Rollstühlen oder Gehhilfen. Durch Einstellen eines größeren Parkabstands zum Fremdfahrzeug mit dem speziellen Schild als benachbartem, Fahrzeug wird das Ein- und Aussteigen aus dem Fremdfahrzeug für behinderte Menschen erheblich erleichtert. Das Erhöhen des Parkabstands kann auch hilfreich sein beim Parken neben Fahrzeugen, die durch unerfahrene Fahrer oder Fahranfänger gefahren werden, da die Fahranfänger mehr Platz zum Ausparken benötigen. In Abhängigkeit von der Parksituation (parallel oder senkrechtes Parken/Parken in Parkbuchten) wird der Abstand entweder an der Vorder- oder an der Rückseite des Fahrzeugs für paralleles Einparken oder an der Seite des Fahrzeugs für senkrechtes Parken/Parken in Parkbuchten angepasst.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild den Schritt zum Passierenlassen des Fremdfahrzeugs mit dem erkannten speziellen Schild gemäß gesetzlicher Bestimmungen auf. In einigen Ländern verlangen die gesetzlichen Bestimmungen, dass Fahrzeuge mit bestimmten speziellen Schildern, beispielsweise Krankenwagen, ausschließliche Rechte, wie beispielsweise Vorfahrt, haben. In Fällen, in denen solche Vorschriften bestehen, entspricht die nach dem Erkennen des speziellen Schildes ausgeführte Aktion den gesetzlichen Bestimmungen.
  • Gemäß einer modifizierten Ausführungsform der Erfindung weist das Fahrunterstützungssystem mindestens einen Umgebungssensor zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung auf. Solche Umgebungssensoren können eine beliebige Kombination von Sensoren aus LiDAR-basierten Sensoren, Radarsensoren und optischen Kameras umfassen. Vorzugsweise werden eine oder mehrere optische Kameras verwendet. Vorzugsweise ist der mindestens eine Umgebungssensor zum Abdecken einer 360°-Umgebung des Ego-Fahrzeugs vorgesehen.
  • Diese und andere Aspekte der Erfindung werden anhand der nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen offenbart sind, können für sich allein oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.
  • Es zeigen:
    • 1 ein Fahrzeug mit einem Fahrunterstützungssystem zum Ausführen eines Verfahrens zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder gemäß einer ersten bevorzugten Ausführungsform der Erfindung und eines Fremdfahrzeugs mit einem daran befestigten speziellen Schild;
    • 2 ein Ablaufdiagramm der Schritte des Verfahrens zum Verbessern der Fahrsicherheit basierend auf der Erkennung von speziellen Schildern gemäß der ersten bevorzugten Ausführungsform der Erfindung; und
    • 3 zwei tiefe konvolutionelle neuronale Netzwerke und einen Datenfluss zwischen diesen tiefen konvolutionellen neuronalen Netzwerken gemäß der ersten bevorzugten Ausführungsform der Erfindung.
  • 1 zeigt ein Fahrzeug 16 gemäß einer ersten bevorzugten Ausführungsform der Erfindung. Das Fahrzeug 16 wird im Weiteren auch als Ego-Fahrzeug 16 bezeichnet.
  • Das Fahrzeug 16 ist ein Personenkraftwagen mit einem Fahrunterstützungssystem 14 zum Ausführen eines Verfahrens zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder 10 gemäß der bevorzugten Ausführungsform der Erfindung. Das Fahrunterstützungssystem 14 weist Umgebungssensoren 18 zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung 40 des Fahrzeugs 16 auf. In der ersten Ausführungsform sind die Umgebungssensoren 18 als Kameras 20 zum Bereitstellen von Bilddaten der Umgebung 40 des Fahrzeugs 16 implementiert. In dem Fahrunterstützungssystem 14 wird ein tiefes konvolutionelles neuronales Netzwerk (DCNN) verwendet, um Fremdfahrzeuge 12 und spezielle Schilder 10 zu erkennen.
  • Wie in 1 ersichtlich ist, befindet sich ein Fremdfahrzeug 12 in der Umgebung 40 des Fahrzeugs 16. Ein spezielles Schild 10, in diesem Fall ein L-Schild, ist an der Vorderseite und an der Rückseite des Fremdfahrzeugs 12 befestigt.
  • 2 zeigt ein Ablaufdiagramm des Verfahrens zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder 10 gemäß der ersten Ausführungsform der Erfindung.
  • Das Verfahren beginnt mit Schritt S100 zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung 40 des Fahrzeugs 16 durch die Umgebungssensoren 18. Daher werden Bilddaten der Umgebung 40 des Ego-Fahrzeugs 16 durch die Kamera 20 bereitgestellt. Ein weiterer Schritt S200 in dem Verfahren beinhaltet das Erkennen von Fremdfahrzeugen 12 in dem zweidimensionalen Feld von Datenpunkten. Das Erkennen von Fremdfahrzeugen 12 erfolgt unter Verwendung eines ersten DCNN 22 im Fahrunterstützungssystem 14.
  • Das Verfahren weist außerdem einen Schritt S300 auf, der sich auf das Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen 12 bezieht. Durch diesen Schritt wird die Datenmenge reduziert. Segmente des zweidimensionalen Felds von Datenpunkten, die Fremdfahrzeuge 12 enthalten, werden extrahiert oder zumindest für die weitere Verwendung identifiziert, wie unter Bezug auf den nachfolgenden Schritt S400 erörtert wird.
  • Der nachfolgende Schritt S400 bezieht sich auf das Erkennen eines speziellen Schildes 10 in jedem Segment des zweidimensionalen Felds von Datenpunkten, das ein Fremdfahrzeug 12 enthält. Das Erkennen spezieller Schilder 10 erfolgt durch ein zweites DCNN 24 im Fahrunterstützungssystem 14.
  • Das Verfahren weist auch einen Schritt S500 zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild 10 auf. Im Fall eines L-Schilds, wie in 1 dargestellt, besteht eine mögliche Aktion darin, einen Sicherheitsabstand während des Fahrens in der Nähe des Fremdfahrzeugs 12 anzupassen.
  • 3 zeigt das erste und das zweite DCNN 22, 24, die im Verfahrensschritt S200 zum Erkennen von Fremdfahrzeugen 16 und für den Schritt S400 zum Erkennen spezieller Schilder 10 verwendet werden. Zwischen diesen beiden Schritten wird Schritt S300 zum Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen ausgeführt.
  • Das erste und das zweite DCNN 22, 24 weisen jeweils eine Eingabeschicht 26 und eine Ausgabeschicht 28 sowie mehrere verborgene Schichten auf. Die Eingabeschicht 26 akzeptiert ein zweidimensionales Feld von Datenpunkten als Eingabe. Die Eingabe ist eine pixelbasierte Eingabe, die durch die Kameras 20 des Fahrunterstützungssystems 14 des Ego-Fahrzeugs 16 bereitgestellt wird. Die verborgenen Schichten 30, 32, 34 weisen konvolutionelle und Pooling-Schichten 30, Fully-Connected-Schichten 32 und Normalisierungsschichten 34 auf. Der Klarheit halber sind in 3 nur drei konvolutionelle und Pooling-Schichten 30 dargestellt, es können aber mehrere konvolutionelle und Pooling-Schichten 30 vorhanden sein. Die Normalisierungsschicht 34 verwendet als Normalisierungsfunktion eine Softmax-Funktion. Das erste DCNN 22 hat die Aufgabe, Fremdfahrzeuge 12 gemäß Schritt S200 zu erkennen. Die Ausgabe dieses ersten DCNN 22 ist pixelbasiert und identifiziert die Pixel, die Fremdfahrzeugen 12 zugeordnet sind. Im nächsten Schritt S300 werden die Daten gemäß den erkannten Fremdfahrzeugen 12 segmentiert. Das zweite DCNN 24 hat die Aufgabe, das spezielle Schild 10 zu erkennen. Die Pixel, die den Fremdfahrzeugen 12 zugeordnet sind, werden als Eingabe verwendet. Die Dimension der Ausgabe des zweiten DCNN 24 ist abhängig von der Anzahl verschiedener spezieller Schilder 10, die durch das zweite DCNN 24 erkannt werden sollen. Die zwei DCNNs 22, 24 werden auf einem System-on-Chip verwendet, der Teil des Fahrunterstützungssystem 14 des Fahrzeugs 16 ist.
  • Bezugszeichenliste
  • 10
    spezielles Schild
    12
    Fremdfahrzeug
    14
    Fahrunterstützungssystem
    16
    Fahrzeug, Ego-Fahrzeug
    18
    Umgebungssensor
    20
    Kamera
    22
    erstes DCNN
    24
    zweites DCNN
    26
    Eingabeschicht
    28
    Ausgabeschicht
    30
    konvolutionelle und Pooling-Schicht, verborgene Schicht
    32
    Fully-Connected-Schicht, verborgene Schicht
    34
    Normalisierungsschicht, verborgene Schicht

Claims (11)

  1. Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder (10) an Fremdfahrzeugen (12), das in einem Fahrunterstützungssystem (14) eines Fahrzeugs (16) angewendet wird, mit den Schritten Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung (40) des Fahrzeugs (16) durch mindestens einen Umgebungssensor (18); Erkennen von Fremdfahrzeugen (12) in dem zweidimensionalen Feld von Datenpunkten; Segmentieren des zweidimensionalen Felds von Datenpunkten basierend auf den erkannten Fremdfahrzeugen (12); Erkennen eines speziellen Schildes (10) in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge (12) enthält; und Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen des zweidimensionalen Felds von Datenpunkten der Umgebung (40) des Fahrzeugs (16) durch mindestens einen Umgebungssensor (18) das Bereitstellen von Bilddaten der Umgebung (40) durch mindestens eine Kamera (20) aufweist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Erkennen von Fremdfahrzeugen (12) in dem zweidimensionalen Feld von Datenpunkten das Erkennen von Fremdfahrzeugen (12) in dem zweidimensionalen Feld von Datenpunkten durch ein tiefes konvolutionelles neuronales Netzwerk (22, 24) aufweist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Erkennen eines speziellen Schildes (10) in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge (12) enthält, das Erkennen eines speziellen Schildes (10) in dem Segment des zweidimensionalen Felds von Datenpunkten, das eines der Fremdfahrzeuge (12) enthält, durch ein tiefes konvolutionelles neuronales Netzwerk (22, 24) aufweist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10) das Benachrichtigen eines Fahrers durch ein akustisches und/oder optisches Signal aufweist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10) das Zuführen von Information über das erkannte spezielle Schild (10) zu mindestens einer Steuereinrichtung des Fahrzeugs (16) aufweist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10) das Anpassen eines Sicherheitsabstandes, insbesondere in Abhängigkeit von dem erkannten speziellen Schild (10) während einer Fahrt in der Nähe des Fremdfahrzeugs (12) mit dem erkannten speziellen Schild (10), aufweist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10) das Anpassen eines Parkabstands zum Fremdfahrzeug (12) mit dem erkannten speziellen Schild (10) als ein benachbartes Fahrzeug, insbesondere in Abhängigkeit von dem erkannten speziellen Schild (10), aufweist.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Aktion gemäß dem erkannten speziellen Schild (10) den Schritt zum Passierenlassen des Fremdfahrzeugs (12) mit dem erkannten speziellen Schild (10) gemäß gesetzlicher Bestimmungen aufweist.
  10. Fahrunterstützungssystem (14) zum Ausführen des Verfahrens nach einem der vorhergehenden Ansprüche 1 bis 9.
  11. Fahrunterstützungssystem (14) nach Anspruch 10, dadurch gekennzeichnet, dass das Fahrunterstützungssystem (14) mindestens einen Umgebungssensor (18) zum Bereitstellen eines zweidimensionalen Felds von Datenpunkten der Umgebung (40) aufweist.
DE102018123367.1A 2018-09-24 2018-09-24 Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder Pending DE102018123367A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018123367.1A DE102018123367A1 (de) 2018-09-24 2018-09-24 Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018123367.1A DE102018123367A1 (de) 2018-09-24 2018-09-24 Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder

Publications (1)

Publication Number Publication Date
DE102018123367A1 true DE102018123367A1 (de) 2020-03-26

Family

ID=69725525

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018123367.1A Pending DE102018123367A1 (de) 2018-09-24 2018-09-24 Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder

Country Status (1)

Country Link
DE (1) DE102018123367A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723258A (zh) * 2021-08-24 2021-11-30 广州邦讯信息系统有限公司 危险品车辆图像识别方法及其相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130136310A1 (en) * 2010-08-05 2013-05-30 Hi-Tech Solutions Ltd. Method and System for Collecting Information Relating to Identity Parameters of A Vehicle
DE102015218962A1 (de) * 2015-09-30 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Bereitstellung von Nutzinformation über Verkehrsteilnehmer
DE102016202590A1 (de) * 2016-02-19 2017-09-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Kraftfahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130136310A1 (en) * 2010-08-05 2013-05-30 Hi-Tech Solutions Ltd. Method and System for Collecting Information Relating to Identity Parameters of A Vehicle
DE102015218962A1 (de) * 2015-09-30 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Bereitstellung von Nutzinformation über Verkehrsteilnehmer
DE102016202590A1 (de) * 2016-02-19 2017-09-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Kraftfahrzeugs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723258A (zh) * 2021-08-24 2021-11-30 广州邦讯信息系统有限公司 危险品车辆图像识别方法及其相关设备
CN113723258B (zh) * 2021-08-24 2024-05-28 广州邦讯信息系统有限公司 危险品车辆图像识别方法及其相关设备

Similar Documents

Publication Publication Date Title
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
DE102015206144A1 (de) Verfahren und Vorrichtung zum sicheren Abstellen eines Fahrzeuges
WO2019121035A1 (de) Verfahren zur klassifizierung von parklücken in einem umgebungsbereich eines fahrzeugs mit einem neuronalen netzwerk
WO2015000882A1 (de) Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs
DE102016215115A1 (de) Vorrichtung und Verfahren zum Detektieren von Verkehrsteilnehmern in einem Umfeld eines Ego-Fahrzeugs
DE102015206546A1 (de) Fahrbahnmarkierungserkennungsvorrichtung
EP1642770A2 (de) Verfahren zur Lenkung der Aufmerksamkeit eines Fahrers eines Fahrzeugs auf Objekte in einem Bild
DE102017208728A1 (de) Verfahren zur Ermittlung einer Fahranweisung
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102017128531A1 (de) Displayeinrichtung für ein Fahrzeug
DE102019100318A1 (de) Vorrichtung und Verfahren zur Verbesserung von Assistenzsystemen für laterale Fahrzeugbewegungen
EP1944212B1 (de) Verfahren und Vorrichtung zum Ermitteln potentiell gefährdender Objekte für ein Fahrzeug
DE102020125232A1 (de) Verfahren zur Farbkorrektur für ein Kamerasystem sowie ein Kamerasystem
DE102018123367A1 (de) Verfahren zum Verbessern der Fahrsicherheit basierend auf der Erkennung spezieller Schilder
DE102020211971A1 (de) Fahrzeugtrajektorienvorhersage unter verwendung von strassentopologie und verkehrsteilnehmer-objektzuständen
DE102020105070A1 (de) Verfahren zum Erkennen eines befahrbaren Bereichs in einer Umgebung eines Fahrzeugs mithilfe eines binären künstlichen neuronalen Netzes, Recheneinrichtung sowie Fahrerassistenzsystem
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102016107421A1 (de) Verfahren zur Anzeige von mit einer Erfassungseinrichtung nicht erfassbaren Umgebungsbereichen in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102019121919A1 (de) Identifizierung von Verschmutzungen auf einer Fahrbahn
DE102019204187A1 (de) Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern
DE102018112164A1 (de) Verfahren zum Betreiben eines Fahrunterstützungssystems eines Fahrzeugs zum Identifizieren einer bestimmten Fahrsituation und Fahrunterstützungssystem
DE102007021579A1 (de) Verfahren und Vorrichtung zur Klassifikation mindestens eines Verkehrszeichens
DE102017104957A1 (de) Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified