DE102016100030B4 - Gerät zum sicheren führen eines fahrzeugs - Google Patents

Gerät zum sicheren führen eines fahrzeugs Download PDF

Info

Publication number
DE102016100030B4
DE102016100030B4 DE102016100030.2A DE102016100030A DE102016100030B4 DE 102016100030 B4 DE102016100030 B4 DE 102016100030B4 DE 102016100030 A DE102016100030 A DE 102016100030A DE 102016100030 B4 DE102016100030 B4 DE 102016100030B4
Authority
DE
Germany
Prior art keywords
vehicle
lane
detection unit
feature point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016100030.2A
Other languages
English (en)
Other versions
DE102016100030A1 (de
Inventor
Seong Soo Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Mobis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Mobis Co Ltd filed Critical Hyundai Mobis Co Ltd
Publication of DE102016100030A1 publication Critical patent/DE102016100030A1/de
Application granted granted Critical
Publication of DE102016100030B4 publication Critical patent/DE102016100030B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)

Abstract

Gerät zum sicheren Führen eines Fahrzeugs, wobei das Gerät Folgendes umfasst:eine Kameraeinheit (100), die, auf einem Fahrzeug stationiert, eine Mehrzahl von Bildern verschiedener Richtungen ausgibt, indem sie die Umgebung des Fahrzeugs aufnimmt, wobei die Mehrzahl der Bilder ein linkes Bild und ein rechtes Bild des Fahrzeugs umfasst;eine Draufsicht-Ausgabeeinheit (200), welche die Mehrzahl der Bilder synthetisiert, um eine Draufsicht auszugeben;eine Fahrspur-Detektionseinheit (300), die anhand der Draufsicht eine linke oder rechte Fahrspur des Fahrzeugs detektiert, indem sie ein Fahrspurmerkmal der Draufsicht berücksichtigt;eine Seitenfahrzeug-Detektionseinheit (400), die das Rad eines Fremdfahrzeugs in mindestens entweder dem linken Bild oder dem rechten Bild detektiert;eine Fremdfahrzeugbereich-Einschätzeinheit (500), die den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt, indem sie die Position des detektierten Rads berücksichtigt; undeine Warnsignal-Ausgabeeinheit (600), die ein Warnsignal ausgibt, wenn sich das Fahrzeug auf der detektierten Fahrspur befindet und in den Anwesenheitsbereich eines Fremdfahrzeugs hineinkommt, wobei die Fahrspur-Detektionseinheit (300) eine Mehrzahl von Fahrspurmittelpunkten mit einem oder mehreren vorgegebenen Mindesthelligkeitswerten detektiert, indem sie für jeden vorgegebenen Bereich einen Rechteckfilter in einer vorgegebenen Richtung in Bezug auf ein Graustufenbild der Draufsicht anwendet,wobei die Fahrspur-Detektionseinheit (300) basierend auf den jeweiligen Fahrspurmittelpunkten linke und rechte Merkmalspunkte detektiert, undder linke Merkmalspunkt und der rechte Merkmalspunkt den Grenzen vorgegebener Fahrspurhelligkeitsmuster entsprechen,wobei die Fahrspur-Detektionseinheit (300) basierend auf dem linken Merkmalspunkt und dem rechten Merkmalspunkt eine Suche in allen Strahlrichtungen durchführt, um eine Linienkomponente für den linken Merkmalspunkt und eine Linienkomponente für den rechten Merkmalspunkt zu extrahieren und basierend auf dem Fahrspurmittelpunkt eine linke oder rechte Fahrspur des Fahrzeugs zu detektieren, wenn der Winkelunterschied zwischen der Linienkomponente für den linken Merkmalspunkt und der Linienkomponenten für den rechten Merkmalspunkt auf einem Schwellenwert oder darunter liegt.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht die Priorität der am Dienstag, 13. Januar 2015 eingereichten Koreanischen Patentanmeldung Nummer 10-2015-0006393 , deren gesamter Inhalt durch Inbezugnahme für alle Zwecke als hierin aufgenommen betrachtet wird.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf ein Gerät zum sicheren Führen eines Fahrzeugs, und insbesondere ein Gerät zum sicheren Führen eines Fahrzeugs, das eine Draufsicht ausgibt, indem Bilder synthetisiert werden, die durch Fotografieren der Fahrzeugumgebung erfasst wurden, eine Fahrspur in der Draufsicht erkennt und ausgibt, den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt, indem es ein Reifenformmerkmal auf einer Seitenabbildung des Fahrzeugs erkennt, und dem Fahrer eine Gefahr meldet, indem es ein Warnsignal ausgibt, wenn das Fahrzeug in den Anwesenheitsbereich eines Fremdfahrzeugs hineinkommt.
  • HINTERGRUND
  • Als Technologie zur Vermeidung einer Kollision zwischen Fahrzeugen wird in zahlreichen Fahrzeugen eine Technologie angewendet, die einen Abstand zwischen den Fahrzeugen mittels verschiedener Informationen überwacht, die mittels Sensoren erfasst werden, einschließlich eines Ultraschallsensors und dergleichen, und einen Fahrer warnt, wenn der Abstand zwischen den Fahrzeugen geringer als ein vorgegebener Abstandswert ist, der in vielen Fahrzeugen angewandt wird. Falls das Vermeiden der Kollision zwischen den Fahrzeugen jedoch allein vom Sensor abhängt, ist es schwierig, den Abstand zwischen den Fahrzeugen unter verschiedenen Fahrbedingungen zu messen, was folglich zu einem ungenauen Messergebnis führen kann.
  • In den vergangenen Jahren wurde eine Technologie erforscht, die Informationen über die Umgebungsbedingungen eines fahrenden Fahrzeugs durch verschiedene andere Verfahren als die Sensoren erfasst und den Fahrer warnt, wenn der Abstand zwischen den Fahrzeugen basierend auf den erfassten Informationen gering ist.
  • US 2004 / 0 016 870 A1 beschreibt ein Abbildungssystem für ein Fahrzeug. Das Abbildungssystem umfasst einen Abbildungssensor und eine Steuerung. Der bildgebende Sensor dient zur Aufnahme eines Bildes einer Szene, die sich außerhalb des Fahrzeugs abspielt. Die Steuerung empfängt das erfasste Bild, das aus einem Bilddatensatz besteht, der für die äußere Szene repräsentativ ist. Die Steuerung kann einen Kantenerkennungsalgorithmus auf einen reduzierten Bilddatensatz des Bilddatensatzes anwenden. Der reduzierte Bilddatensatz ist repräsentativ für eine Zielzone des aufgenommenen Bildes. Die Steuerung kann so betrieben werden, dass der reduzierte Bilddatensatz mehr als andere Bilddaten, die für Bereiche des erfassten Bildes außerhalb der Zielzone repräsentativ sind, verarbeitet wird, um innerhalb der Zielzone vorhandene Objekte zu erkennen. Das Abbildungssystem kann mit einem seitlichen Objekterkennungssystem, einem Spurwechselassistenzsystem, einem Spurwechselwarnsystem und/oder ähnlichem verbunden sein.
  • US 2012 / 0 069 153 A1 beschreibt eine Vorrichtung zur Überwachung des Bereichs um ein Fahrzeug herum, bei der, wenn ein Monitorausgangsbild durch Synthetisieren von Bildern aus der Vogelperspektive auf der Grundlage der erfassten Bilder einer Vielzahl von Kameras erfasst wird, die Schiefe eines dreidimensionalen Objekts, das in den synthetisierten Bildern erscheint, gemildert werden kann. Die Vorrichtung zur Überwachung des Bereichs um das Fahrzeug herum wird zusammen mit der Vielzahl von Kameras verwendet, die Bilder des Bereichs um das Fahrzeug herum aufnehmen. Eine Bildverarbeitungseinheit erfasst das Ausgabebild, indem sie Daten erfasst, die eine Vielzahl der von der Vielzahl von Kameras erfassten Bilder anzeigen, und eine Vielzahl von Bildern aus der Vogelperspektive synthetisiert, die auf der Grundlage der erfassten Daten erzeugt werden. Die Bildverarbeitungseinheit, bei der eine Einheit zur Erzeugung von Bildern aus der Vogelperspektive Pixel verschiedener Bilder aus der Vogelperspektive in überlappenden Bereichen der verschiedenen Bilder aus der Vogelperspektive, die verschiedenen Kameras entsprechen, auf der Grundlage des Verhältnisses synthetisiert, das in Übereinstimmung mit dem Winkel bestimmt wird, unter dem die verschiedenen Kameras auf die den Pixeln entsprechenden Punkte herunterschauen.
  • DE 10 2010 063 420 A1 beschreibt ein Fahrerassistenzsystem. Das Fahrerassistenzsystem mit einer Sensoranordnung zur Erfassung des Abstandes des eigenen Fahrzeuges zu einem Fremdobjekt und mit einer elektronischen Steuereinheit zur Aktivierung von fahrzeuginternen Aktuatoren in Abhängigkeit von Informationen, die aus Signalen der Sensoranordnung gewonnen werden, umfasst als Sensoranordnung mindestens einen Sensor, der in einer Längsseite des eigenen Fahrzeuges angeordnet ist und zur Messung des Abstandes eines Fremdobjektes von dieser Fahrzeug-Längsseite verwendbar ist. Dabei weist die Steuereinheit ein Programmmodul auf, durch das dem Fahrer während einer Vorwärtsfahrt durch eine Verbindung zu mindestens einem entsprechenden Aktuator eine Warninformation ausgebbar ist, wenn der gemessene Abstand eines Fremdobjektes zur Fahrzeug-Längsseite kleiner als ein vorgegebener Sicherheitsabstand ist.
  • US 2012 /0 062 745 A1 beschreibt ein Verfahren und eine Vorrichtung zum Erfassen eines Spurwechsels unter Verwendung von Bildern, die ein Fahrzeug umgeben. Das Verfahren zum Erfassen des Verlassens der Fahrspur umfasst das Empfangen von Bildern, die während des Fahrens von einer Vielzahl von in einem Fahrzeug installierten Kameras aufgenommen werden, durch entsprechende Kanäle, die mit den Kameras verbunden sind; das Modifizieren der erhaltenen Bilder in Draufsichtbilder, um eine Vielzahl von modifizierten Bildern zu erzeugen; das Zusammensetzen der Vielzahl von modifizierten Bildern, um Bilder zu erzeugen, die ein Fahrzeug umgeben; Extrahieren einer Fahrspur aus den Bildern, die das Fahrzeug umgeben, und Ermitteln der Information über einen Abstand zwischen dem Fahrzeug und der extrahierten Fahrspur oder der Information über einen Winkel zwischen der Fahrtrichtung des Fahrzeugs und der Fahrspur, um ein Verlassen der Fahrspur zu bestimmen; und Ausgeben einer Warnung, wenn das Verlassen der Fahrspur bestimmt wird.
  • JP 2013-174 998 A beschreibt eine Fahrzeugerkennungsvorrichtung. Die Fahrzeugerkennungsvorrichtung umfasst: einen Fotografierteil, der eine Seite eines fahrenden Fahrzeugs fotografieren kann; einen Verarbeitungsbereich-Einstellteil, der einen Bereich, der einen charakteristischen Punkt in Bezug auf ein von dem Fotografierteil fotografiertes Bild enthält, als Verarbeitungsbereich einstellt; einen Bewegungserfassungsteil, der eine Bewegung des charakteristischen Punkts auf der Grundlage einer Vielzahl von Bildern, die sich in einer Fotografierzeit unterscheiden, erfasst; einen Durchschnittsbewegungs-Schätzteil, der einen Durchschnittswert der Bewegungen des charakteristischen Punkts berechnet; einen Relativbewegungsdetektionsteil, der eine Relativbewegung des charakteristischen Punktes berechnet, indem er dessen Durchschnittswert von den Bewegungen des charakteristischen Punktes abzieht; einen Histogrammerstellungsteil, der ein Histogramm auf der Grundlage der für jeden charakteristischen Punkt erhaltenen Relativbewegung erstellt; und einen Rotationsbestimmungsteil, der auf der Grundlage einer Histogrammverteilung bestimmt, ob das Bild im Verarbeitungsbereich ein rotierender Körper ist oder nicht, um ein Fahrzeug zu erkennen.
  • ZUSAMMENFASSUNG
  • Die vorliegende Erfindung bezieht sich auf ein Gerät nach Anspruch 1. Die Ansprüche 2 bis 7 beschreiben besonders vorteilhafte Realisierungen des Geräts nach Anspruch 1.
  • Ein Aspekt der vorliegenden Erfindung bezieht sich auf ein Gerät zum sicheren Führen eines Fahrzeugs, das eine Draufsicht ausgibt, indem Bilder synthetisiert werden, die durch Fotografieren der Fahrzeugumgebung erfasst wurden, eine Fahrspur in der Draufsicht erkennt und ausgibt, den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt, indem es ein Reifenformmerkmal auf einer Seitenabbildung des Fahrzeugs erkennt, und dem Fahrer eine Gefahr meldet, indem es ein Warnsignal ausgibt, wenn das Fahrzeug in den Anwesenheitsbereich eines Fremdfahrzeugs hineinkommt.
  • Die Aufgaben der vorliegenden Erfindung sind nicht auf die oben beschriebenen Aufgaben beschränkt, und andere, oben nicht beschriebene Aufgaben werden für eine fachkundige Person aus der nachstehenden Beschreibung klar erkenntlich sein.
  • Eine beispielhafte Ausführungsform der vorliegenden Erfindung stellt ein Gerät zum sicheren Führen eines Fahrzeugs bereit, einschließend: eine Kameraeinheit, die, auf einem Fahrzeug stationiert, eine Mehrzahl von Bildern verschiedener Richtungen ausgibt, indem sie die Fahrzeugumgebung aufnimmt, wobei die Mehrzahl der Bilder ein linkes Bild und ein rechtes Bild des Fahrzeug umfasst; eine Draufsicht-Ausgabeeinheit, die die Mehrzahl der Bilder synthetisiert, um eine Draufsicht auszugeben; eine Fahrspur-Detektionseinheit, die anhand der Draufsicht sowie unter Berücksichtigung eines Fahrspurmerkmals der Draufsicht eine linke oder rechte Fahrspur des Fahrzeugs erkennt; eine Seitenfahrzeug-Detektionseinheit, die in mindestens entweder dem linken oder dem rechten Bild das Rad eines Fremdfahrzeugs erkennt; eine Fremdfahrzeugbereich-Einschätzeinheit, die den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt, indem sie die Position des erkannten Rads berücksichtigt; und eine Warnsignal-Ausgabeeinheit, die ein Warnsignal ausgibt, wenn sich das Fahrzeug auf der erkannten Fahrspur befindet und in den Anwesenheitsbereich eines Fremdfahrzeugs hineinkommt.
  • In diesem Fall detektiert die Fahrspur-Detektionseinheit eine Mehrzahl von Fahrspurmittelpunkten mit einem vorgegebenen Mindesthelligkeitswert, indem sie für jeden vorgegebenen Bereich einen Rechteckfilter in einer vorgegebenen Richtung in Bezug auf ein Graustufenbild der Draufsicht anwendet.
  • Die Fahrspur-Detektionseinheit detektiert basierend auf den jeweiligen Fahrspurmittelpunkten linke und rechte Merkmalspunkte, wobei der linke Merkmalspunkt und der rechte Merkmalspunkt den Grenzen vorgegebener Fahrspur-Helligkeitsmuster entsprechen.
  • Die Fahrspur-Detektionseinheit führt basierend auf dem linken Merkmalspunkt und dem rechten Merkmalspunkt eine Suche in allen Strahlrichtungen durch, um eine Linienkomponente für den linken Merkmalspunkt und den rechten Merkmalspunkt zu extrahieren und basierend auf dem Fahrspurmittelpunkt eine linke oder rechte Fahrspur des Fahrzeugs zu detektieren, wenn der Winkelunterschied zwischen der Linienkomponente für den linken Merkmalspunkt und der Linienkomponenten für den rechten Merkmalspunkt einen Schwellenwert bildet oder darunter liegt.
  • Die Seitenfahrzeug-Detektionseinheit kann das Rad eines Fremdfahrzeugs detektieren, indem sie mindestens eines aus einer Mehrzahl von „Haar-like“-Merkmalen in mindestens einem der linken Bilder oder rechten Bilder nutzt.
  • Die Seitenfahrzeug-Detektionseinheit kann mit einem Adaboost-Algorithmus mindestens eines aus der Mehrzahl von „Haar-like“-Merkmalen auswählen und das Rad eines Fremdfahrzeugs unter Verwendung des gewählten „Haar-like“-Merkmals detektieren.
  • Wenn zwei oder mehr „Haar-like“-Merlanale ausgewählt werden, kann die Seitenfahrzeug-Detektionseinheit zwei oder mehr „Haar-like“-Merkmale kombinieren, um das Rad eines Fremdfahrzeugs zu detektieren.
  • Die Fremdfahrzeugbereich-Einschätzeinheit kann, basierend auf der Position des detektierten Rads, einen Bereich mit einer vorgegebenen Form und einer vorgegebenen Größe als den Anwesenheitsbereich eines Fremdfahrzeugs schätzen.
  • Die Warnsignal-Ausgabeeinheit kann das Warnsignal ausgeben, wenn der Abstand zwischen dem Fahrzeug und dem Anwesenheitsbereich des Fremdfahrzeugs geringer als ein vorgegebener Abstand ist.
  • Das Gerät zum sicheren Führen eines Fahrzeugs kann weiterhin eine Warneinheit umfassen, die dem Fahrer des Fahrzeugs eine Gefahr meldet.
  • Gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung erreicht ein Gerät zum sicheren Führen eines Fahrzeugs eine oder mehrere Wirkungen.
  • Erstens wird anhand eines Umgebungsbildes eines Fahrzeugs ein Radformmerkmal detektiert, um ein Fremdfahrzeug zu erkennen, das mit dem Fahrzeug kollidieren könnte.
  • Zweitens wird ein Radformmerkmal eines Fremdfahrzeugs, das unter Verwendung eines „Haar-like“-Merkmals detektiert wurde, berücksichtigt und zusätzlich ein Adaboost-Algorithmus angewandt, um das Fremdfahrzeug genau zu erkennen.
  • Drittens wird ein Anwesenheitsbereich eines Fremdfahrzeugs in einer Draufsicht geschätzt und, wenn das Fahrzeug in den Anwesenheitsbereich des Fremdfahrzeugs hinkommt, der Fahrer vom System gewarnt, indem er einen genauen Warnhinweis wie beispielsweise in Form einer Bildschirmanzeige oder dergleichen erhält. Der Fahrer erkennt durch den Bildschirm, wie nah sein Fahrzeug dem Fremdfahrzeug ist, was erheblich zum sicheren Führen des Fahrzeugs beiträgt.
  • Die Wirkungen der vorliegenden Erfindung sind nicht auf die oben beschriebenen Wirkungen beschränkt, so dass ein Fachkundiger die übrigen Wirkungen klar erkennen wird, die nicht im Rahmen der Ansprüche beschrieben wurden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
    • 1 zeigt ein Konfigurationsdiagramm, das eine Konfiguration eines Geräts zum sicheren Führen eines Fahrzeugs gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 2 ist eine Beispieldarstellung, die den Zustand veranschaulicht, in dem eine Fahrspur-Detektionseinheit einen Merkmalspunkt unter Verwendung eines Rechteckfilters gemäß der in 1 veranschaulichten beispielhaften Ausführungsform berechnet.
    • 3 ist eine Beispieldarstellung, die den Zustand veranschaulicht, in dem eine Linienkomponente aus dem Merkmalspunkt extrahiert wird, der von der in 1 dargestellten Fahrspur-Detektionseinheit berechnet wurde.
    • 4 veranschaulicht die Detektion eines Radformmerkmals in einem Seitenbild des Fahrzeugs durch die Seitenfahrzeug-Detektionseinheit sowie einen von einem Adaboost-Algorithmus konfigurierten schwachen Klassifikator und einen starken Klassifikator.
    • 5 stellt ein virtuelles Dreieck für die Fremdfahrzeugbereich-Einschätzeinheit dar, um den Abstand zwischen dem Fahrzeug und einem Fremdfahrzeug auf einer Seite zu erfassen.
    • 6 ist eine Draufsicht, die den Zustand veranschaulicht, in dem die Fremdfahrzeugbereich-Einschätzeinheit den Anwesenheitsbereich eines Fremdfahrzeugs abschätzt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Vorteile und Merkmale der vorliegenden Erfindung sowie die Verfahren zu deren Umsetzung werden unter Bezugnahme auf Beispiele offensichtlich werden, die nachstehend gemeinsam mit den begleitenden Zeichnungen ausführlich beschrieben werden. Die vorliegende Erfindung ist jedoch nicht auf die nachstehend dargelegten beispielhaften Ausführungsformen beschränkt und kann in vielfältigen anderen Formen ausgeführt werden. Die vorliegenden beispielhaften Ausführungsformen dienen der vollständigen Beschreibung der vorliegenden Erfindung und sind dargelegt, um einem Fachmann auf dem Gebiet, zu dem die vorliegende Erfindung gehört, ein umfassendes Verständnis über den Umfang der Erfindung zu verschaffen, und die vorliegende Erfindung wird nur durch den Umfang der Ansprüche definiert. In der Patentschrift werden gleiche Elemente durchweg mit den gleichen Bezugszeichen bezeichnet.
  • Im Folgenden wird die vorliegende Erfindung unter Bezugnahme auf Zeichnungen beschrieben, die ein Gerät zum sicheren Führen eines Fahrzeugs gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung darlegen.
  • 1 zeigt ein Konfigurationsdiagramm, das eine Konfiguration eines Geräts zum sicheren Führen eines Fahrzeugs gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht. Das Gerät zum sicheren Führen eines Fahrzeugs gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung umfasst eine Kameraeinheit 100, eine Draufsicht-Ausgabeeinheit 200, eine Fahrspur-Detektionseinheit 300, eine Seitenfahrzeug-Detektionseinheit 400, eine Fremdfahrzeugbereich-Einschätzeinheit 500, eine Warnsignal-Ausgabeeinheit 600 und eine Warneinheit 700.
  • Die Kameraeinheit 100 gibt ein Umgebungsbild eines Fahrzeugs aus, indem es die nähere Umgebung des Fahrzeugs aufnimmt. Im Einzelnen kann die Kameraeinheit 100 eine Mehrzahl von Kameras umfassen, die an verschiedenen Stellen des Fahrzeugs angeordnet sind. Die jeweiligen Kameras der Kameraeinheit 100 sind so installiert, dass sie unterbrechungslos eine vorgegebene Richtung in einem vorgegebenen Sichtfeld aufnehmen. Beispielsweise kann die Kameraeinheit 100 eine erste Kamera umfassen, die am vorderen Stoßfänger des Fahrzeugs und dergleichen angeordnet ist, um eine vordere Situation aufzunehmen, eine zweite Kamera, die am linken Außenspiegel des Fahrzeugs und dergleichen angeordnet ist, um eine linke Situation aufzunehmen, eine dritte Kamera, die am rechten Außenspiegel des Fahrzeugs und dergleichen angeordnet ist, um eine rechte Situation aufzunehmen, und eine vierte Kamera, die am hinteren Stoßfänger des Fahrzeugs und dergleichen angeordnet ist, um eine rückwärtige Situation aufzunehmen. Die Kameraeinheit 100 kann betrieben werden, wenn das Fahrzeug fährt. Die Kameraeinheit 100 kann durch Betätigen eines separaten Schalters betrieben werden.
  • Die Kameraeinheit 100 gibt an die Seitenfahrzeug-Detektionseinheit 400 ein Bild aus, das mindestens einem Teilsichtfeld der Fahrzeugumgebung entspricht. Beispielsweise kann die Kameraeinheit 100 ein linkes, von der zweiten Kamera erfasstes Bild sowie ein rechtes, von der dritten Kamera erfasstes Bild an die Seitenfahrzeug-Detektionseinheit 400 ausgeben.
  • Die Draufsicht-Ausgabeeinheit 200 synthetisiert eine Mehrzahl von Bildern unterschiedlicher Sichtfelder, die von der Kameraeinheit 100 bereitgestellt werden, um eine Draufsicht des Fahrzeugs auszugeben. Die Draufsicht-Ausgabeeinheit 200 gibt die Draufsicht der Fahrzeugumgebung in einer von oben nach unten weisenden Richtung aus. Die Draufsicht-Ausgabeeinheit 200 kann ein Rundumsichtüberwachungssystem (engl. Around View Monitoring, AVM) sein. Das heißt, dass die Draufsicht-Ausgabeeinheit 200 Umgebungsbilder des Fahrzeugs, die von mehreren, an verschiedenen Stellen des Fahrzeugs angeordneten Kameras erfasst werden, zu einem einzelnen Bild synthetisiert, um die Draufsicht auszugeben.
  • Die Fahrspur-Detektionseinheit 300 detektiert eine Fahrspur auf einer Seite des Fahrzeugs, indem sie ein Fahrspurmerkmal in der Draufsicht berücksichtigt. Die Fahrspur-Detektionseinheit 300 detektiert ein zur Fahrspur gehörendes Merkmal mindestens entweder auf der linken Fahrzeugseite oder auf der rechten Fahrzeugseite, indem sie einen Rechteckfilter in der Draufsicht verwendet. Beispielsweise wendet die Fahrspur-Detektionseinheit 300 den Rechteckfilter auf eine vorgegebene Richtung (z. B. von links nach rechts oder von rechts nach links) in einem Graustufenbild der Draufsicht an, um eine Mehrzahl von Fahrspurmittelpunkten mit einem vorgegebenen Mindesthelligkeitswert zu detektieren. In diesem Fall kann die Fahrspur-Detektionseinheit 300 den Rechteckfilter auf jeden vorgegebenen Bereich des Graustufenbilds anwenden und den Fahrspurmittelpunkt für jeden Bereich detektieren.
  • Basierend auf jedem detektierten Fahrspurmittelpunkt CP berechnet die Fahrspur-Detektionseinheit 300 einen linken Merkmalspunkt LP und einen rechten Merkmalspunkt RP. Jeder linke Merkmalspunkt LP und rechte Merkmalspunkt RP kann einer Grenze eines vorgegebenen Fahrspurhelligkeitsmusters entsprechen. Der Prozess, mit dem die Fahrspur-Detektionseinheit 300 unter Verwendung des Rechteckfilters den Merkmalspunkt berechnet, wird nun unter Bezugnahme auf 2 beschrieben.
  • Basierend auf dem linken Merkmalspunkt LP und dem rechten Merkmalspunkt RP führt die Fahrspur-Detektionseinheit 300 eine Suche in allen Strahlrichtungen durch, um eine Linienkomponente der Draufsicht zu extrahieren. Beispielsweise führt die Fahrspur-Detektionseinheit 300 basierend auf dem linken Merkmalspunkt LP und dem rechten Merkmalspunkt RP eine 360° -Suche durch, um die Linienkomponente zu extrahieren. Der Prozess, mit dem die Fahrspur-Detektionseinheit 300 die Linienkomponente aus dem berechneten Merkmalspunkt extrahiert, wird unten unter Bezugnahme auf 3 beschrieben.
  • 2 ist eine Beispieldarstellung, die den Zustand veranschaulicht, in dem die Fahrspur-Detektionseinheit 300 den Merkmalspunkt unter Verwendung des Rechteckfilters gemäß der in 1 veranschaulichten beispielhaften Ausführungsform berechnet. Die Fahrspur-Detektionseinheit 300 detektiert die Fahrspur in mindestens entweder dem linken Bereich oder dem rechten Bereich des Fahrzeugs, indem sie einen Rechteckfilter in der Draufsicht verwendet.
  • Die Fahrspur-Detektionseinheit 300 detektiert einen Rand, indem sie den Rechteckfilter in horizontaler Richtung im Graustufenbild der Draufsicht anwendet und den Fahrspurmittelpunkt basierend auf dem Helligkeitswert des detektierten Randes detektiert. Im Einzelnen wandelt die Fahrspur-Detektionseinheit 300 die Draufsicht in das Graustufenbild um. Die Fahrspur-Detektionseinheit 300 wendet den Rechteckfilter in horizontaler Richtung im Graustufenbild an. Die Fahrspur-Detektionseinheit 300 detektiert den Fahrspurmittelpunkt CP, an dem der Helligkeitswert für jeden Rand eines lokalen Bereichs im Graustufenbild, auf das der Rechteckfilter angewandt wird, sein Maximum erreicht.
  • Weiterhin kann die Fahrspur-Detektionseinheit 300 basierend auf jedem Fahrspurmittelpunkt CP den linken Merkmalspunkt LP, der eine linke Grenze der Fahrspur ist, und den rechten Merkmalspunkt RP, der eine rechte Grenze der Fahrspur ist, detektieren. Der von der Fahrspur-Detektionseinheit 300 detektierte linke Merkmalspunkt LP und der von der Fahrspur-Detektionseinheit 300 detektierte rechte Merkmalspunkt RP werden auf einer Grenze P zwischen einem dunklen Teil D und einem hellen Teil B einer Straßenoberfläche positioniert. Der helle Teil B kann hier ein Teil sein, in dem die Fahrspur tatsächlich gezogen ist, und der dunkle Teil D kann ein Teil sein, in dem die Fahrspur nicht gezogen ist.
  • 3 ist eine Beispieldarstellung, die den Zustand veranschaulicht, in dem die Linienkomponente basierend auf den Merkmalspunkten, die von der Fahrspur-Detektionseinheit 300 gemäß dem in 1 dargestellten beispielhaften Ausführungsform detektiert wurden, aus der Draufsicht extrahiert wird. Basierend auf dem linken Merkmalspunkt LP und dem rechten Merkmalspunkt RP führt die Fahrspur-Detektionseinheit 300 eine Suche in allen Strahlrichtungen durch, um die Linienkomponente zu extrahieren. Beispielsweise führt die Fahrspur-Detektionseinheit 300 basierend auf dem linken Merkmalspunkt LP und dem rechten Merkmalspunkt RP eine 360° -Suche durch, um die Linienkomponente zu extrahieren. Jede extrahierte Linienkomponente kann hier einer geraden Linie entsprechen. Die Fahrspur-Detektionseinheit 300 gemäß der beispielhaften Ausführungsform kann basierend auf jedem rechten Merkmalspunkt RP in 3 eine Suche im Uhrzeigersinn und basierend auf jedem linken Merkmalspunkt LP in 3 eine Suche gegen den Uhrzeigersinn durchführen. Alternativ kann die Fahrspur-Detektionseinheit 300 basierend auf dem rechten Merkmalspunkt RP eine Suche gegen den Uhrzeigersinn und basierend auf dem linken Merkmalspunkt LP eine Suche im Uhrzeigersinn durchführen.
  • Basierend auf den gesuchten Merkmalspunkten erfolgt eine Linienanpassung. Linienanpassung kann hier bedeuten, dass zwei oder mehr gerade Linien zu einer geraden Linie angenähert werden. Die Linienkomponenten für den linken Merkmalspunkt LP und die Linienkomponenten für den rechten Merkmalspunkt RP können mittels Anpassungsinformationen von den extrahierten Linienkomponenten extrahiert werden.
  • Die Fahrspur-Detektionseinheit 300 vergleicht die Winkel der extrahierten Linienkomponenten, um die Effektivität der verschiedenen Linienkomponenten zu prüfen. Beispielsweise kann die Fahrspur-Detektionseinheit 300 gemäß der beispielhaften Ausführungsform ermitteln, dass die Effektivität zwischen den Linienkomponenten für die linken Merkmalspunkte LP und die Linienkomponenten für die rechten Merkmalspunkte RP zufriedenstellend ist, wenn eine Winkeldifferenz (alternativ Neigung) zwischen den Linienkomponenten für die linken Merkmalspunkte LP und den Linienkomponenten für die rechten Merkmalspunkte RP gleich oder kleiner als ein vorgegebener Schwellenwert (z. B. 5°) ist.
  • Wenn die Effektivität zwischen den Linienkomponenten zufriedenstellend ist, wird eine Fahrspur-Kandidatengruppe basierend auf dem Fahrspurmittelpunkt CP der zwischen den Linienkomponenten positionierten Fahrspur von der Fahrspur-Detektionseinheit 300 detektiert und gespeichert.
  • Basierend auf dem Fahrzeug in der Fahrspur-Kandidatengruppe erkennt die Fahrspur-Detektionseinheit 300 eine linke repräsentative Fahrspur und eine rechte repräsentative Fahrspur. Die Fahrspur-Detektionseinheit 300 ermittelt die beiden repräsentativen Fahrspuren als Fahrspuren des Fahrzeugs. Beispielsweise kann basierend auf dem Fahrzeug eine längste Fahrspur als die linke repräsentative Fahrspur in der linken Fahrspur-Kandidatengruppe und basierend auf dem Fahrzeug eine längste rechte Fahrspur als die rechte repräsentative Fahrspur in der rechten Fahrspur-Kandidatengruppe erkannt werden.
  • 4 veranschaulicht, dass die Seitenfahrzeug-Detektionseinheit 400 ein Radformmerkmal TF im linken Bild oder rechten Bild des Fahrzeugs detektiert, und zeigt einen mit einem Adaboost-Algorithmus konfigurierten schwachen Klassifikator (WC) und einen starken Klassifikator (SC).
  • Die Seitenfahrzeug-Detektionseinheit 400 detektiert das zu einer vorgegebenen Radform im linken Bild oder im rechten Bild des Fahrzeugs gehörende Merkmal TF, um ein Rad eines Fremdfahrzeugs zu erkennen, das sich auf der linken Seite oder der rechten Seite des Fahrzeugs befindet.
  • Im Einzelnen empfängt die Seitenfahrzeug-Detektionseinheit 400 das von der Kameraeinheit 100 ausgegebene linke Bild oder rechte Bild des Fahrzeugs. Alternativ kann die Seitenfahrzeug-Detektionseinheit 400 die von der Draufsicht-Ausgabeeinheit 200 bereitgestellte Draufsicht empfangen.
  • Die Seitenfahrzeug-Detektionseinheit 400 detektiert das zur Radform gehörende Merkmal TF in mindestens entweder dem linken Bild, dem rechten Bild oder der Draufsicht, indem sie mindestens eines aus einer Mehrzahl vorgegebener „Haar-like“-Merkmale verwendet. Im Folgenden wird davon ausgegangen, dass die Seitenfahrzeug-Detektionseinheit 400 das zur Radform gehörende Merkmal TF im linken Bild oder im rechten Bild detektiert.
  • Die von der Seitenfahrzeug-Detektionseinheit 400 verwendeten „Haar-like“-Merkmale können beispielsweise ein Randmerkmal, das ein Merkmal einer Konturlinie ist, ein den Mittelpunkt umgebendes Mittelpunktumgebungsmerkmal und ein Linienmerkmal mit der Form einer Linie umfassen. Die Seitenfahrzeug-Detektionseinheit 400 speichert das detektierte Radformmerkmal TF. Das Radformmerkmal TF, welches die Seitenfahrzeug-Detektionseinheit 400 zu detektieren beabsichtigt, kann ein Kreis mit einer vorgegebenen Größe sein.
  • Das Randmerkmal kann der Form eines ganzen Rads in einem Bild der Fahrzeugkarosserie entsprechen. Das Mittelpunktumgebungsmerkmal kann den Formen eines Rahmens und eines Reifens entsprechen, die das Rad des ganzen Rads umgeben. Das Linienmerkmal kann den Formen eines das Rad und die Karosserie verbindenden Aufhängungssystems, einem leeren Raum des Rads und dergleichen entsprechen.
  • Es können unzählige Formen der „Haar-like“-Merkmale vorhanden sein, wobei die jeweiligen Formen als Klassifikatoren verwendet werden können, um den zum Rad eines Fremdfahrzeugs gehörenden Teil ausgehend von den übrigen Teilen im linken Bild oder rechten Bild zu klassifizieren. Im Allgemeinen ist es jedoch unmöglich, Objekte allein mit Hilfe eines „Haar-like“-Merkmals zu klassifizieren. Um das Problem zu lösen, kann in der beispielhaften Ausführungsform der Adaboost-Algorithmus verwendet werden. Der Adaboost-Algorithmus kann mindestens ein geeignetes Merkmal auswählen, um das Rad in der Mehrzahl von „Haar-like“-Merkmalen zu detektieren. In diesem Fall können die jeweils gewählten „Haar-like“-Merkmale als der schwache Klassifikator verwendet werden.
  • Der schwache Klassifikator (WC) wird mit Hilfe des Adaboost-Algorithmus von der Seitenfahrzeug-Detektionseinheit 400 konfiguriert und gespeichert. 4A veranschaulicht eine Kombination von vier schwachen Klassifikatoren (WC), die von der Seitenfahrzeug-Detektionseinheit 400 verwendet werden. In 4A sind die betreffenden schwachen Klassifikatoren durch Linien dargestellt.
  • 4B veranschaulicht, wie die Seitenfahrzeug-Detektionseinheit 400 das Radformmerkmal TF eines Fremdfahrzeugs im linken Bild oder im rechten Bild unter Verwendung des starken Klassifikators (SC) detektiert. Der starke Klassifikator (SC) kann durch die Kombination von vier schwachen Klassifikatoren (WC) gebildet werden.
  • Die vier schwachen Klassifikatoren können beispielsweise Klassifikatoren sein, die anhand eines Testbildes in einem früheren Lernschritt angelernt wurden.
  • Im Fall des starken Klassifikators werden zwei oder mehr schwache Klassifikatoren kombiniert, um einen starken Klassifikator zu bilden. Beispielsweise kann die Seitenfahrzeug-Detektionseinheit 400 als Rad nur einen vom Radformmerkmal TF klassifizierten Bereich detektieren, indem alle der zwei oder mehreren schwachen Klassifikatoren im linken Bild oder im rechten Bild herangezogen werden.
  • Anhand der vorhandenen angelernten Informationen kann der Adaboost-Algorithmus die in Echtzeit bereitgestellten Informationen des Rades überprüfen.
  • Die Seitenfahrzeug-Detektionseinheit 400 konfiguriert den starken Klassifikator (SC) unter Verwendung des Adaboost-Algorithmus und detektiert anschließend über den starken Klassifikator (SC) das Radformmerkmal TF im linken Bild oder im rechten Bild.
  • Wenn die Seitenfahrzeug-Detektionseinheit 400 das Radformmerkmal TF im linken Bild oder im rechten Bild detektiert, während das Fahrzeug fährt, erkennt die Seitenfahrzeug-Detektionseinheit 400 das Rad. Wenn der durch die Mehrzahl von „Haar-like“-Merkmalen gebildete Adaboost-Algorithmus den Lernprozess für ein Textbild beendet, detektiert die Seitenfahrzeug-Detektionseinheit 400 das Radformmerkmal TF anhand aller von der Kameraeinheit 100 bereitgestellten Bilder (z. B. das linke Bild und das rechte Bild) und erkennt das Radformmerkmal TF als das Rad eines Fremdfahrzeugs, das sich auf der linken Seite oder der rechten Seite des Fahrzeugs befindet.
  • Wenn die Seitenfahrzeug-Detektionseinheit 400 das Radformmerkmal TF in einer Tunneleingangssituation erkennt, berechnet die Seitenfahrzeug-Detektionseinheit 400 entsprechend des Radformmerkmals TF einen mittleren Helligkeitswert. Wenn die Seitenfahrzeug-Detektionseinheit 400 das Radformmerkmal TF erkennt, berechnet die Seitenfahrzeug-Detektionseinheit 400 den mittleren Helligkeitswert eines Nicht-Radformmerkmals (NTF). Überschreitet ein durch Subtrahieren des mittleren Helligkeitswerts des Nicht-Radformmerkmals (NTF) vom mittleren Helligkeitswerts des Radformmerkmals TF erlangter Wert einen vorgegebenen Schwellenwert, erkennt die Seitenfahrzeug-Detektionseinheit 400 das detektierte Radformmerkmal TF als das Rad des Fahrzeugs, das sich auf einer Seite des Fahrzeugs befindet.
  • 5 stellt ein virtuelles Dreieck für die Fremdfahrzeugbereich-Einschätzeinheit 500 dar, um den Abstand zwischen dem Fahrzeug und einem Fremdfahrzeug LC zu erfassen. Die Fremdfahrzeugbereich-Einschätzeinheit 500 schätzt den Anwesenheitsbereich eines Fremdfahrzeugs ein, indem sie das Radformmerkmal TF des detektierten Fremdfahrzeugs berücksichtigt.
  • Im Einzelnen wird angenommen, dass die Kameraeinheit 100 in einer Höhe H vom Erdboden installiert ist. Selbstverständlich kann die Höhe H, in der die Kameraeinheit 100 installiert ist, je nach Fahrzeug variieren. Die Installationshöhe H der Kameraeinheit ist ein vorgegebener Wert. Ein Kamerawinkel C, der ein Winkel zwischen der Kameraeinheit 100 und der Mitte eines Teils unterhalb eines Fremdfahrzeugs LC auf einer Seite ist, kann je nach relativer Position des Fremdfahrzeugs in Bezug auf das Fahrzeug variieren. Ein vertikales Sichtfeld (Vertical Field Of View; VFOV) der Kameraeinheit 100 kann je nach Leistungsfähigkeit der Kamera variieren und ist je nach Einstellung ein vorgegebener Wert.
  • Die Fremdfahrzeugbereich-Einschätzeinheit 500 errechnet unter Verwendung eines Kameraparameters der Kameraeinheit 100 eine Koordinate des Radformmerkmals TF. Die Fremdfahrzeugbereich-Einschätzeinheit 500 kann einen Winkel S berechnen, der von einer Linie gebildet wird, die von einem Teil unterhalb des Fremdfahrzeugs LC erzeugt wird, einschließlich der Mitte des Teils unterhalb des Fremdfahrzeugs LC und der Kameraeinheit 100 und eines Teils unterhalb des Radformmerkmals TF, indem sie einen Abstrahlwinkel C der Kameraeinheit 100 und das vertikale Sichtfeld (VFOV) der Kameraeinheit 100 verwendet. Die Fremdfahrzeugbereich-Einschätzeinheit 500 kann einen Abstand d zwischen dem Fahrzeug und dem Fremdfahrzeug LC berechnen. Die Fremdfahrzeugbereich-Einschätzeinheit 500 kann (mittels Gleichung 1) einen Abstand Z zwischen der Kameraeinheit 100 und eines Teils unterhalb eines Vierecks, einschließlich eines detektierten Nummernschilds, berechnen. sin ( S ) = H Z
    Figure DE102016100030B4_0001
  • Die Fremdfahrzeugbereich-Einschätzeinheit 500 berechnet eine Koordinate des Punkts P(x, y) in dem Bild auf einer Fahrzeugseite. Der von der Fremdfahrzeugbereich-Einschätzeinheit 500 berechnete Punkt P(x, y) ist eine Koordinate der Mitte eines Teils des Vierecks, einschließlich des Fremdfahrzeugs LC, das den Erdboden berührt. Die Fremdfahrzeugbereich-Einschätzeinheit 500 erstellt ein X'Y'-Koordinatensystem auf einer Ebene parallel zur XY-Ebene in einem Koordinatensystem des von der Kameraeinheit 100 aufgenommenen Bildes. Die Fremdfahrzeugbereich-Einschätzeinheit 500 berechnet anhand der Koordinate eine Koordinate des Radformmerkmals TF.
  • Zwischenzeitlich kann die Fremdfahrzeugbereich-Einschätzeinheit 500 die Position des Fremdfahrzeugs basierend auf der Draufsicht bestimmen. Im Einzelnen kann die Fremdfahrzeugbereich-Einschätzeinheit 500 die Mittelkoordinate der Draufsicht als Position des Fahrzeugs festlegen, die Koordinate des in der Draufsicht gezeigten Radformmerkmals TF berechnen und dann basierend auf einer Differenz zwischen der berechneten Koordinate des Radformmerkmals TF und der Mittelkoordinate die relative Position des Fremdfahrzeugs in Bezug auf das Fahrzeug ermitteln. Die Fremdfahrzeugbereich-Einschätzeinheit kann weiterhin basierend auf der Position des Fremdfahrzeugs einen Bereich mit einer vorgegebenen Form und einer vorgegebenen Größe als den Anwesenheitsbereich eines Fremdfahrzeugs schätzen.
  • 6 ist eine Draufsicht, die den Zustand veranschaulicht, in dem die Fremdfahrzeugbereich-Einschätzeinheit den Anwesenheitsbereich (LCA) eines Fremdfahrzeugs schätzt. Die Fremdfahrzeugbereich-Einschätzeinheit 500 berechnet eine Koordinate des Radfonnmerkmals TF in einer Draufsicht. Die Fremdfahrzeugbereich-Einschätzeinheit 500 schätzt als Fremdfahrzeugbereich (LCA) einen rechteckigen Bereich, einschließlich des in der Draufsicht berechneten Radformmerkmals TF. Wie in 6 veranschaulicht, kann die Fremdfahrzeugbereich-Einschätzeinheit 500 als den Anwesenheitsbereich (LCA) eines Fremdfahrzeugs beispielsweise einen rechteckigen Bereich mit einer horizontalen Länge und einer vertikalen Länge einschätzen, der die beiden Radformmerkmale TF umgibt.
  • Derweil veranschaulicht 6, dass ein Anwesenheitsbereich (LCA) für zwei Radformmerkmale TF geschätzt wird, wobei die vorliegende Erfindung aber nicht darauf beschränkt ist. Ist beispielsweise der Abstand zwischen zwei Radformmerkmalen TF größer als ein Referenzabstand, kann die Fremdfahrzeugbereich-Einschätzeinheit 500 die verschiedenen Anwesenheitsbereiche für jedes Radformmerkmal TF berechnen. Das heißt, ein zu einem beliebigen Radformmerkmal TF gehörendes Fremdfahrzeug und ein zu einem anderen Radformmerkmal TF gehörendes Fremdfahrzeug können so verarbeitet werden, dass sie voneinander unterschieden werden.
  • Da sich der Abstand zwischen den Rädern in der Regel vergrößert, wenn die Größe des Fahrzeugs zunimmt, kann die Fremdfahrzeugbereich-Einschätzeinheit 500 gemäß der beispielhaften Ausführungsform die horizontale Länge und die vertikale Länge des Rechtecks einstellen, indem sie die Entfernung zwischen den detektierten Radformmerkmalen TF berechnet. Die Fremdfahrzeugbereich-Einschätzeinheit 500 kann den Fremdfahrzeugbereich (LCA) genau einschätzen, indem sie den Abstandswert zwischen den verschiedenen Radformmerkmalen TF berücksichtigt.
  • Die Warnsignal-Ausgabeeinheit 600 gibt entsprechend der Fahrsituation eines Fahrzeugs ein Warnsignal an die Warneinheit 700 aus. Wenn beispielsweise i) das Fahrzeug von der von der Fahrspur-Detektionseinheit 300 detektierten Fahrspur abweicht und sich infolgedessen ein Teil des Fahrzeugs auf einer zuvor detektierten linken Fahrspur oder rechten Fahrspur befindet, ii) der Abstand zwischen dem Fahrzeug und dem Fremdfahrzeugbereich (LCA) einen vorgegebenen Abstand unterschreitet, iii) das Fahrzeug in den Fremdfahrzeugbereich (LCA) hineinkommt und dergleichen, gibt die Warnsignal-Ausgabeeinheit 600 das Warnsignal an die Warneinheit 700 aus. Die Warnsignal-Ausgabeeinheit 600 gibt das Warnsignal an die Warneinheit 700 aus, wenn das Fahrzeug in das Rechteck in der Draufsicht hineinkommt.
  • Basierend auf dem Warnsignal meldet die Warneinheit 700 dem Fahrer eine Gefahr. Die Warneinheit 700 kann mindestens entweder ein Tonausgabemodul, ein Bildausgabemodul oder ein Haptikmodul umfassen. Je nach Warnsignal kann die Warneinheit 700 beispielsweise eine akustische, optische oder taktile Rückmeldung geben. Die Warneinheit 700 kann einen Warnhinweis in der Draufsicht ausgeben, um dem Fahrer die Gefahr zu melden.
  • Vorstehend sind bevorzugte beispielhafte Ausführungsformen der vorliegenden Erfindung dargestellt und beschrieben worden, aber die vorliegende Erfindung ist nicht auf die oben beschriebenen spezifischen Ausführungsformen beschränkt und es ist offensichtlich, dass ein Fachkundiger verschiedene Modifikationen vornehmen kann, welche die vorliegende Erfindung betreffen, ohne dadurch vom eigentlichen Kern der vorliegenden Erfindung abzuweichen, die in den Ansprüchen geltend gemacht wird, und wobei derart modifizierte Ausführungsformen nicht getrennt von der technischen Idee oder Perspektive der vorliegenden Erfindung zu betrachten sind.

Claims (7)

  1. Gerät zum sicheren Führen eines Fahrzeugs, wobei das Gerät Folgendes umfasst: eine Kameraeinheit (100), die, auf einem Fahrzeug stationiert, eine Mehrzahl von Bildern verschiedener Richtungen ausgibt, indem sie die Umgebung des Fahrzeugs aufnimmt, wobei die Mehrzahl der Bilder ein linkes Bild und ein rechtes Bild des Fahrzeugs umfasst; eine Draufsicht-Ausgabeeinheit (200), welche die Mehrzahl der Bilder synthetisiert, um eine Draufsicht auszugeben; eine Fahrspur-Detektionseinheit (300), die anhand der Draufsicht eine linke oder rechte Fahrspur des Fahrzeugs detektiert, indem sie ein Fahrspurmerkmal der Draufsicht berücksichtigt; eine Seitenfahrzeug-Detektionseinheit (400), die das Rad eines Fremdfahrzeugs in mindestens entweder dem linken Bild oder dem rechten Bild detektiert; eine Fremdfahrzeugbereich-Einschätzeinheit (500), die den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt, indem sie die Position des detektierten Rads berücksichtigt; und eine Warnsignal-Ausgabeeinheit (600), die ein Warnsignal ausgibt, wenn sich das Fahrzeug auf der detektierten Fahrspur befindet und in den Anwesenheitsbereich eines Fremdfahrzeugs hineinkommt, wobei die Fahrspur-Detektionseinheit (300) eine Mehrzahl von Fahrspurmittelpunkten mit einem oder mehreren vorgegebenen Mindesthelligkeitswerten detektiert, indem sie für jeden vorgegebenen Bereich einen Rechteckfilter in einer vorgegebenen Richtung in Bezug auf ein Graustufenbild der Draufsicht anwendet, wobei die Fahrspur-Detektionseinheit (300) basierend auf den jeweiligen Fahrspurmittelpunkten linke und rechte Merkmalspunkte detektiert, und der linke Merkmalspunkt und der rechte Merkmalspunkt den Grenzen vorgegebener Fahrspurhelligkeitsmuster entsprechen, wobei die Fahrspur-Detektionseinheit (300) basierend auf dem linken Merkmalspunkt und dem rechten Merkmalspunkt eine Suche in allen Strahlrichtungen durchführt, um eine Linienkomponente für den linken Merkmalspunkt und eine Linienkomponente für den rechten Merkmalspunkt zu extrahieren und basierend auf dem Fahrspurmittelpunkt eine linke oder rechte Fahrspur des Fahrzeugs zu detektieren, wenn der Winkelunterschied zwischen der Linienkomponente für den linken Merkmalspunkt und der Linienkomponenten für den rechten Merkmalspunkt auf einem Schwellenwert oder darunter liegt.
  2. Gerät zum sicheren Führen eines Fahrzeugs nach Anspruch 1, wobei die Seitenfahrzeug-Detektionseinheit (400) das Rad eines Fremdfahrzeugs detektiert, indem sie mindestens eines aus einer Mehrzahl von „Haar-like“-Merkmalen in mindestens entweder dem linken Bild oder dem rechten Bild verwendet.
  3. Gerät zum sicheren Führen eines Fahrzeugs nach Anspruch 1 oder 2, wobei die Seitenfahrzeug-Detektionseinheit (400) unter Verwendung eines Adaboost-Algorithmus mindestens eines aus der Mehrzahl von „Haar-like“-Merkmalen auswählt und mit Hilfe des ausgewählten „Haar-like“-Merkmals das Rad eines Fremdfahrzeugs detektiert.
  4. Gerät zum sicheren Führen eines Fahrzeugs nach Anspruch 3, wobei die Seitenfahrzeug-Detektionseinheit (400) bei Auswahl von zwei oder mehr „Haar-like“-Merkmalen zwei oder mehr „Haar-like“-Merkmale kombiniert, um das Rad eines Fremdfahrzeugs zu detektieren.
  5. Gerät zum sicheren Führen eines Fahrzeugs nach einem der vorhergehenden Ansprüche, wobei die Fremdfahrzeugbereich-Einschätzeinheit (500), basierend auf der Position des detektierten Rads, einen Bereich mit einer vorgegebenen Form und einer vorgegebenen Größe als den Anwesenheitsbereich eines Fremdfahrzeugs einschätzt.
  6. Gerät zum sicheren Führen eines Fahrzeugs nach einem der vorhergehenden Ansprüche, wobei die Warnsignal-Ausgabeeinheit (600) das Warnsignal ausgibt, wenn ein Abstand zwischen dem Fahrzeug und dem Anwesenheitsbereich des Fremdfahrzeugs geringer als ein vorgegebener Abstand ist.
  7. Gerät zum sicheren Führen eines Fahrzeugs nach einem der vorhergehenden Ansprüche, weiterhin umfassend: eine Warneinheit (700), die dem Fahrzeugführer eine Gefahr meldet.
DE102016100030.2A 2015-01-13 2016-01-04 Gerät zum sicheren führen eines fahrzeugs Active DE102016100030B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150006393A KR102270677B1 (ko) 2015-01-13 2015-01-13 차량 안전 주행 장치
KR10-2015-0006393 2015-01-13

Publications (2)

Publication Number Publication Date
DE102016100030A1 DE102016100030A1 (de) 2016-07-14
DE102016100030B4 true DE102016100030B4 (de) 2024-05-08

Family

ID=56233926

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016100030.2A Active DE102016100030B4 (de) 2015-01-13 2016-01-04 Gerät zum sicheren führen eines fahrzeugs

Country Status (4)

Country Link
US (1) US10121379B2 (de)
KR (1) KR102270677B1 (de)
CN (1) CN105787431B (de)
DE (1) DE102016100030B4 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016106486A1 (de) 2016-04-08 2017-10-12 Wilhelm Layher Verwaltungs-Gmbh Modularer Fachwerkträger
CN107665327B (zh) * 2016-07-29 2020-03-13 高德软件有限公司 一种车道线检测方法及装置
US10788840B2 (en) * 2016-12-27 2020-09-29 Panasonic Intellectual Property Corporation Of America Information processing apparatus, information processing method, and recording medium
US11206375B2 (en) 2018-03-28 2021-12-21 Gal Zuckerman Analyzing past events by utilizing imagery data captured by a plurality of on-road vehicles
US10586456B2 (en) * 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
CN108647670A (zh) * 2018-05-22 2018-10-12 哈尔滨理工大学 一种基于支持向量机的侧向车辆图像的特征识别方法
CN110659548B (zh) * 2018-06-29 2023-08-11 比亚迪股份有限公司 车辆及其目标检测方法、装置
US11138418B2 (en) 2018-08-06 2021-10-05 Gal Zuckerman Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles
KR102569438B1 (ko) * 2018-10-05 2023-08-24 현대모비스 주식회사 경보 발생 장치 및 방법
CN111222521B (zh) * 2018-11-23 2023-12-22 汕尾比亚迪汽车有限公司 汽车及用于其的车轮受困判断方法及装置
KR102570056B1 (ko) * 2018-12-17 2023-08-23 현대자동차주식회사 차량 및 그 제어방법
CN110077399B (zh) * 2019-04-09 2020-11-06 魔视智能科技(上海)有限公司 一种基于道路标线、车轮检测融合的车辆防碰撞方法
CN110065494B (zh) * 2019-04-09 2020-07-31 魔视智能科技(上海)有限公司 一种基于车轮检测的车辆防碰撞方法
KR20210030523A (ko) * 2019-09-09 2021-03-18 현대자동차주식회사 차량 및 그 제어 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040016870A1 (en) 2002-05-03 2004-01-29 Pawlicki John A. Object detection system for vehicle
US20060015252A1 (en) 2004-07-15 2006-01-19 Mitsubishi Denki Kabushiki Kaisha Lane recognition image processing apparatus
US20100188507A1 (en) 2009-01-23 2010-07-29 Toyota Jidosha Kabushiki Kaisha Road lane marker detection apparatus and road lane marker detection method
US20120062745A1 (en) 2009-05-19 2012-03-15 Imagenext Co., Ltd. Lane departure sensing method and apparatus using images that surround a vehicle
US20120069153A1 (en) 2009-05-25 2012-03-22 Panasonic Corporation Device for monitoring area around vehicle
DE102010063420A1 (de) 2010-12-17 2012-06-21 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem mit einer Sensoranordnung zur Erfassung des Abstandes des eigenen Fahrzeuges zu einem Fremdobjekt
DE102012021461A1 (de) 2012-10-31 2013-05-08 Daimler Ag Verfahren und Vorrichtung zur Klassifikation von Fahrzeugen
JP2013174998A (ja) 2012-02-24 2013-09-05 Nissan Motor Co Ltd 車両検出装置及び車両検出方法
KR20150006393A (ko) 2014-11-03 2015-01-16 김상원 로스톨
DE102013022076A1 (de) 2013-12-23 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7202776B2 (en) * 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
US6577334B1 (en) * 1998-02-18 2003-06-10 Kabushikikaisha Equos Research Vehicle control
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
WO2010006361A1 (en) * 2008-07-14 2010-01-21 National Ict Australia Limited Detection of vehicles in images of a night time scene
TWM353849U (en) * 2008-09-17 2009-04-01 Jyh-Chiang Liou Integrated driving assistance apparatus
JP4988786B2 (ja) * 2009-04-09 2012-08-01 株式会社日本自動車部品総合研究所 境界線認識装置
TWI401175B (zh) * 2010-06-08 2013-07-11 Automotive Res & Testing Ct Dual vision front vehicle safety warning device and method thereof
KR20130020151A (ko) * 2011-08-19 2013-02-27 주식회사 만도 차량 검출 장치 및 방법
US8565486B2 (en) * 2012-01-05 2013-10-22 Gentex Corporation Bayesian classifier system using a non-linear probability function and method thereof
KR101288374B1 (ko) * 2012-05-18 2013-07-22 (주)베라시스 외차선 도로에서의 차선 설정장치 및 그 방법
TWI493513B (zh) * 2013-01-08 2015-07-21 Pixart Imaging Inc 車道偏離警示系統與車道辨識裝置以及相關方法
KR102062923B1 (ko) * 2013-06-12 2020-01-06 현대모비스 주식회사 주차지원시스템
KR20150002038A (ko) * 2013-06-28 2015-01-07 (주) 세인 하라이크 특징과 아다브스트에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 차량을 인식 및 추적하는 방법
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
CN103950410A (zh) * 2014-04-29 2014-07-30 深圳前向启创数码技术有限公司 全景式辅助驾驶方法及系统
JP6362442B2 (ja) * 2014-06-13 2018-07-25 富士通株式会社 車線境界線抽出装置、車線境界線抽出方法、及びプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040016870A1 (en) 2002-05-03 2004-01-29 Pawlicki John A. Object detection system for vehicle
US20060015252A1 (en) 2004-07-15 2006-01-19 Mitsubishi Denki Kabushiki Kaisha Lane recognition image processing apparatus
US20100188507A1 (en) 2009-01-23 2010-07-29 Toyota Jidosha Kabushiki Kaisha Road lane marker detection apparatus and road lane marker detection method
US20120062745A1 (en) 2009-05-19 2012-03-15 Imagenext Co., Ltd. Lane departure sensing method and apparatus using images that surround a vehicle
US20120069153A1 (en) 2009-05-25 2012-03-22 Panasonic Corporation Device for monitoring area around vehicle
DE102010063420A1 (de) 2010-12-17 2012-06-21 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem mit einer Sensoranordnung zur Erfassung des Abstandes des eigenen Fahrzeuges zu einem Fremdobjekt
JP2013174998A (ja) 2012-02-24 2013-09-05 Nissan Motor Co Ltd 車両検出装置及び車両検出方法
DE102012021461A1 (de) 2012-10-31 2013-05-08 Daimler Ag Verfahren und Vorrichtung zur Klassifikation von Fahrzeugen
DE102013022076A1 (de) 2013-12-23 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
KR20150006393A (ko) 2014-11-03 2015-01-16 김상원 로스톨

Also Published As

Publication number Publication date
KR102270677B1 (ko) 2021-06-29
CN105787431B (zh) 2019-03-19
DE102016100030A1 (de) 2016-07-14
US10121379B2 (en) 2018-11-06
KR20160087273A (ko) 2016-07-21
CN105787431A (zh) 2016-07-20
US20160203720A1 (en) 2016-07-14

Similar Documents

Publication Publication Date Title
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP3183721B1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102004012811B4 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102014115399B4 (de) Vorrichtung und Verfahren zur Einparkhilfe
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102015205225A1 (de) Verfahren und Vorrichtung zum Erkennen eines Zielobjekts im toten Winkel eines Fahrzeugs
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE112013001424T5 (de) Objekterkennungsvorrichtung
DE102014100352B4 (de) Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen
DE102016122484A1 (de) Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen
DE112013004720T5 (de) Vorrichtung zum Erkennen sich bewegender Objekte
DE102008001363A1 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE112017002120T5 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
DE112013003276T5 (de) Objekterkennungseinrichtung
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056665B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division