DE102021209974A1 - Fahrzeugposition-erfassungsvorrichtung und fahrzeugposition-erfassungsverfahren - Google Patents

Fahrzeugposition-erfassungsvorrichtung und fahrzeugposition-erfassungsverfahren Download PDF

Info

Publication number
DE102021209974A1
DE102021209974A1 DE102021209974.2A DE102021209974A DE102021209974A1 DE 102021209974 A1 DE102021209974 A1 DE 102021209974A1 DE 102021209974 A DE102021209974 A DE 102021209974A DE 102021209974 A1 DE102021209974 A1 DE 102021209974A1
Authority
DE
Germany
Prior art keywords
vehicle
area
unit
road surface
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021209974.2A
Other languages
English (en)
Inventor
Takuya Okamoto
Hiroki FUJIYOSHI
Masahiro Yata
Kohei Mori
Nariaki TAKEHARA
Hirokazu Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE102021209974A1 publication Critical patent/DE102021209974A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bereitgestellt werden eine Fahrzeugposition-Erfassungsvorrichtung und ein Fahrzeugposition-Erfassungsverfahren, die die Position eines anderen Fahrzeugs anhand der Helligkeit auf einer Straßenoberfläche basierend auf dem Scheinwerfer des anderen Fahrzeugs genau erfassen können. Die Fahrzeugposition-Erfassungsvorrichtung umfasst eine Fahrzeugkandidatenbereich-Extraktionseinheit zum Extrahieren eines Fahrzeugkandidatenbereichs, der einen leuchtenden Scheinwerfer umfasst, basierend auf einem aufgenommenen Bild, das für eine seitlich rückwärtige Seite von einem eigenen Fahrzeug durch die Abbildungseinheit aufgenommen wurde; eine Straßenoberflächenbereichserfassungseinheit zum Erfassen eines Straßenoberflächenbereichs, der ein Hindernis aus dem aufgenommenen Bild ausschließt, basierend auf einem Erfassungsergebnis von einer Entfernungsmesseinheit; eine Straßenoberflächen-Helligkeits-Vergleichseinheit, die einen Helligkeits-Vergleichsbereich vor dem Fahrzeug-Kandidatenbereich in dem Straßenoberflächenbereich einstellt und die die erhaltene Helligkeit vergleicht; eine Fahrbereich-Schätzeinheit zum Schätzen eines Fahrbereichs, in dem ein anderes Fahrzeug seitlich hinter dem Fahrzeug fährt, basierend auf einem Vergleichsergebnis der Straßenoberflächen-Helligkeits-Vergleichseinheit; und eine Fahrzeugpositions-Bestimmungseinheit zum Bestimmen einer Position des anderen Fahrzeugs basierend auf dem Fahrbereich und dem Fahrzeugkandidatenbereich.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Fahrzeugposition-Erfassungsvorrichtung und ein Fahrzeugposition-Erfassungsverfahren.
  • 2. Beschreibung des Stands der Technik
  • Herkömmlicherweise ist ein Verfahren bekannt, bei dem das Vorhandensein eines Scheinwerfers auf der Grundlage eines Bildes bestimmt wird, das durch die Aufnahme eines Bereichs einschließlich einer Straße erhalten wird, und bei dem die Position eines anderen Fahrzeugs erfasst wird, das sich dem eigenen Fahrzeug während der Nacht von der seitlich hinteren Seite nähert. Der abzubildende Scheinwerfer kann jedoch je nach Richtung der optischen Achse des Scheinwerfers, je nachdem, ob es sich um Fern- oder Abblendlicht handelt, je nach dem Winkel des Lichtstrahls oder ähnlichem erweitert werden. Daher besteht die Möglichkeit, dass fälschlicherweise erkannt wird, ob es sich bei dem anderen Fahrzeug um ein Fahrzeug handelt, das sich von hinten auf der benachbarten Fahrbahn nähert, oder um ein Fahrzeug, das sich von hinten auf einer Fahrbahn nähert, die zwei Fahrspuren entfernt ist. Wenn eine solche fehlerhafte Erkennung auftritt, könnte eine Warnung über das andere Fahrzeug, das sich von hinten auf einer Spur nähert, die zwei Fahrspuren entfernt ist, ausgegeben werden, die eigentlich unnötig wäre.
  • In diesem Zusammenhang offenbart das Patentdokument 1 Folgendes. Das heißt, ein Fahrzeugkandidatenbereich, der den aufleuchtenden Scheinwerfer einschließt, wird auf der Grundlage eines Bildes extrahiert, das von einer Abbildungsvorrichtung zum Aufnehmen eines Bildes für eine seitlich hintere Seite des eigenen Fahrzeugs erhalten wird, und eine erste Straßenoberflächenposition auf einer an das eigene Fahrzeug angrenzenden Spur und eine zweite Straßenoberflächenposition auf einer Spur, die eine Spur von der angrenzenden Spur entfernt ist, werden vor den Fahrzeugkandidatenbereich gesetzt. Eine Fahrspur, auf der das andere Fahrzeug seitlich hinter dem eigenen Fahrzeug fährt, wird auf der Grundlage eines Ergebnisses des Vergleichs der Helligkeit der ersten und zweiten Straßenoberflächenpositionen bestimmt, und die Position des anderen Fahrzeugs auf der bestimmten Fahrspur wird auf der Grundlage des extrahierten Fahrzeugkandidatenbereichs festgelegt. Auf diese Weise werden der Fahrzeugkandidatenbereich, der dem aufleuchtenden Scheinwerfer entspricht, und die Helligkeit (Straßenoberflächenreflexion) an der Straßenoberflächenposition davor in Kombination verwendet, um die Fahrspur des anderen Fahrzeugs seitlich hinter dem eigenen Fahrzeug zu erfassen, wodurch die Position des anderen Fahrzeugs genau erfasst werden kann.
  • Patentdokument 1: Japanische Patentoffenlegungsschrift Nr. 2015-55968
  • Im Patentdokument 1 sind die Ziele des Helligkeitsvergleichs bezüglich des Scheinwerfers jedoch Bereiche auf den aneinander angrenzenden Fahrspuren. Daher ist in dem Fall, in dem nur eine Fahrspur an die Fahrspur des eigenen Fahrzeugs angrenzt, ein Bereich, der als Ziel des Helligkeitsvergleichs mit einem Bereich auf der an die Fahrspur des eigenen Fahrzeugs angrenzenden Fahrspur ausgewählt wird, keine Straßenoberfläche auf einer Fahrspur, so dass es zu einer fehlerhaften Erkennung kommen kann. Darüber hinaus wird auch in dem Fall, dass ein Objekt mit großer Helligkeit, beispielsweise ein weißes Fahrzeug, auf einer Fahrbahn als Ziel für den Helligkeitsvergleich vorhanden ist, kein Helligkeitsvergleich zwischen den Fahrbahnoberflächen durchgeführt, so dass es zu einer fehlerhaften Erkennung kommen kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Offenbarung wurde gemacht, um die oben genannten Probleme zu lösen, und ein Ziel der vorliegenden Offenbarung ist es, eine Fahrzeugposition-Erfassungsvorrichtung und ein Fahrzeugposition-Erfassungsverfahren bereitzustellen, die die Position eines anderen Fahrzeugs anhand der Helligkeit der Straßenoberflächenreflexion auf der Grundlage des Scheinwerfers des anderen Fahrzeugs genau erfassen können.
  • Eine Fahrzeugposition-Erfassungsvorrichtung gemäß der vorliegenden Offenbarung umfasst: eine Abbildungseinheit, die an einem Fahrzeug vorgesehen ist und die ein Bild um das Fahrzeug herum aufnimmt und das Bild ausgibt; eine Entfernungsmesseinheit, die an dem Fahrzeug vorgesehen ist und ein Hindernis um das Fahrzeug herum erfasst; eine Fahrzeugkandidatenbereich-Extraktionseinheit zum Extrahieren eines Fahrzeugkandidatenbereichs, der einen leuchtenden Scheinwerfer umfasst, auf der Grundlage des aufgenommenen Bildes, das für eine seitlich rückwärtige Seite von dem Fahrzeug durch die Abbildungseinheit aufgenommen wurde; eine Straßenoberflächenbereichserfassungseinheit zum Erfassen eines Straßenoberflächenbereichs, der das Hindernis aus dem aufgenommenen Bild ausschließt, auf der Grundlage eines Erfassungsergebnisses von der Entfernungsmesseinheit; eine Straßenoberflächen-Helligkeits-Vergleichseinheit, die für den Fahrzeug-Kandidatenbereich, der in dem Straßenoberflächenbereich vorhanden ist, einen Helligkeits-Vergleichsbereich vor dem Fahrzeug-Kandidatenbereich in dem Straßenoberflächenbereich einstellt und die Helligkeit vergleicht, die von dem Helligkeits-Vergleichsbereich erhalten wird; eine Fahrbereich-Schätzeinheit zum Schätzen eines Fahrbereichs, in dem ein anderes Fahrzeug seitlich hinter dem Fahrzeug fährt, auf der Grundlage eines Vergleichsergebnisses von der Straßenoberflächen-Helligkeits-Vergleichseinheit; und eine Fahrzeugpositions-Bestimmungseinheit zum Bestimmen einer Position des anderen Fahrzeugs auf der Grundlage des Fahrbereichs und des Fahrzeugkandidatenbereichs, der für die Schätzung des Fahrbereichs verwendet wird.
  • In der Fahrzeugposition-Erfassungsvorrichtung und dem Fahrzeugpositionserkennungsverfahren gemäß der vorliegenden Offenbarung wird ein Straßenoberflächenbereich um das eigene Fahrzeug herum erfasst und ein in der Helligkeit zu vergleichender Zielbereich im erfassten Straßenoberflächenbereich festgelegt, wodurch es möglich wird, die Position eines anderen Fahrzeugs, das sich von der seitlich hinteren Seite nähert, unabhängig von der Fahrspur genau zu erkennen.
  • Figurenliste
    • 1 ist ein schematisches Konfigurationsdiagramm einer Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung;
    • 2 ist ein Hardware-Konfigurationsdiagramm eines arithmetischen Geräts gemäß der ersten Ausführungsform;
    • 3 ist ein funktionelles Blockdiagramm der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform;
    • 4 ist ein funktionelles Blockdiagramm einer Benachrichtigungseinheit der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform;
    • 5 ist ein Flussdiagramm, das den Betrieb der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform zeigt;
    • 6 ist ein Flussdiagramm zur Erzeugung eines Benachrichtigungssignals für einen Fahrer gemäß der ersten Ausführungsform;
    • 7 zeigt die Positionsbeziehung zwischen einem eigenen Fahrzeug und einem anderen Fahrzeug, das von der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform erfasst wird;
    • 8 zeigt die Positionsbeziehung von Lichtquellenkandidaten, die aus einem von einer Kamera der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform aufgenommenen Bild extrahiert wurden;
    • 9 zeigt einen Kandidatenbereich des anderen Fahrzeugs, der anhand der Lichtquellentypen und der Positionsbeziehung der Lichtquellenkandidaten geschätzt wird, die aus dem von der Kamera der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform aufgenommenen Bild extrahiert wurden;
    • 10 zeigt Fahrzeugkandidatenbereiche und entsprechende Helligkeitsvergleichsbereiche in dem von der Kamera der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform aufgenommenen Bild;
    • 11 zeigt die Positionsbeziehung zwischen einem Helligkeitsabtastbereich und einem Warnzielbereich, der in der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform eingestellt ist;
    • 12 zeigt ein Beispiel für ein Bild, das von einer Bilderzeugungseinheit der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform erzeugt wird;
    • 13 zeigt ein Beispiel eines Bildes, das von der Bilderzeugungseinheit erzeugt und auf einer Videoausgabeeinheit in der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform angezeigt wird;
    • 14 ist ein funktionelles Blockdiagramm einer Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform;
    • 15 ist ein Flussdiagramm, das den Betrieb der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform zeigt;
    • 16 zeigt die Positionsbeziehung zwischen einem eigenen Fahrzeug und einem anderen Fahrzeug, das von der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform erfasst wird;
    • 17 zeigt ein Beispiel eines Bildes, das von einer Bilderzeugungseinheit der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform erzeugt wird;
    • 18 zeigt ein Beispiel eines Bildes, das von der Bilderzeugungseinheit erzeugt und auf einer Videoausgabeeinheit in der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform angezeigt wird; und
    • 19 zeigt ein weiteres Beispiel eines Bildes, das von der Bilderzeugungseinheit erzeugt und auf der Videoausgabeeinheit in der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform angezeigt wird.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN
  • AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • Nachfolgend werden Ausführungsformen einer Fahrzeugposition-Erfassungsvorrichtung und eines Fahrzeugposition-Erfassungsverfahrens gemäß der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. In den Zeichnungen bezeichnen die gleichen Bezugszeichen die gleichen oder entsprechende Teile.
  • ERSTE AUSFÜHRUNGSFORM
  • Eine Fahrzeugposition-Erfassungsvorrichtung und ein Fahrzeugposition-Erfassungsverfahren gemäß der ersten Ausführungsform werden im Folgenden unter Bezugnahme auf die Zeichnungen beschrieben.
  • 1 ist ein schematisches Konfigurationsdiagramm der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform.
  • In 1 umfasst ein Fahrzeug 1 Kameras 2, Sonarsensoren 3 und eine Fahrzeugposition-Erfassungsvorrichtung 10. Mehrere Sonarsensoren 3 befinden sich an der vorderen, hinteren, linken und rechten Seite des Fahrzeugs und sind über die Sonarsensorverkabelung 8 mit einer Sonarsteuerung 12 verbunden. In 1 sind an der Vorder- und Rückseite jeweils vier Sonarsensoren 3 und an der linken und rechten Seite jeweils ein Sonarsensor 3 vorgesehen. Im Rahmen der vorliegenden Offenbarung reicht es aus, dass mindestens ein Sonarsensor 3 in Richtung eines von der Kamera 2 aufgenommenen Straßenbildes vorgesehen ist. Mehrere Kameras 2 sind an der vorderen, hinteren, linken und rechten Seite des Fahrzeugs vorgesehen, so dass sie sich an solchen Positionen befinden, dass sie ein Bild für mindestens eine seitlich hintere Seite aufnehmen können. Die Kameras 2 sind über eine Kameraverkabelung 7 mit einer Überwachungskamerasteuerung 11 verbunden. In 1 ist jeweils eine Kamera 2 an der vorderen, hinteren, linken und rechten Seite vorgesehen, aber es reicht aus, dass mindestens eine Kamera 2 nur in einer solchen Richtung vorgesehen ist, dass sie ein Bild für mindestens eine seitlich rückwärtige Seite aufnehmen kann. Daher ist es in der vorliegenden Offenbarung bevorzugt, dass die Kameras 2 an der linken und rechten Seite oder an der Rückseite vorgesehen sind. Was die Anbringungspositionen betrifft, so sind in 1 die linke und die rechte Kamera 2 an den unteren Teilen von Außenspiegeln vorgesehen, die derzeit allgemein üblich sind, und die vordere und die hintere Kamera 2 sind in der Mitte von Stoßstangen vorgesehen. Die Kameras 2 müssen jedoch nicht notwendigerweise wie in 1 gezeigt angebracht werden, und die vorgesehenen Positionen sind nicht begrenzt, solange das Ziel der vorliegenden Offenbarung erreicht werden kann. Die Fahrzeugposition-Erfassungsvorrichtung 10 umfasst neben der Sonarsteuerung 12 und der Überwachungskamerasteuerung 11 weitere Sensoren 13 und eine Rechenvorrichtung 14 für die Fahrzeugposition-Erfassungsvorrichtung 10, die über Kommunikationsleitungen 5, beispielsweise das Control Area Network (CAN: eingetragenes Warenzeichen), verbunden sind.
  • Wie in 2 gezeigt, besteht die Rechenvorrichtung 14 aus einem Prozessor 1000 und einer Speichervorrichtung 2000, und die Speichervorrichtung 2000 ist mit einer flüchtigen Speichervorrichtung wie einem Direktzugriffsspeicher und einer nichtflüchtigen Hilfsspeichervorrichtung wie einem Flash-Speicher versehen, die nicht dargestellt sind. Anstelle des Flash-Speichers kann auch ein Hilfsspeicher in Form einer Festplatte vorgesehen sein. Der Prozessor 1000 führt ein von der Speichervorrichtung 2000 eingegebenes Programm aus, um einige oder alle Vorgänge in den in 3 und 4 beschriebenen Funktionsblockkonfigurationen und den in 5 und 6 beschriebenen Flussdiagrammen auszuführen. In diesem Fall wird das Programm von der Hilfsspeichervorrichtung über die flüchtige Speichervorrichtung in den Prozessor 1000 eingegeben. Der Prozessor 1000 kann Daten wie Eingabe-/Ausgabesignale, Zwischenwerte der Berechnung und Berechnungsergebnisse an die flüchtige Speichervorrichtung der Speichervorrichtung 2000 ausgeben oder solche Daten über die flüchtige Speichervorrichtung in der Hilfsspeichervorrichtung speichern. Zusätzlich zu dem Prozessor 1000 und der Speichervorrichtung 2000 können eine logische Schaltung und eine analoge Schaltung in Kombination verwendet werden. Darüber hinaus führt die Rechenvorrichtung 14 einige oder alle Operationen in Funktionsblöcken und einem Flussdiagramm aus, die in der zweiten Ausführungsform später beschrieben werden.
  • Als nächstes wird die funktionelle Konfiguration der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform unter Bezugnahme auf die funktionellen Blockdiagramme in 3 und 4 beschrieben, und der Betrieb der funktionellen Konfiguration wird unter Bezugnahme auf die Flussdiagramme in 5 und 6 beschrieben.
  • In der ersten Ausführungsform wird davon ausgegangen, dass ein anderes Fahrzeug V2, das Scheinwerfer (Scheinwerfer) h1, h2 aufleuchten lässt, sich seitlich hinter einem eigenen Fahrzeug V1 befindet, das von einem Fahrer während der Nacht gefahren wird, wie in der Zeichnung, die die Positionsbeziehung zwischen dem anderen Fahrzeug V2 und dem eigenen Fahrzeug V1 in 7 zeigt, und einem von der Kamera 2 aufgenommenen Bild in 8 dargestellt.
  • [Funktionelle Konfiguration der Fahrzeugpositionserkennung]
  • 3 ist ein funktionelles Blockdiagramm, das die funktionelle Konfiguration der Fahrzeugposition-Erfassungsvorrichtung 10 gemäß der ersten Ausführungsform zeigt. In 3 umfasst die Fahrzeugposition-Erfassungsvorrichtung 10 eine Abbildungseinheit 101, eine Entfernungsmessungseinheit 102, eine Lichtquellenextraktionseinheit 103, eine Lichtquellentypbestimmungseinheit 104, eine Fahrzeugkandidatenbereich-Extraktionseinheit 105, eine Straßenoberflächenbereichserfassungseinheit 106, eine Warnzielbereichseinstellungseinheit 107, eine Helligkeitsvergleichsbereichseinstellungseinheit 108, eine Helligkeitsprobebereichseinstellungseinheit 109, eine Straßenoberflächenhelligkeitsvergleichseinheit 110, eine Fahrbereichseinschätzungseinheit 111, eine Fahrzeugpositionsspezifizierungseinheit 112, eine Fahrzeugannäherung-Bestimmungseinheit 113 und eine Benachrichtigungseinheit 114.
  • Die Bildgebungseinheit 101 umfasst die Kamera 2, die in der Lage ist, ein Bild für eine seitlich rückwärtige Seite unter der Vielzahl von Kameras 2 aufzunehmen, die Überwachungskamerasteuerung 11 zur Ausgabe des von der Kamera 2 aufgenommenen Bildes und die Kameraverkabelung 7, die diese verbindet, wie in 1 dargestellt.
  • Die Entfernungsmesseinheit 102 erfasst ein Hindernis (Objekt) in der Umgebung des eigenen Fahrzeugs V1 und misst die Entfernung zum Hindernis. Die Entfernungsmesseinheit 102 umfasst mehrere Sonarsensoren 3, den Sonar-Controller 12 und die Sonarsensor-Verkabelung 8, die diese miteinander verbindet, siehe 1. Hier wird der Sonarsensor als Beispiel für einen Entfernungssensor verwendet, es können jedoch auch ein Infrarot-Tiefensensor, ein Millimeterwellen-Radar oder die LiDAR-Technologie (Light-Detection-and-Ranging) eingesetzt werden.
  • Die Lichtquellenextraktionseinheit 103 extrahiert eine Lichtquelle aus Helligkeitswerten auf der Grundlage eines Bildes, das von der Kamera 2 der Bildgebungseinheit 101 für eine seitlich rückwärtige Seite des eigenen Fahrzeugs V1 aufgenommen wurde.
  • Wenn eine Lichtquelle durch die Lichtquellenextraktionseinheit 103 extrahiert wird, schätzt die Lichtquellentyp-Bestimmungseinheit 104 für jede extrahierte Lichtquelle den Typ der Lichtquelle anhand von Farbinformationen und schätzt, ob die Lichtquelle ein Scheinwerfer des anderen Fahrzeugs V2 ist oder nicht.
  • Auf der Grundlage des Ergebnisses der Lichtquellentyp-Bestimmungseinheit 104 extrahiert die Fahrzeugkandidatenbereich-Extraktionseinheit 105 für die als Scheinwerfer des anderen Fahrzeugs V2 geschätzte Lichtquelle einen Fahrzeugkandidatenbereich, der die Position des Fahrzeugs einschließlich des aufleuchtenden Scheinwerfers angibt.
  • Die Straßenoberflächenerfassungseinheit 106 erfasst eine Straßenoberfläche um das eigene Fahrzeug V1 herum, indem sie ein von der Kamera 2 der Bildgebungseinheit 101 aufgenommenes Bild für eine seitlich hintere Seite des eigenen Fahrzeugs V1 und Hindernisse verwendet, die von den Sonarsensoren 3 der Entfernungsmesseinheit 102 erfasst werden.
  • Die Warnzielbereich-Einstelleinheit 107 legt einen Bereich fest, der für die Entscheidung verwendet wird, ob eine Warnung ausgegeben wird oder nicht, wenn ein anderes Fahrzeug in diesen Bereich einfährt. Dieser Bereich ist ein Bereich, der von der seitlichen Seite in der Nähe des eigenen Fahrzeugs V1 bis zur rückwärtigen Seite festgelegt wird.
  • Die Helligkeitsvergleichsbereich-Einstelleinheit 108 legt einen Helligkeitsvergleichsbereich auf der Vorderseite des Fahrzeugkandidatenbereichs fest, der von der Fahrzeugkandidatenbereich-Extraktionseinheit 105 extrahiert wurde. Der Helligkeitsvergleichsbereich ist ein Bereich, der verwendet wird, um durch Helligkeitsvergleich zu bestimmen, ob die Straßenoberfläche vom Scheinwerfer beleuchtet wird oder nicht.
  • Die Helligkeitsabtastbereich-Einstelleinheit 109 legt einen Helligkeitsabtastbereich fest, der ein Bereich zum Extrahieren von Helligkeit als eine Probe ist, die mit einem Helligkeitswert verglichen werden soll, der von jedem Helligkeitsvergleichsbereich extrahiert wurde, der von der Helligkeitsvergleichsbereich-Einstelleinheit 108 festgelegt wurde. Der Helligkeitsabtastbereich wird in dem von der Straßenoberflächenerfassungseinheit 106 erfassten Straßenoberflächenbereich festgelegt.
  • Die Straßenoberflächen-Helligkeitsvergleichseinheit 110 führt einen Helligkeitsvergleich zwischen dem von der Helligkeitsvergleichsflächen-Einstelleinheit 108 eingestellten Bereich und dem von der Helligkeitsmusterflächen-Einstelleinheit 109 eingestellten Bereich durch.
  • Die Fahrbereich-Schätzeinheit 111 schätzt einen Bereich, in dem das andere Fahrzeug V2 fährt, auf der Grundlage eines Vergleichsergebnisses der Straßenoberflächen-Helligkeitsvergleichseinheit 110.
  • Auf der Grundlage des Fahrzeugpositionskandidatenbereichs, der von der Fahrzeugkandidatenbereich-Extraktionseinheit 105 extrahiert wird, und des Bereichs, der von der Fahrbereichsschätzungseinheit 111 extrahiert wird und in dem geschätzt wird, dass das andere Fahrzeug V2 fährt, spezifiziert die Fahrzeugpositionsbestimmungseinheit 112 einen unteren Endteil des anderen Fahrzeugs V2, der in Kontakt mit der Straßenoberfläche ist, als eine Fahrzeugposition davon.
  • Wenn die Position des anderen Fahrzeugs V2 in den Warnbereich eingetreten ist, bestimmt die Fahrzeugannäherungs-Bestimmungseinheit 113 auf der Grundlage des von der Warnzielbereich-Einstelleinheit 107 festgelegten Warnbereichs und der von der Fahrzeugpositions-Bestimmungseinheit 112 angegebenen Fahrzeugposition anhand von in Zeitreihen erfassten Bildern, ob sich das andere Fahrzeug V2 dem eigenen Fahrzeug V1 nähert oder nicht.
  • Die Benachrichtigungseinheit 114 bestimmt, ob eine Benachrichtigung an den Fahrer ausgegeben werden soll oder nicht, und gibt die Benachrichtigung auf der Grundlage des Bestimmungsergebnisses der Fahrzeugannäherung-Bestimmungseinheit 113 aus.
  • 4 ist ein funktionales Blockdiagramm, das die funktionale Konfiguration der Benachrichtigungseinheit 114 zeigt. In 4 umfasst die Benachrichtigungseinheit 114 eine Ausgabebestimmungseinheit 1141, eine Bilderzeugungseinheit 1142, eine Tonerzeugungseinheit 1143 und eine Vibrationssteuereinheit 1144.
  • Die Ausgabebestimmungseinheit 1141 bestimmt, ob eine Meldung an den Fahrer ausgegeben werden soll oder nicht.
    Die Bilderzeugungseinheit 1142 erzeugt ein Warnbild auf der Grundlage des Bestimmungsergebnisses der Ausgabebestimmungseinheit 1141. In einer Videoausgabeeinheit 115 wird das von der Bilderzeugungseinheit 1142 erzeugte Warnbild mit dem von der Kamera 2 aufgenommenen Bild als Hintergrund überlagert und dann das resultierende Bild ausgegeben. Die Videoausgabeeinheit 115 entspricht einer Anzeigeeinheit, die im Fahrzeug vorhanden ist.
  • Auf der Grundlage des Bestimmungsergebnisses von der Ausgabebestimmungseinheit 1141 erzeugt die Tonerzeugungseinheit 1143 einen Warnton, und der Warnton wird von der Tonausgabeeinheit 116 ausgegeben, um den Fahrer über den Warninhalt zu informieren.
    Auf der Grundlage des Ermittlungsergebnisses der Leistungsermittlungseinheit 1141 versetzt die Vibrationssteuereinheit 1144 ein Lenkrad oder einen Fahrersitz in Schwingung, um den Fahrer zu warnen.
  • [Betrieb der Fahrzeugpositionserfassungsvorrichtung]
  • Als nächstes wird der Betrieb der funktionalen Konfiguration der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform unter Bezugnahme auf die Flussdiagramme in 5 und 6 sowie 7 bis 13 beschrieben.
  • 5 ist ein Flussdiagramm, das den Betrieb der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform zeigt.
  • Zunächst wird in Schritt S101 ein Umgebungsbild um das eigene Fahrzeug V1 von der Kamera 2 aufgenommen. Das Umgebungsbild ist ein Bild für eine seitlich rückwärtige Seite des eigenen Fahrzeugs V1. 7 zeigt die Positionsbeziehung zwischen dem eigenen Fahrzeug V1 und dem anderen Fahrzeug V2, das von der Fahrzeugposition-Erfassungsvorrichtung gemäß der ersten Ausführungsform erfasst wird, und zeigt einen Fall, in dem ein Bild eines seitlich rückwärtigen Bereichs einschließlich des anderen Fahrzeugs V2 von der Kamera 2 aufgenommen wird, die am unteren Teil des rechten Außenspiegels des eigenen Fahrzeugs V1 angebracht ist. Hier beträgt der Blickwinkel S der Kamera 2 60 Grad. Der Blickwinkel S der Kamera 2 ist jedoch nicht auf 60 Grad beschränkt. In der Zeichnung bezeichnen L1 bis L4 weiße Linien, die die Fahrspuren definieren, auf denen die Fahrzeuge unterwegs sind.
  • In Schritt S102 werden mit Hilfe der Sonarsensoren 3 Hindernisse (Objekte) in der Umgebung des eigenen Fahrzeugs V1 erkannt und die Abstände dazu gemessen. In der ersten Ausführungsform beträgt die mögliche Entfernung des Sonarsensors 3 3 m von der Position des Sonarsensors. Die mögliche Entfernung ist jedoch nicht auf 3 m beschränkt, und es können auch andere, oben beschriebene Entfernungssensoren verwendet werden.
  • In Schritt S103 extrahiert die Lichtquellenextraktionseinheit 103 einen Lichtquellenkandidaten aus den Helligkeitswerten des in Schritt S101 aufgenommenen Bildes. Die Helligkeit des Bildes wird in 256 Stufen von 0 (entspricht Schwarz) bis 255 (entspricht Weiß) dargestellt. In der ersten Ausführungsform wird beispielsweise ein Helligkeitswert von 230 oder mehr als Scheinwerferlichtquellenkandidat des anderen Fahrzeugs V2 extrahiert. Der eingestellte Helligkeitswert für den Lichtquellenkandidaten ist nicht auf 230 beschränkt.
  • Bei der Extraktion eines Scheinwerferlichtquellen-Kandidaten können zwei Lichtquellen, die sich dicht nebeneinander bewegen, als ein Paar behandelt werden. In diesem Fall kann auch eine einzelne Lichtquelle als Scheinwerfer-Lichtquellenkandidat extrahiert werden, wenn man den Scheinwerfer eines Motorrads betrachtet. 8 zeigt ein Bild für den Fall, dass Lichtquellenkandidaten aus dem von der Kamera 2 in 7 aufgenommenen Bild extrahiert werden. Hier werden h1, h2, O1 und O2 als Lichtquellenkandidaten extrahiert, und h1 und h2 sowie O1 und O2 werden jeweils als Paare behandelt. In 8 werden die von den Scheinwerfern des anderen Fahrzeugs V2 beleuchteten Straßenoberflächen mit R1, R2 bezeichnet.
  • In Schritt S104 extrahiert die Lichtquellentyp-Bestimmungseinheit 104 die Farben auf dem aufgenommenen Bild von h1, h2, O1, O2, die die von der Lichtquellenextraktionseinheit 103 extrahierten Lichtquellenkandidaten sind, und bestimmt die Lichtquellentypen. Wenn zum Beispiel rote oder grüne Farbinformationen extrahiert werden, wird der Lichtquellentyp als Ampel oder ähnliches bestimmt, und somit wird diese Lichtquelle von den Lichtquellenkandidaten ausgeschlossen. Außerdem wird mit Hilfe eines Fluchtpunktes im aufgenommenen Bild der oberste Punkt der Straßenoberfläche im Bild gefunden. Da der Scheinwerfer des Fahrzeugs etwas höher als die Fahrbahnoberfläche liegt (unteres Ende des Fahrzeugs), kann ein Bereich, in dem der Scheinwerfer im Bild vorhanden ist, als ein Bereich bestimmt werden, der von einer Linie, die etwas höher als der Fluchtpunkt liegt, nach unten verläuft. Daher kann die folgende Verarbeitung vorgesehen werden: Der Fluchtpunkt wird aus dem aufgenommenen Bild berechnet, die Lichtquelle, die sich an einer Position befindet, die um eine bestimmte Anzahl von Pixeln oder mehr über dem Fluchtpunkt liegt, wird als kein Scheinwerfer bestimmt, und diese Lichtquelle wird von den Lichtquellenkandidaten ausgeschlossen. Das Berechnungsverfahren für den Fluchtpunkt kann ein Verfahren zur Durchführung einer Schätzung anhand von Kamerakalibrierungsinformationen, wie beispielsweise dem internen Parameter eines Objektivs der Kamera 2 und der Anbringungsposition und -richtung der Kamera 2, ein Verfahren zur Durchführung einer Berechnung anhand des Schnittpunkts von Linien, die durch einen optischen Fluss oder eine Erkennung weißer Linien erfasst werden, oder Ähnliches sein, und jedes Berechnungsverfahren beeinflusst die Effekte nicht.
  • In Schritt S105 extrahiert die Fahrzeugkandidatenbereich-Extraktionseinheit 105 Fahrzeugkandidatenbereiche, um die Lichtquellenkandidaten der Scheinwerfer des Fahrzeugs auf der Grundlage der Lichtquellenkandidaten einzuschließen, die von der Lichtquellentypbestimmungseinheit 104 unter den Lichtquellenkandidaten bestimmt wurden, die von der Lichtquellenextraktionseinheit 103 extrahiert wurden.
    9 zeigt ein Verfahren zum Extrahieren der Fahrzeugkandidatenbereiche, und ein Fahrzeugkandidatenbereich A1 einschließlich h1, h2, die die Lichtquellenkandidaten der Scheinwerfer sind, und ein Fahrzeugkandidatenbereich A2 einschließlich O1, O2, die die Lichtquellenkandidaten sind, werden festgelegt. In der Praxis sind die Höhe der Scheinwerfer und der horizontale Abstand zwischen ihnen je nach Fahrzeugtyp unterschiedlich. Daher können aus nur h1, h2, O1, O2, die die in 8 gezeigten Lichtquellenkandidaten sind, Bereiche, die durch A3, A4 in 9 angezeigt werden, auch als Bereiche bestimmt werden, in denen das andere Fahrzeug vorhanden ist. Somit extrahiert die Fahrzeugkandidatenbereich-Extraktionseinheit 105 vier Fahrzeugkandidatenbereiche A1, A2, A3, A4.
  • In Schritt S106 führt die Straßenoberflächenerfassungseinheit 106 eine Berechnung unter Verwendung des von der Kamera 2 aufgenommenen Bildes und eines von den Sonarsensoren 3 erhaltenen Hindernis-(Objekt-)Abstandsmessungsergebnisses durch, um eine Straßenoberflächenfläche RS zu erfassen. Für die Erkennung des Straßenoberflächenbereichs RS kann beispielsweise ein in der WO2019/202627 des vorliegenden Anmelders gezeigtes Straßenoberflächenerkennungsverfahren verwendet werden. Bei diesem Verfahren wird ein Histogramm von Farbinformationen auf der Grundlage eines Straßenoberflächenbildes einer Umgebung berechnet, und ein Bereich, in dem ein Fahrzeug fahren kann, und ein Hindernisbereich werden auf der Grundlage des Histogramms extrahiert. Nach diesem Verfahren ist der Straßenoberflächenbereich RS ungefähr ein Bereich auf der Außenseite (der Seite der weißen Linie L1) der weißen Linie L3 in dem aufgenommenen Bild in 8, mit Ausnahme eines Bereichs, in dem ein Hindernis (Objekt) erkannt wird.
  • Aus der erfassten Straßenfläche RS wird eine Straßenkante berechnet, die am weitesten von der Straßenfläche entfernt ist, auf der das eigene Fahrzeug V1 fährt, und ein Bereich an der Außenseite der berechneten Straßenkante wird von der Straßenfläche RS ausgeschlossen. Dieser Fahrbahnrand ist die weiße Linie L1. Die Fahrbahnfläche RS, von der die Fläche an der Außenseite der weißen Linie L1 ausgeschlossen wurde, ist in 9 dargestellt.
  • In Schritt S107 legt die Helligkeitsvergleichsflächen-Einstelleinheit 108 Helligkeitsvergleichsflächen auf der Grundlage der Fahrzeugkandidatenflächen A1, A2, A3, A4, die von der Fahrzeugkandidatenflächen-Extraktionseinheit 105 extrahiert wurden, und der Straßenoberflächenfläche RS, die von der Straßenoberflächenflächen-Erfassungseinheit 106 erfasst wurde, fest. Fahrzeugkandidatenbereiche, die außerhalb des von der Straßenoberflächenerfassungseinheit 106 erfassten Straßenoberflächenbereichs RS liegen, werden von den Kandidaten ausgeschlossen. Daher werden in 9 die Fahrzeugkandidatenbereiche A2, A4 ausgeschlossen und nur die Fahrzeugkandidatenbereiche A1, A3 verbleiben als Fahrzeugkandidatenbereiche. Bereiche, die vor den Fahrzeugkandidatenbereichen A1, A3 liegen, werden jeweils als Helligkeitsvergleichsbereiche C1, C2 festgelegt.
  • 10 zeigt die Fahrzeugkandidatenbereiche A1, A3 und die ihnen entsprechenden Helligkeitsvergleichsbereiche C1, C2 auf dem von der Kamera 2 aufgenommenen Bild. Hier sind die Helligkeitsvergleichsflächen C1, C2 nicht als elliptische Flächen entlang der Fahrtrichtungen des eigenen Fahrzeugs V1 und des anderen Fahrzeugs V2 festgelegt, sondern als elliptische Flächen entlang der Richtung der Kamera 2. Dies liegt daran, dass sich die in 7 dargestellten Bereiche der von den Scheinwerfern des anderen Fahrzeugs V2 beleuchteten Straßenflächen R1, R2 auf dem aufgenommenen Bild im Allgemeinen in Richtung der Kamera 2 erstrecken. Die Helligkeitsvergleichsflächen C1, C2 sind jedoch nicht auf solche elliptischen Formen beschränkt. Die Flächeneinstellung muss nur so erfolgen, dass die Helligkeitswerte der von den Scheinwerfern des anderen Fahrzeugs V2 beleuchteten Fahrbahnoberfläche extrahiert werden können.
  • In Schritt S108 legt die Helligkeitsabtastflächen-Einstelleinheit 109 eine Helligkeitsabtastfläche fest, die mit den Helligkeitsvergleichsflächen C1, C2 verglichen werden soll, die von der Helligkeitsvergleichsflächen-Einstelleinheit 108 festgelegt wurden. Als Helligkeitsabtastbereich wird, wie in 11 gezeigt, ein Helligkeitsabtastbereich CS, der mit den in 10 gezeigten Helligkeitsvergleichsbereichen C1, C2 zu vergleichen ist, aus dem von einer gestrichelten Linie umgebenen Straßenoberflächenbereich RS festgelegt. Der Straßenoberflächenbereich RS ist ein Bereich, aus dem Hindernisse ausgeschlossen wurden, und da der Helligkeitsabtastbereich CS, der ein Helligkeitsvergleichsziel ist, in einem solchen Straßenoberflächenbereich RS festgelegt wird, ist es möglich, das Problem der herkömmlichen Technologie zu lösen, dass die Erkennung eines anderen Fahrzeugs möglicherweise nicht korrekt durchgeführt wird, wenn es ein Hindernis in einem Helligkeitsvergleichszielbereich gibt oder wenn es nur eine Spur außer der Fahrspur des eigenen Fahrzeugs gibt.
  • In der vorliegenden Ausführungsform wird der Helligkeitsabtastbereich CS auf einen Bereich festgelegt, der dem eigenen Fahrzeug V1 am nächsten ist und der Fahrtrichtung in einem später beschriebenen Warnzielbereich W am nächsten liegt, da ein solcher Bereich mit hoher Wahrscheinlichkeit eine Straßenoberfläche ist. Darüber hinaus besteht in dem Fall, in dem bestimmt wurde, dass eine Warnung in dem später beschriebenen Last-Time-Ergebnis in der Benachrichtigungseinheit 114 durchgeführt werden soll, das heißt in dem Fall, in dem das andere Fahrzeug V2 in den Warnzielbereich W in dem zuletzt aufgenommenen Bild eingetreten ist, die Möglichkeit, dass der Helligkeitsabtastbereich CS von den Scheinwerfern des anderen Fahrzeugs V2 beleuchtet wird. Daher wird der Helligkeitsabtastbereich CS nicht auf einen Bereich im Warnzielbereich W, sondern auf einen anderen Bereich im Straßenoberflächenbereich RS festgelegt. Hier wird der Helligkeitsmessbereich CS auf eine Fläche von etwa 1 m × 1 m festgelegt, ist aber nicht auf diesen Bereich beschränkt.
  • In Schritt S109 legt die Warnzielbereich-Einstelleinheit 107 den Warnzielbereich W fest, um das eigene Fahrzeug V1 zu benachrichtigen, wenn das andere Fahrzeug V2 in diesen Bereich eingefahren ist. Der Warnzielbereich W ist beispielsweise ein Bereich, der sich über 2 m vom seitlichen Ende des Fahrzeugs und 5 m rückwärts von der Position der Kamera 2 erstreckt, und ist ein Bereich, der in 11 durch schräge Linien dargestellt ist. Der Warnzielbereich W ist nicht auf diesen Bereich beschränkt.
  • In Schritt S110 vergleicht die Straßenoberflächen-Helligkeitsvergleichseinheit 110 die Helligkeitswerte zwischen den Helligkeitsvergleichsbereichen C1, C2 und dem Helligkeitsmusterbereich CS. Dabei wird die Helligkeitsvergleichsfläche C1, deren Helligkeitswert um 100 oder mehr größer ist als der Helligkeitswert der Helligkeitsmusterfläche CS, als Scheinwerferbeleuchtungsfläche bestimmt. Ein Schwellenwert (Bestimmungskriterium) für die Helligkeitswertdifferenz, bei der der Bereich als Scheinwerferlichtbereich bestimmt wird, ist nicht auf 100 beschränkt.
  • In Schritt S111 schätzt die Fahrbereich-Schätzeinheit 111, dass der Fahrzeugkandidatenbereich A1, der dem Helligkeitsvergleichsbereich C1 entspricht, der von der Straßenoberflächen-Helligkeitsvergleichseinheit 110 als ein von Scheinwerfern beleuchteter Bereich bestimmt wurde, ein Bereich ist, in dem sich das andere fahrende Fahrzeug V2 befindet.
  • In Schritt S112 gibt die Fahrzeugpositionsbestimmungseinheit 112 die Position des anderen Fahrzeugs V2 an. Konkret wird das untere Ende des anderen Fahrzeugs V2 angegeben. Im Allgemeinen hat ein Bereich, in dem das Fahrzeug mit den Scheinwerfern die Fahrbahn berührt, bei Nacht einen geringen Helligkeitswert. Daher wird zwischen dem Helligkeitsvergleichsbereich C1, der von der Straßenoberflächen-Helligkeitsvergleichseinheit 110 als ein mit Scheinwerfern beleuchteter Bereich bestimmt wurde, und dem Fahrzeugkandidatenbereich A1, in dem das andere fahrende Fahrzeug V2 von der Fahrbereichsschätzungseinheit 111 vermutet wird, ein Bereich mit einem niedrigen Helligkeitswert gesucht. Zum Beispiel wird ein Bereich mit einem Helligkeitswert kleiner als 30 gesucht und als unteres Ende LC des anderen Fahrzeugs V2 bestimmt, wodurch die Fahrzeugposition festgelegt wird. Das Kriterium (Schwellenwert) für den Helligkeitswert, bei dem der Bereich als unteres Ende des Fahrzeugs bestimmt wird, ist nicht auf 30 beschränkt und kann je nach Fahrbahnbeschaffenheit, Witterung und dergleichen eingestellt werden. In 10 ist die Position des unteren Endes LC des anderen Fahrzeugs V2 als Beispiel dargestellt.
  • In Schritt S113 bestimmt die Fahrzeugpositionsbestimmungseinheit 112, ob das untere Ende LC des anderen Fahrzeugs V2 in dem von der Warnzielbereich-Einstelleinheit 107 festgelegten Warnzielbereich W vorhanden ist oder nicht. Wenn das untere Ende LC des anderen Fahrzeugs V2 nicht in dem Warnzielbereich W vorhanden ist (NEIN in Schritt S113), wird der nachfolgende Prozess von Schritt S114 nicht durchgeführt und der Prozess kehrt zu Schritt S101 zurück, so dass der Prozess in der gleichen Weise für das nächste aufgenommene Bild durchgeführt wird, das von der seitlichen Rückfahrkamera 2 eingegeben wird.
  • In Schritt S113 wird, wenn das untere Ende LC des anderen Fahrzeugs V2 im Warnzielbereich W vorhanden ist (JA in Schritt S113), mit Schritt S114 fortgefahren und die Fahrzeugannäherung-Bestimmungseinheit 113 bestimmt, ob sich das andere Fahrzeug V2 dem eigenen Fahrzeug V1 nähert oder nicht. Während das untere Ende LC des anderen Fahrzeugs V2 auf dem von der Kamera 2 aufgenommenen Bild angezeigt wird, wird, wenn sich das untere Ende LC in der Zeitreihe dem eigenen Fahrzeug V1 nähert, bestimmt, dass sich das andere Fahrzeug V2 dem eigenen Fahrzeug V1 nähert. Wenn dann festgestellt wird, dass das andere Fahrzeug V2, das sich seitlich hinter dem eigenen Fahrzeug V1 befindet, sich dem eigenen Fahrzeug V1 nähert (JA in Schritt S114), fährt das Verfahren mit Schritt S115 fort, und die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 114 bestimmt, eine Benachrichtigung an den Fahrer auszugeben. Wenn andererseits festgestellt wird, dass das andere Fahrzeug V2, das sich seitlich hinter dem eigenen Fahrzeug V1 befindet, sich dem eigenen Fahrzeug V1 nicht nähert (NEIN in Schritt S114), kehrt das Verfahren zu Schritt S101 zurück, so dass das Verfahren auf die gleiche Weise für das nächste aufgenommene Bild, das von der seitlichen Rückfahrkamera 2 eingegeben wird, durchgeführt wird.
  • Als nächstes wird die Erzeugung von Benachrichtigungssignalen für den Fahrer in Schritt S115 unter Bezugnahme auf das Flussdiagramm in 6 beschrieben. Als Beispiele für die Benachrichtigungssignale an den Fahrer werden ein Videosignal, ein Tonsignal und eine Vibration beschrieben.
  • In Schritt S115, wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 114 bestimmt hat, eine Benachrichtigung an den Fahrer auszugeben, erzeugt die Bilderzeugungseinheit 1142 der Benachrichtigungseinheit 114 in Schritt S1151 ein Warnbild und gibt das Warnbild in Schritt S1152 an die Videoausgabeeinheit 115 aus.
  • 12 und 13 zeigen Beispiele von Warnbildern. Das untere Ende LC des anderen Fahrzeugs V2 und der von der Warnzielbereich-Einstelleinheit 107 festgelegte Warnzielbereich W werden auf dem von der Kamera 2 aufgenommenen Bild angezeigt, und die Anzeigebereiche der Warnbilder WI101, WI102 werden jeweils in einem oberen Teil des Bildes eingeblendet. 12 zeigt einen Zustand, in dem das untere Ende LC des anderen Fahrzeugs V2 in Schritt S112 festgelegt wird und das Warnbild WI101 leer ist, weil das untere Ende LC nicht im Warnzielbereich W liegt. 13 zeigt einen Zustand, in dem in Schritt S113 festgestellt wird, dass sich das untere Ende LC im Warnzielbereich W befindet, in Schritt S114 festgestellt wird, dass sich das untere Ende LC absenkt, um sich dem eigenen Fahrzeug V1 in der Zeitreihe zu nähern, und in Schritt S115 festgestellt wird, dass eine Benachrichtigung ausgegeben werden soll. Als Warnbild WI102 in 13 wird das in Schritt S1151 erzeugte Warnbild angezeigt. So kann der Fahrer visuell erkennen, dass das Warnbild WI102 angezeigt wird, und er kann erkennen, dass sich das andere Fahrzeug V2 von der seitlich hinteren Seite des eigenen Fahrzeugs V1 nähert.
  • Es wird darauf hingewiesen, dass in Schritt S1151 jedes Bild in 12 und 13 als Videosignal für die Benachrichtigung des Fahrers erzeugt wird, und wenn eine Warnbenachrichtigung erforderlich ist, das Warnbild WI102 angezeigt werden soll. Daher wird das Bild in 12 dem Fahrer nicht angezeigt.
  • Die Warnbilder WI101, WI102 sind nicht auf die oben genannten Bilder beschränkt, und es kann jede Anzeige verwendet werden, die es dem Fahrer ermöglicht, eine Warnung visuell zu erkennen.
  • Im Schritt S115, wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 114 bestimmt hat, dass eine Benachrichtigung an den Fahrer ausgegeben werden soll, erzeugt die Tonerzeugungseinheit 1143 der Benachrichtigungseinheit 114 im Schritt S1153 einen Warnton und gibt den Warnton im Schritt S1154 an die Tonausgabeeinheit 116 aus.
  • Der Warnton ist ein Tonsignal, das an den Fahrer ausgegeben wird, und wenn der Warnton ausgegeben wird, kann der Fahrer erkennen, dass sich das andere Fahrzeug V2 der seitlich hinteren Seite des eigenen Fahrzeugs V1 nähert.
  • Die Benachrichtigung des Fahrers kann sowohl durch die Anzeige des Warnbildes als auch durch die Ausgabe des Warntons erfolgen.
  • Wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 114 in Schritt S115 bestimmt hat, dass eine Benachrichtigung an den Fahrer ausgegeben werden soll, versetzt die Vibrationssteuereinheit 1144 der Benachrichtigungseinheit 114 das Lenkrad in Schritt S1155 in Vibration.
  • Durch Vibration des Lenkrads kann der Fahrer erkennen, dass sich das andere Fahrzeug V2 der seitlich hinteren Seite des eigenen Fahrzeugs V1 nähert.
  • Das Mittel zur Warnung des Fahrers ist nicht auf die Vibration des Lenkrads beschränkt, und es reicht aus, dass eine Vibrationsvorrichtung in den Fahrersitz oder das Lenkrad eingebaut ist, um eine Warnung durch Vibration fühlbar zu machen.
  • Die Benachrichtigung des Fahrers kann mit einer Vielzahl von Benachrichtigungsmethoden erfolgen, indem die Anzeige des Warnbildes und die Ausgabe des Warntons kombiniert werden.
  • Die in 5 und 6 dargestellten Vorgänge der Schritte S101 bis S115 werden während der Fahrt des eigenen Fahrzeugs V1 wiederholt.
  • Wie oben beschrieben, wird gemäß der ersten Ausführungsform der Straßenoberflächenbereich RS ohne Hindernisse, die sich seitlich hinter dem eigenen Fahrzeug befinden, von der Kamera 2 und dem Sonarsensor 3 erfasst, und die Fahrzeugkandidatenbereiche A1 bis A4, in denen sich ein anderes Fahrzeug befinden kann, werden aus dem von der Kamera 2 aufgenommenen seitlich rückwärtigen Bild extrahiert. Dann werden für die Fahrzeugkandidatenbereiche A1, A3, die in dem Straßenoberflächenbereich RS vorhanden sind, die Helligkeitsvergleichsbereiche C1, C2 vor den Fahrzeugkandidatenbereichen A1, A3 und in dem Straßenoberflächenbereich RS festgelegt, und die Helligkeit davon wird mit der des Helligkeitsmusterbereichs CS verglichen, der in dem Straßenoberflächenbereich RS festgelegt ist, wodurch der Fahrbereich des anderen Fahrzeugs V2 geschätzt wird und eine Warnmeldung durchgeführt wird. Somit befinden sich die Helligkeitsvergleichsbereiche C1, C2 und der Helligkeitsabtastbereich CS alle im Straßenoberflächenbereich RS und werden miteinander verglichen, so dass die Erkennungsgenauigkeit für das andere Fahrzeug V2 unabhängig von der Fahrspur verbessert und eine Fehlwarnung wie bei herkömmlicher Technik verhindert wird.
  • Dadurch ist es möglich, eine genaue Warnung vor einem sich dem eigenen Fahrzeug in der Nacht nähernden Fahrzeug zu erhalten, wodurch der Fahrer die Situation um das eigene Fahrzeug besser einschätzen kann.
  • ZWEITE AUSFÜHRUNGSFORM
  • Nachfolgend werden eine Fahrzeugposition-Erfassungsvorrichtung und ein Fahrzeugposition-Erfassungsverfahren gemäß der zweiten Ausführungsform unter Bezugnahme auf ein Funktionsblockdiagramm in 14, ein Flussdiagramm in 15 und 16 bis 19 beschrieben.
  • [Funktionelle Konfiguration der Fahrzeugpositionserkennung]
  • 14 ist ein funktionelles Blockdiagramm, das die funktionelle Konfiguration einer Fahrzeugposition-Erfassungsvorrichtung 10 gemäß der zweiten Ausführungsform zeigt. In 14 werden die Unterschiede zu 3 der ersten Ausführungsform beschrieben, während die Beschreibung der entsprechenden Teile weggelassen wird. In 14 umfasst die Fahrzeugposition-Erfassungsvorrichtung 10 eine Fahrspureinstellungseinheit 221 und eine Fahrspurschätzungseinheit 222. Eine Benachrichtigungseinheit 214 hat die in 4 gezeigte Funktionskonfiguration wie in der ersten Ausführungsform.
  • Für die um das eigene Fahrzeug V1 herum vorhandenen Fahrspuren nimmt die Fahrspurbereich-Einstelleinheit 221 die Einstellung vor, welchem der Fahrspurbereiche jeder Bereich auf dem aufgenommenen Bild entspricht.
  • Eine Straßenoberflächen-Helligkeits-Vergleichseinheit 210 vergleicht die Helligkeitswerte einer Vielzahl von Helligkeits-Vergleichsbereichen, die durch eine Helligkeits-Vergleichsbereich-Einstelleinheit 208 eingestellt wurden. In der ersten Ausführungsform werden die mehreren Helligkeitsvergleichsflächen mit der Helligkeitsmusterfläche verglichen, die durch die Helligkeitsmusterflächen-Einstelleinheit 109 eingestellt wird, während in der zweiten Ausführungsform die Helligkeitsmusterflächen-Einstelleinheit nicht vorgesehen ist und die Helligkeitswerte der mehreren Helligkeitsvergleichsflächen miteinander verglichen werden.
  • Die Fahrspur-Schätzeinheit 222 schätzt die Position der Fahrspur, auf der sich das andere Fahrzeug V2 befindet, auf der Grundlage der Ergebnisse der Fahrspurbereich-Einstelleinheit 221 und der Straßenoberflächen-Helligkeitsvergleichseinheit 210. 16 zeigt die Positionsbeziehung zwischen dem eigenen Fahrzeug V1 und dem anderen Fahrzeug V2. Die Fahrspurabschätzungseinheit 222 schätzt, dass das andere Fahrzeug V2 auf einer Fahrspur LN zwischen der weißen Linie L1 und der weißen Linie L2 unterwegs ist. Das heißt, in Bezug auf den Fahrbereich des anderen Fahrzeugs, der von der Fahrbereich-Schätzeinheit in der ersten Ausführungsform geschätzt wurde, führt die Fahrspur-Schätzeinheit 222 eine Schätzung der Fahrspur auf der Grundlage des Ergebnisses der Fahrspurbereich-Einstelleinheit 221 durch.
  • Eine Fahrzeugpositionsbestimmungseinheit 212 bestimmt die Position des anderen Fahrzeugs V2 aus den Fahrzeugkandidatenbereichen, die von der Fahrzeugkandidatenbereich-Extraktionseinheit 205 extrahiert wurden, und der Fahrspur des anderen Fahrzeugs V2, die von der Fahrspurschätzungseinheit 222 geschätzt wurde.
  • [Betrieb der Fahrzeugpositionserfassungsvorrichtung]
  • Als nächstes wird der Betrieb der funktionalen Konfiguration der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform unter Bezugnahme auf das Flussdiagramm in 15 und 16 bis 19 beschrieben.
  • 15 ist das Flussdiagramm, das den Betrieb der Fahrzeugposition-Erfassungsvorrichtung gemäß der zweiten Ausführungsform zeigt.
    Die Schritte S201 bis S206 sind die gleichen wie die Schritte S101 bis S106, die im Flussdiagramm in 5 in der ersten Ausführungsform dargestellt sind, und werden daher einfach beschrieben, ohne eine detaillierte Beschreibung zu geben.
  • In Schritt S201 wird von der Kamera 2 ein Umgebungsbild für die seitlich rückwärtige Seite des eigenen Fahrzeugs V1 aufgenommen.
  • In Schritt S202 wird mit Hilfe der Sonarsensoren 3 eine Erkennung von Hindernissen (Objekten) in der Umgebung des eigenen Fahrzeugs V1 durchgeführt und die Abstände zu den Hindernissen werden gemessen.
  • In Schritt S203 extrahiert eine Lichtquellenextraktionseinheit 203 einen Lichtquellenkandidaten aus den Helligkeitswerten des in Schritt S201 erfassten Bildes.
  • In Schritt S204 extrahiert eine Lichtquellentyp-Bestimmungseinheit 204 die Farben auf dem aufgenommenen Bild der Lichtquellenkandidaten, die von der Lichtquellenextraktionseinheit 203 extrahiert wurden, und bestimmt die Lichtquellentypen.
  • In Schritt S205 extrahiert eine Fahrzeugkandidatenbereich-Extraktionseinheit 205 Fahrzeugkandidatenbereiche, um die Lichtquellenkandidaten der Scheinwerfer des Fahrzeugs auf der Grundlage der Lichtquellenkandidaten einzuschließen, die durch die Lichtquellentypbestimmungseinheit 204 unter den Lichtquellenkandidaten bestimmt wurden, die durch die Lichtquellenextraktionseinheit 203 extrahiert wurden.
  • In Schritt S206 führt eine Straßenoberflächenerfassungseinheit 206 eine Berechnung unter Verwendung des von der Kamera 2 aufgenommenen Bildes und eines von den Sonarsensoren 3 erhaltenen Hindernis-(Objekt-)Abstandsmessungsergebnisses durch, um eine Straßenoberflächenfläche RS zu erfassen.
  • In Schritt S207 führt die Fahrspurbereich-Einstelleinheit 221 für die um das eigene Fahrzeug V1 vorhandenen Fahrspuren die Einstellung durch, welchem der Fahrspurbereiche jeder Bereich auf dem aufgenommenen Bild entspricht. Konkret werden zum Beispiel in 16 die Fahrspurbereiche um das eigene Fahrzeug V1 aus den weißen Linien L1 bis L3, die um das eigene Fahrzeug V1 herum erfasst wurden, der Fahrtrichtung des eigenen Fahrzeugs V1, der Fahrtrichtung des anderen Fahrzeugs, die auf der Grundlage der zeitlichen Änderung der Straßenoberfläche, die von der Straßenoberflächenerfassungseinheit 206 erfasst wurde, geschätzt und festgelegt wird, und dergleichen.
  • Schritt S208 und Schritt S209 entsprechen den in der ersten Ausführungsform beschriebenen Schritten S107 bzw. S109.
  • Das heißt, in Schritt S208 legt die Helligkeitsvergleichsflächen-Einstelleinheit 208 Helligkeitsvergleichsflächen auf der Grundlage der Vielzahl von Fahrzeugkandidatenflächen, die von der Fahrzeugkandidatenflächen-Extraktionseinheit 205 extrahiert wurden, und der Straßenoberflächenfläche, die von der Straßenoberflächenflächen-Erfassungseinheit 206 erfasst wurde, fest.
  • In Schritt S209 legt eine Warnzielbereich-Einstelleinheit 207 den Warnzielbereich W fest, um das eigene Fahrzeug V1 zu benachrichtigen, wenn das andere Fahrzeug V2 in diesen Bereich eingefahren ist.
  • In Schritt S210 extrahiert die Straßenoberflächen-Helligkeits-Vergleichseinheit 210 die Helligkeitswerte der Helligkeits-Vergleichsbereiche C1, C2, die durch die Helligkeits-Vergleichsbereich-Einstelleinheit 208 eingestellt wurden, und vergleicht diese Helligkeitswerte. Die Helligkeitsvergleichsbereiche C1, C2 sind die gleichen wie die in 10 in der ersten Ausführungsform dargestellten. In der ersten Ausführungsform werden die Helligkeitswerte mit dem Helligkeitsabtastbereich CS verglichen, der von der Helligkeitsabtastbereich-Einstelleinheit 109 extrahiert wurde, während in der zweiten Ausführungsform die Helligkeitsvergleichsbereiche miteinander verglichen werden, um festzustellen, ob die Helligkeitsvergleichsbereiche Scheinwerferbeleuchtungsbereiche sind oder nicht.
  • Wenn beim Vergleich des Helligkeitsvergleichsbereichs C1 und des Helligkeitsvergleichsbereichs C2 beide Bereiche Teile enthalten, in denen die Helligkeitswerte gleich oder größer als ein vorgegebener Schwellenwert, beispielsweise 150, sind, werden beide Bereiche als mit Scheinwerfern beleuchtete Bereiche bestimmt. In diesem Fall schätzt die später beschriebene Fahrspurschätzungseinheit 222 beide Fahrspuren als Fahrspuren. Wenn der Helligkeitswert des Helligkeitsvergleichsbereichs C1 um beispielsweise 100 oder mehr größer ist als der Helligkeitswert des Helligkeitsvergleichsbereichs C2, wird der Helligkeitsvergleichsbereich C1 als Scheinwerferlichtbereich bestimmt. Wenn die Helligkeitswerte der Helligkeitsvergleichsbereiche C1, C2 beide gleich oder kleiner als 100 sind, stellt die später beschriebene Fahrspurschätzeinheit 222 fest, dass keine Fahrzeuge unterwegs sind. In der zweiten Ausführungsform ist der Helligkeitswert des Helligkeitsvergleichsbereichs C1 um beispielsweise 100 oder mehr größer als der Helligkeitswert des Helligkeitsvergleichsbereichs C2, und der Helligkeitsvergleichsbereich C1 wird als Scheinwerferbeleuchtungsbereich bestimmt. Der Schwellenwert (Bestimmungskriterium) für die Helligkeitswertdifferenz, bei der der Bereich als Scheinwerferbeleuchtungsbereich bestimmt wird, ist nicht auf 100 beschränkt. Das Helligkeitswert-Vergleichskriterium kann unter Berücksichtigung der Witterung, des Zustands der Straßenoberfläche, der Geschwindigkeiten der fahrenden Fahrzeuge und dergleichen festgelegt werden.
  • In der zweiten Ausführungsform werden in dem Fall, in dem es zwei Fahrspuren auf einer Seite der Fahrbahn gibt, auf der das eigene Fahrzeug fährt, zwei Helligkeitsvergleichsbereiche festgelegt und ihre Helligkeitswerte verglichen. Daher werden in dem Fall, in dem es eine oder keine Fahrspur auf einer seitlichen Seite der Fahrspur gibt, auf der das eigene Fahrzeug fährt, keine Helligkeitsvergleichsbereiche festgelegt und der Helligkeitsvergleich wird nicht durchgeführt. Ob die Anzahl der Fahrspuren auf der Seite der Fahrspur, auf der das eigene Fahrzeug fährt, zwei oder mehr beträgt, wird auf der Grundlage der Erkennung weißer Linien, der Fahrbahnfläche oder Ähnlichem geschätzt. Auch wenn eine andere Methode zur Schätzung der Anzahl der Fahrspuren verwendet wird, werden die Auswirkungen nicht beeinflusst.
  • Wie in 10 dargestellt, werden die Helligkeitsvergleichsbereiche C1, C2 in dem von der Straßenoberflächenerfassungseinheit 206 erfassten Straßenoberflächenbereich RS festgelegt. Da die Helligkeitsvergleichsbereiche C1, C2, die in der Helligkeit verglichen werden sollen, in diesem Straßenoberflächenbereich RS festgelegt werden, wie in der ersten Ausführungsform, ist es möglich, das Problem der herkömmlichen Technologie zu lösen, dass die Erkennung eines anderen Fahrzeugs möglicherweise nicht korrekt durchgeführt wird, wenn es ein Hindernis in einem Helligkeitsvergleichszielbereich gibt oder wenn es nur eine Spur außer der Fahrspur des eigenen Fahrzeugs gibt.
  • In Schritt S211 schätzt die Fahrspur-Schätzeinheit 222 auf der Grundlage des Ergebnisses der Straßenoberflächen-Helligkeits-Vergleichseinheit 210, welcher der von der Fahrspurbereich-Einstelleinheit 221 eingestellten Fahrspuren die Fahrspur des anderen Fahrzeugs V2 entspricht. Da hier der Helligkeitsvergleichsbereich C1 von der Straßenoberflächen-Helligkeitsvergleichseinheit 210 als ein von Scheinwerfern beleuchteter Bereich bestimmt wird, wird die Fahrspur LN in 16 als die Fahrspur geschätzt, auf der das andere Fahrzeug V2 unterwegs ist.
  • In Schritt S212 bestimmt die Fahrzeugpositionsbestimmungseinheit 212 ein unteres Ende LC des Fahrzeugs, das die Fahrzeugposition ist, auf der Grundlage von Informationen über die Fahrspur LN des anderen Fahrzeugs V2, die von der Fahrspurschätzeinheit 222 geschätzt wird, den Fahrzeugkandidatenbereich A1, der von der Fahrzeugkandidatenbereich-Extraktionseinheit 205 extrahiert wird, und den Helligkeitsvergleichsbereich C1, der von der Straßenoberflächenhelligkeitsvergleichseinheit 210 als Scheinwerferbeleuchtungsbereich bestimmt wird, in der gleichen Weise wie bei der ersten Ausführungsform.
  • In Schritt S213 bestimmt die Fahrzeugpositionsbestimmungseinheit 212, ob das untere Ende LC des anderen Fahrzeugs V2 in dem von der Warnzielbereich-Einstelleinheit 207 festgelegten Warnzielbereich W vorhanden ist oder nicht. Wenn das untere Ende LC des anderen Fahrzeugs V2 im Warnzielbereich W vorhanden ist (JA in Schritt S213), fährt das Verfahren mit Schritt S215 fort, und es wird bestimmt, dass eine Benachrichtigung an den Fahrer durchgeführt werden soll. Befindet sich das untere Ende LC des anderen Fahrzeugs V2 nicht im Warnzielbereich W (NEIN in Schritt S213), wird mit Schritt S214 fortgefahren.
  • In Schritt S214 bestimmt die Fahrzeugpositionsbestimmungseinheit 212, ob das untere Ende LC des anderen Fahrzeugs V2 auf den an das eigene Fahrzeug V1 angrenzenden Fahrspuren vorhanden ist oder nicht. Das heißt, selbst wenn das andere Fahrzeug V2 nicht in dem Warnzielbereich W vorhanden ist, wird, da der Warnzielbereich W auf den an das eigene Fahrzeug V1 angrenzenden Fahrspuren festgelegt ist, bestimmt, ob das andere Fahrzeug V2 auf der Fahrspur vorhanden ist, auf der der Warnzielbereich W festgelegt ist, oder nicht. Wenn das untere Ende LC des anderen Fahrzeugs V2 auf den an das eigene Fahrzeug V1 angrenzenden Fahrspuren vorhanden ist (JA in Schritt S214), fährt das Verfahren mit Schritt S215 fort, und es wird bestimmt, dass eine Benachrichtigung an den Fahrer durchzuführen ist. Wenn das untere Ende LC des anderen Fahrzeugs V2 nicht auf den an das eigene Fahrzeug V1 angrenzenden Fahrspuren vorhanden ist (NEIN in Schritt S214), wird der nachfolgende Prozess nicht durchgeführt und der Prozess kehrt zu Schritt S201 zurück, so dass der Prozess auf die gleiche Weise für das nächste aufgenommene Bild durchgeführt wird, das von der seitlichen Rückfahrkamera 2 eingegeben wird.
  • Es wird darauf hingewiesen, dass die Konfiguration so vorgenommen werden kann, dass in Schritt S211, wenn die von der Fahrspurschätzeinheit 222 geschätzte Fahrspur LN von der Fahrspur abweicht, auf der der Warnzielbereich W festgelegt ist, der Prozess nicht mit Schritt S213 fortfährt (zu Schritt S201 zurückkehrt), wodurch der obige Schritt S214 übersprungen werden kann.
  • Als Nächstes wird die Erzeugung von Benachrichtigungssignalen für den Fahrer in Schritt S215 unter Bezugnahme auf das in der ersten Ausführungsform gezeigte Flussdiagramm in 6 beschrieben. Bei den Benachrichtigungssignalen für den Fahrer handelt es sich um ein Videosignal, ein Tonsignal und eine Vibration, wie bei der ersten Ausführungsform.
  • In Schritt S215, wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 214 bestimmt hat, eine Benachrichtigung an den Fahrer auszugeben, erzeugt die Bilderzeugungseinheit 1142 der Benachrichtigungseinheit 214 in Schritt S1151 ein Warnbild und gibt das Warnbild in Schritt S1152 an die Videoausgabeeinheit 115 aus.
  • 17 bis 19 zeigen Beispiele von Warnbildern. Das untere Ende LC des anderen Fahrzeugs V2 und der von der Warnzielbereich-Einstelleinheit 207 festgelegte Warnzielbereich W werden auf dem von der Kamera 2 aufgenommenen Bild angezeigt, und die Anzeigebereiche der Warnbilder WI201 bis WI203 werden jeweils in einem oberen Teil des Bildes eingeblendet. 17 zeigt einen Zustand, in dem das untere Ende LC des anderen Fahrzeugs V2 in Schritt S212 festgelegt wird und das Warnbild WI201 leer ist, weil das untere Ende LC nicht im Warnzielbereich W liegt und sich nicht auf derselben Fahrspur wie der Warnzielbereich W befindet. 18 zeigt einen Zustand, in dem in Schritt S213 festgestellt wird, dass sich das untere Ende LC nicht im Warnzielbereich W befindet, und in Schritt S214 festgestellt wird, dass sich das untere Ende LC des anderen Fahrzeugs V2 auf den an das eigene Fahrzeug V1 angrenzenden Fahrspuren befindet. In 18 wird als Warnbild WI202 ein Bild zum Aufrufen der Aufmerksamkeit angezeigt, das das in Schritt S1151 erzeugte Warnbild ist. 19 zeigt einen Zustand, in dem in Schritt S213 festgestellt wird, dass sich das untere Ende LC im Warnzielbereich W befindet. In 19 wird als Warnbild WI203 das in Schritt S1151 erzeugte Warnbild angezeigt.
  • So kann der Fahrer visuell erkennen, dass das Warnbild WI203 angezeigt wird, und kann erkennen, dass sich das andere Fahrzeug V2 der seitlich hinteren Seite des eigenen Fahrzeugs V1 nähert.
  • Darüber hinaus wird in der zweiten Ausführungsform in dem Fall, in dem die an das eigene Fahrzeug V1 angrenzende Fahrspur mit der Fahrspur LN des anderen Fahrzeugs V2 zusammenfällt, selbst wenn das untere Ende LC, das die Fahrzeugposition anzeigt, nicht im Warnzielbereich W vorhanden ist, durch das Warnbild WI202 in 18 angezeigt, dass sich das andere Fahrzeug auf der angrenzenden Fahrspur an der seitlich hinteren Seite der Fahrspur des eigenen Fahrzeugs V1 befindet. So ist es möglich, die Aufmerksamkeit des Fahrers im Voraus zu wecken, bevor das Warnbild WI203 angezeigt wird.
  • Es wird darauf hingewiesen, dass in Schritt S1151 jedes Bild in 17 bis 19 erzeugt wird, und wenn eine Warnmeldung erforderlich ist, das Warnbild WI202, WI203 angezeigt werden soll. Daher wird das Bild in 17 dem Fahrer nicht angezeigt.
  • Die Warnbilder WI201 bis WI203 sind nicht auf die oben genannten beschränkt, und es kann jede Anzeige verwendet werden, die es dem Fahrer ermöglicht, eine Warnung visuell zu erkennen.
  • In Schritt S215, wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 214 bestimmt hat, eine Benachrichtigung an den Fahrer auszugeben, erzeugt die Tonerzeugungseinheit 1143 der Benachrichtigungseinheit 214 in Schritt S1153 einen Warnton und gibt den Warnton in Schritt S1154 an die Tonausgabeeinheit 116 aus.
  • Zu diesem Zeitpunkt wird, wie in 18 gezeigt, in dem Fall, in dem festgestellt wird, dass das untere Ende LC des Fahrzeugs nicht im Warnzielbereich W vorhanden ist, aber die benachbarte Spur des eigenen Fahrzeugs V1 mit der Spur LN des anderen Fahrzeugs V2 zusammenfällt, ein Ton erzeugt, der anzeigt, dass „das andere Fahrzeug V2 auf der an die Fahrspur des eigenen Fahrzeugs angrenzenden Spur vorhanden ist“. Wie in 19 gezeigt, wird in dem Fall, in dem festgestellt wird, dass das untere Ende LC des Fahrzeugs im Warnzielbereich W vorhanden ist, ein Ton erzeugt, der anzeigt, dass „das andere Fahrzeug V2 auf der an die Fahrspur des eigenen Fahrzeugs angrenzenden Spur und in der Nähe des eigenen Fahrzeugs vorhanden ist“.
  • Die Benachrichtigung des Fahrers kann sowohl durch die Anzeige des Warnbildes als auch durch die Ausgabe des Warntons erfolgen.
  • Im Schritt S215, wenn die Ausgabebestimmungseinheit 1141 der Benachrichtigungseinheit 214 bestimmt hat, eine Benachrichtigung an den Fahrer auszugeben, lässt die Vibrationssteuereinheit 1144 der Benachrichtigungseinheit 214 das Lenkrad im Schritt S1155 vibrieren. Zu diesem Zeitpunkt kann zwischen dem Fall, in dem festgestellt wird, dass das untere Ende LC des Fahrzeugs nicht im Warnzielbereich W vorhanden ist, aber die an das eigene Fahrzeug V1 angrenzende Fahrspur mit der Fahrspur LN des anderen Fahrzeugs V2 zusammenfällt, wie in 18 gezeigt, und dem Fall, in dem festgestellt wird, dass das untere Ende LC des Fahrzeugs im Warnzielbereich W vorhanden ist, wie in 19 gezeigt, die Intensität (Frequenz oder Amplitude) der Vibration so eingestellt werden, dass sie im Fall von 19 größer ist, wodurch die Dringlichkeit dem Fahrer leichter vermittelt wird.
  • Durch Vibration des Lenkrads kann der Fahrer erkennen, dass sich das andere Fahrzeug V2 der seitlich hinteren Seite des eigenen Fahrzeugs V1 nähert.
  • Das Mittel zur Warnung des Fahrers ist nicht auf die Vibration des Lenkrads beschränkt, und es reicht aus, dass eine Vibrationsvorrichtung in den Fahrersitz oder das Lenkrad eingebaut ist, um eine Warnung durch Vibration fühlbar zu machen.
  • Die Benachrichtigung des Fahrers kann mit einer Vielzahl von Benachrichtigungsmethoden erfolgen, indem die Anzeige des Warnbildes und die Ausgabe des Warntons kombiniert werden.
  • Die in 15 und 6 dargestellten Schritte S201 bis S215 werden während der Fahrt des eigenen Fahrzeugs V1 wiederholt.
  • Wie oben beschrieben, bietet die zweite Ausführungsform die gleichen Effekte wie die erste Ausführungsform. Das heißt, der Straßenoberflächenbereich RS, der Hindernisse ausschließt, die seitlich hinter dem eigenen Fahrzeug vorhanden sind, wird von der Kamera 2 und dem Sonarsensor 3 erfasst, und die Fahrzeugkandidatenbereiche A1 bis A4, in denen sich ein anderes Fahrzeug befinden kann, werden aus dem von der Kamera 2 aufgenommenen seitlich rückwärtigen Bild extrahiert. Dann werden für die im Fahrbahnbereich RS befindlichen Fahrzeugkandidatenbereiche A1, A3 die Helligkeitsvergleichsbereiche C1, C2 vor die Fahrzeugkandidatenbereiche A1, A3 und in den Fahrbahnbereich RS gesetzt und die Helligkeitswerte der Helligkeitsvergleichsbereiche C1, C2 miteinander verglichen, wodurch der Fahrbereich des anderen Fahrzeugs V2 geschätzt und eine Warnmeldung durchgeführt wird. Die Helligkeitsvergleichsbereiche C1, C2 liegen also beide im Fahrbahnbereich RS und werden miteinander verglichen, so dass die Erkennungsgenauigkeit für das andere Fahrzeug V2 unabhängig von der Fahrspur verbessert und eine Fehlwarnung wie bei der herkömmlichen Technik verhindert wird.
  • Dadurch ist es möglich, eine genaue Warnung vor einem sich dem eigenen Fahrzeug in der Nacht nähernden Fahrzeug zu erhalten, wodurch der Fahrer die Situation um das eigene Fahrzeug besser einschätzen kann.
  • Darüber hinaus werden in der zweiten Ausführungsform Fahrspurbereiche erkannt und die Fahrspur, auf der sich das andere Fahrzeug V2 befindet, geschätzt. Dadurch wird die Erkennungsgenauigkeit für das andere Fahrzeug V2 weiter verbessert.
  • [Andere Modifikationen]
  • In der obigen ersten und zweiten Ausführungsform werden die Bilder in 12 und 17, die die Positionsbeziehung zwischen dem eigenen Fahrzeug V1 und dem erkannten anderen Fahrzeug V2 zeigen, wenn keine Benachrichtigung des Fahrers erfolgt, dem Fahrer nicht angezeigt. Nachdem jedoch die Position in Schritt S112, S212 festgelegt wurde, kann die Bilderzeugungseinheit 1142 der Benachrichtigungseinheit 114, 214 die Positionsbeziehung der Fahrzeuge so einstellen, dass sie dem von der Kamera 2 aufgenommenen Bild überlagert wird, und wenn eine Benachrichtigung erforderlich ist, kann eines der Warnbilder WI101, WI102 und WI201 bis WI203 angezeigt werden.
  • In der obigen ersten Ausführungsform wird keine Benachrichtigung durchgeführt, wenn in Schritt S114 festgestellt wird, dass sich das andere Fahrzeug V2 dem eigenen Fahrzeug V1 nicht nähert. Es kann jedoch beispielsweise ein Bild erzeugt werden, das einen mittleren Warnzustand zwischen dem Warnbild WI101 und dem Warnbild WI102 anzeigt, um eine Benachrichtigung darüber durchzuführen, dass sich das andere Fahrzeug V2 in der Nähe der seitlich hinteren Seite des eigenen Fahrzeugs V1 befindet.
  • In der obigen zweiten Ausführungsform ist die Einheit zur Bestimmung der Fahrzeugannäherung nicht vorgesehen. Wie bei der ersten Ausführungsform kann die Fahrzeugannäherung-Bestimmungseinheit jedoch vorhanden sein, und eine Warnung wird in Abhängigkeit vom Annäherungszustand des anderen Fahrzeugs ausgegeben.
  • Auch in der obigen zweiten Ausführungsform kann der Helligkeitsabtastbereich CS in den Straßenoberflächenbereich RS gelegt werden, um mit den Helligkeitsvergleichsbereichen verglichen zu werden.
  • Auch in der obigen ersten Ausführungsform kann die Einheit zur Einstellung des Fahrspurbereichs wie in der zweiten Ausführungsform vorgesehen sein, so dass die Einstellung der Fahrspur durchgeführt werden kann.
  • In der ersten und zweiten Ausführungsform zeigen 7 und 16 den Fall, dass das eigene Fahrzeug V1 und das andere Fahrzeug V2 in einer solchen Positionsbeziehung stehen, dass sie zwei Fahrspuren voneinander entfernt sind. Diese Positionsbeziehung ist jedoch nur ein Beispiel, und selbstverständlich kann das andere Fahrzeug V2 auch dann genau erfasst werden, wenn sich das eigene Fahrzeug V1 und das andere Fahrzeug V2 auf den aneinander angrenzenden Fahrspuren befinden.
  • Obwohl die Offenlegung oben in Bezug auf verschiedene beispielhafte Ausführungsformen und Implementierungen beschrieben wird, sollte es verstanden werden, dass die verschiedenen Merkmale, Aspekte und Funktionen, die in einer oder mehreren der einzelnen Ausführungsformen beschrieben werden, in ihrer Anwendbarkeit auf die spezielle Ausführungsform, mit der sie beschrieben werden, nicht beschränkt sind, sondern stattdessen allein oder in verschiedenen Kombinationen auf eine oder mehrere der Ausführungsformen der Offenlegung angewendet werden können.
  • Es versteht sich daher von selbst, dass zahlreiche Modifikationen, die nicht beispielhaft dargestellt sind, entwickelt werden können, ohne den Rahmen der vorliegenden Offenbarung zu sprengen. Zum Beispiel kann mindestens einer der Bestandteile geändert, hinzugefügt oder eliminiert werden. Mindestens einer der in mindestens einer der bevorzugten Ausführungsformen genannten Bestandteile kann ausgewählt und mit den in einer anderen bevorzugten Ausführungsform genannten Bestandteilen kombiniert werden.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Kamera
    3
    Sonar-Sensor
    5
    Kommunikationsleitung
    7
    Kameraverkabelung
    8 Verkabelung
    des Sonarsensors
    10
    Fahrzeugposition-Erfassungsvorrichtung
    11
    Überwachungskamera-Controller
    12
    Sonarsteuerung
    13 andere
    Sensoren
    14
    Rechenvorrichtung
    101, 201
    Bildgebende Einheit
    102, 202
    Messeinheit
    103, 203
    Lichtquellen-Extraktionseinheit
    104, 204
    Einheit zur Bestimmung des Lichtquellentyps
    105, 205
    Fahrzeug-Kandidatenbereich-Extraktionseinheit
    106, 206
    Erfassungseinheit für die Straßenoberfläche
    107, 207
    Warnzielbereich-Einstellungseinheit
    108, 208
    Einstellgerät für den Helligkeitsvergleichsbereich
    109
    Einstellung der Helligkeitsmessflächeneinheit
    110, 210
    Straßenoberflächenhelligkeit-Vergleichsvorrichtung
    111
    Schätzungseinheit für die Fahrfläche
    112, 212
    Fahrzeugpositionsbestimmungseinheit
    113
    Fahrzeug-Annäherungs-Bestimmungseinheit
    114, 214
    Benachrichtigungseinheit
    115
    Video-Ausgangseinheit
    116
    Tonausgabeeinheit
    221
    Fahrspurbereich-Einheit
    222
    Schätzung der Fahrspur
    1141
    Ausgangsbestimmungseinheit
    1142
    Bilderzeugungseinheit
    1143
    Tonerzeugungseinheit
    1144
    Vibrationskontrolleinheit
    1000
    Prozessor
    2000
    Speichergerät
    V1
    eigenes Fahrzeug
    V2
    anderes Fahrzeug
    S
    Kamerablickwinkel
    L1 bis L4
    weiße Linie
    R1, R2
    durch Scheinwerfer eines anderen Fahrzeugs beleuchtete Fahrbahnoberfläche
    h1, h2
    Scheinwerfer eines anderen Fahrzeugs
    O1, O2
    Lichtquellenkandidat (andere Lichtquelle als Scheinwerfer)
    A1 bis A4
    Fahrzeugkandidatenbereich
    RS
    Straßenfläche
    C1, C2
    Helligkeitsvergleichsfläche
    CS
    Helligkeit-Probefläche
    LC
    unteres Ende des Fahrzeugs (Fahrzeugposition)
    LN
    Fahrspur, auf der sich ein anderes Fahrzeug befindet
    W
    Warnung Zielgebiet
    WI101, WI102, WI201 bis WI203
    Warnbild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2019/202627 [0042]

Claims (12)

  1. Fahrzeugposition-Erfassungsvorrichtung (10), umfassend: eine Abbildungseinheit (101, 201), die an einem Fahrzeug (1, V1) vorgesehen ist und die ein Bild um das Fahrzeug (V1) herum aufnimmt und das Bild ausgibt; eine Entfernungsmesseinheit (102, 202), die an dem Fahrzeug (1, V1) vorgesehen ist und ein Hindernis um das Fahrzeug (V1) erfasst; eine Fahrzeugkandidatenbereich-Extraktionseinheit (105, 205) zum Extrahieren eines Fahrzeugkandidatenbereichs (A1, A2, A3, A4), der einen aufleuchtenden Scheinwerfer (h1, h2) umfasst, auf der Grundlage des aufgenommenen Bildes, das für eine seitlich rückwärtige Seite des Fahrzeugs (V1) durch die Abbildungseinheit (101, 201) aufgenommen wurde; eine Straßenoberflächenerfassungseinheit (106, 206) zum Erfassen einer Straßenoberflächenfläche (RS), die das Hindernis aus dem aufgenommenen Bild ausschließt, auf der Grundlage eines Erfassungsergebnisses von der Entfernungsmesseinheit (102, 202); eine Straßenoberflächen-Helligkeits-Vergleichseinheit (110, 210), die für den Fahrzeugkandidatenbereich (A1, A2, A3, A4), der in dem Straßenoberflächenbereich (RS) vorhanden ist, einen Helligkeits-Vergleichsbereich (C1, C2) vor dem Fahrzeugkandidatenbereich (A1, A2, A3, A4) in dem Straßenoberflächenbereich (RS) setzt und die Helligkeit vergleicht, die von dem Helligkeits-Vergleichsbereich (C1, C2) erhalten wird; eine Fahrbereich-Schätzeinheit (111, 222) zum Schätzen eines Fahrbereichs, in dem ein anderes Fahrzeug (V2) seitlich hinter dem Fahrzeug (V1) fährt, auf der Grundlage eines Vergleichsergebnisses von der Straßenoberflächen-Helligkeitsvergleichseinheit (110, 210); und eine Fahrzeugpositionsbestimmungseinheit (112, 212) zum Bestimmen einer Position des anderen Fahrzeugs (V2) auf der Grundlage des Fahrbereichs und des für die Schätzung des Fahrbereichs verwendeten Fahrzeugkandidatenbereichs (A1, A2, A3, A4).
  2. Fahrzeugposition-Erfassungsvorrichtung (10) nach Anspruch 1, ferner umfassend eine Benachrichtigungseinheit (114, 214) zum Erzeugen eines Benachrichtigungssignals, wenn das andere Fahrzeug (V2), dessen Position durch die Fahrzeugpositionsbestimmungseinheit (112, 212) bestimmt wurde, in einem vorbestimmten Warnzielbereich (W) oder auf derselben Fahrspur wie eine Fahrspur, auf der der Warnzielbereich (W) eingestellt ist, vorhanden ist.
  3. Fahrzeugposition-Erfassungsvorrichtung (10) nach Anspruch 2, wobei das Benachrichtigungssignal ein Videosignal ist, und die Benachrichtigungseinheit (114, 214) eine Bilderzeugungseinheit (1142) umfasst, um als das Videosignal ein Bild zu erzeugen, das durch Überlagern der Position des anderen Fahrzeugs (V2), die durch die Fahrzeugpositionsbestimmungseinheit (112, 212) bestimmt wird, und eines Warnbildes (WI102, WI202, WI203) auf dem von der Abbildungseinheit (101, 201) aufgenommenen Bild erhalten wird.
  4. Fahrzeugposition-Erfassungsvorrichtung (10) nach Anspruch 2 oder 3, wobei das Benachrichtigungssignal ein Tonsignal ist, und die Benachrichtigungseinheit (114, 214) eine Tonerzeugungseinheit (1143) zur Erzeugung eines Warntons als Tonsignal umfasst.
  5. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 2 bis 4, wobei das Benachrichtigungssignal eine Vibration ist, und die Benachrichtigungseinheit (114, 214) eine Vibrationssteuereinheit (1144) zum Vibrieren eines Lenkrads oder eines Fahrersitzes des Fahrzeugs (V1) umfasst.
  6. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 2 bis 5, wobei der Warnzielbereich (W) auf einer Fahrspur eingestellt ist, die an eine Fahrspur angrenzt, auf der das Fahrzeug (V1) fährt.
  7. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 2 bis 6, ferner umfassend eine Fahrzeugannäherung-Bestimmungseinheit (113) zum Bestimmen, ob sich das andere Fahrzeug (V2) nähert oder nicht, auf der Grundlage der von der Fahrzeugpositionsbestimmungseinheit (112, 212) bestimmten Zeitreihenänderung der Position des anderen Fahrzeugs (V2), wobei, wenn die Fahrzeugannäherung-Bestimmungseinheit (113) festgestellt hat, dass sich das andere Fahrzeug (V2) nähert, die Benachrichtigungseinheit (114, 214) ein Benachrichtigungssignal erzeugt, das anzeigt, dass sich das andere Fahrzeug (V2) nähert.
  8. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 2 bis 7, wobei die Straßenoberflächen-Helligkeits-Vergleichseinheit (110, 210) einen Helligkeitswert eines Helligkeits-Probebereichs (CS), der im Straßenoberflächenbereich (RS) im Voraus eingestellt ist, und einen Helligkeitswert des Helligkeits-Vergleichsbereichs (C1, C2) vergleicht, der im Straßenoberflächenbereich (RS) und vor dem Fahrzeug-Kandidatenbereich (A1, A2, A3, A4) eingestellt ist.
  9. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 2 bis 8, wobei die Fahrzeugkandidatenbereich-Extraktionseinheit (105, 205) den Fahrzeugkandidatenbereich (A1, A2, A3, A4) auf der Grundlage von Information extrahiert, in der eine Lichtquelle und ein Typ derselben aus einem Helligkeitswert und einer Farbe auf dem von der Abbildungseinheit (101, 201) aufgenommenen Bild bestimmt werden.
  10. Fahrzeugposition-Erfassungsvorrichtung (10) nach einem der Ansprüche 1 bis 9, wobei die Fahrbereich-Schätzeinheit (111, 222) eine Fahrspur (LN) schätzt, auf der das andere Fahrzeug (V2) seitlich hinter dem Fahrzeug (V1) fährt, auf der Grundlage eines Fahrspurbereichs, der aus dem von der Abbildungseinheit (101, 201) aufgenommenen Bild und dem Vergleichsergebnis von der Straßenoberflächen-Helligkeits-Vergleichseinheit (110, 210) geschätzt wird.
  11. Fahrzeugposition-Erfassungsverfahren, das die folgenden Schritte umfasst: Aufnahme eines Bildes um ein Fahrzeug (V1) (S101, S201); Erkennen eines Hindernisses um das Fahrzeug (V1) (S102, S202); Extrahieren eines Fahrzeugkandidatenbereichs (A1, A2, A3, A4), der einen aufleuchtenden Scheinwerfer (h1, h2) umfasst, auf der Grundlage des aufgenommenen Bildes, das für eine seitlich hintere Seite des Fahrzeugs (V1) aufgenommen wurde (A105, S205); Erfassen eines Straßenoberflächenbereichs (RS) ohne das erfasste Hindernis aus dem aufgenommenen Bild (S106, S206); für den Fahrzeugkandidatenbereich (A1, A2, A3, A4), der in dem Straßenoberflächenbereich (RS) vorhanden ist, Einstellen eines Helligkeitsvergleichsbereichs (C1, C2) vor dem Fahrzeugkandidatenbereich (A1, A2, A3, A4) in dem Straßenoberflächenbereich (RS) und das Vergleichen der von dem Helligkeitsvergleichsbereich (C1, C2) erhaltenen Helligkeit (S110, S210); Schätzen eines Fahrbereichs, in dem ein anderes Fahrzeug (V2) seitlich hinter dem Fahrzeug (V1) fährt, auf der Grundlage eines Helligkeitsvergleichsergebnisses aus dem Helligkeitsvergleichsbereich (C1, C2) (S111, S211); und Bestimmen einer Position des anderen Fahrzeugs (V2) auf der Grundlage des Fahrbereichs und des für die Schätzung des Fahrbereichs verwendeten Fahrzeugkandidatenbereichs (A1, A2, A3, A4) (S112, S212).
  12. Fahrzeugposition-Erfassungsverfahren nach Anspruch 11, das ferner die folgenden Schritte umfasst: Einstellen eines Warnzielbereichs (W) auf einer Fahrspur, die an eine Fahrspur angrenzt, auf der das Fahrzeug (V1) fährt (S109, S209); und Erzeugen eines Benachrichtigungssignals, wenn sich das andere Fahrzeug (V2), dessen Position angegeben wurde, im Warnzielbereich (W) oder auf derselben Fahrspur wie die Fahrspur, auf der der Warnzielbereich (W) eingestellt ist, befindet (S115, S215).
DE102021209974.2A 2020-10-20 2021-09-09 Fahrzeugposition-erfassungsvorrichtung und fahrzeugposition-erfassungsverfahren Pending DE102021209974A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-175731 2020-10-20
JP2020175731A JP7034231B1 (ja) 2020-10-20 2020-10-20 車両位置検出装置および車両位置検出方法

Publications (1)

Publication Number Publication Date
DE102021209974A1 true DE102021209974A1 (de) 2022-04-21

Family

ID=80929471

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021209974.2A Pending DE102021209974A1 (de) 2020-10-20 2021-09-09 Fahrzeugposition-erfassungsvorrichtung und fahrzeugposition-erfassungsverfahren

Country Status (3)

Country Link
JP (1) JP7034231B1 (de)
CN (1) CN114379562B (de)
DE (1) DE102021209974A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193702A (ja) * 2006-01-20 2007-08-02 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
MY170485A (en) * 2011-04-13 2019-08-07 Nissan Motor Driving assistance device and adjacent vehicle detection method therefor
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
JP2013140515A (ja) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
EP2821981A4 (de) * 2012-03-01 2015-05-20 Nissan Motor Vorrichtung zur erfassung dreidimensionaler objekte
JP6035065B2 (ja) * 2012-07-03 2016-11-30 クラリオン株式会社 車載用周囲環境認識装置
JP6177632B2 (ja) * 2013-09-11 2017-08-09 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
FR3046393B1 (fr) * 2016-01-05 2022-08-19 Valeo Schalter & Sensoren Gmbh Procede mis en oeuvre dans un vehicule automobile et vehicule automobile associe

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Also Published As

Publication number Publication date
CN114379562B (zh) 2024-05-10
CN114379562A (zh) 2022-04-22
JP2022067169A (ja) 2022-05-06
JP7034231B1 (ja) 2022-03-11

Similar Documents

Publication Publication Date Title
DE102008006375B4 (de) Überwachungssystem
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
EP2443586B1 (de) Verfahren und vorrichtung zum erkennen einer rückwärtigen fahrzeugbeleuchtung
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE112008004291B4 (de) Bewegungszustand-Schätzvorrichtung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE102016117780B4 (de) Fahrzeugaussenumgebung-Erkennungsvorrichtung
DE102016200828B4 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE102013205952B4 (de) Rekonfigurierbares System und Verfahren zur Detektion eines freien Pfads
DE102007034657B4 (de) Bildverarbeitungsvorrichtung
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE10246228A1 (de) Vorrichtung zum Überwachen eines an ein Fahrzeug angrenzenden Bereichs
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102009023326A1 (de) Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben
DE10030421A1 (de) Fahrzeugumgebungsüberwachungssystem
DE102018121008B4 (de) System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE102009050492A1 (de) Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens
DE102014112820A9 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102012220089A1 (de) Aktives Sichtsystem mit unbemerkt gelenkter und modulierter Beleuchtung
WO2019063341A1 (de) Verfahren zum erfassen einer fahrbahnbeschaffenheit einer fahrbahn für ein kraftfahrzeug, fahrerassistenzsystem sowie kraftfahrzeug
DE102021131051A1 (de) Bildaufnahmesystem und Bildaufnahmevorrichtung
EP1028387B1 (de) Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed