DE102011117554A1 - Fahrumgebungserfassungsvorrichtung - Google Patents

Fahrumgebungserfassungsvorrichtung Download PDF

Info

Publication number
DE102011117554A1
DE102011117554A1 DE102011117554A DE102011117554A DE102011117554A1 DE 102011117554 A1 DE102011117554 A1 DE 102011117554A1 DE 102011117554 A DE102011117554 A DE 102011117554A DE 102011117554 A DE102011117554 A DE 102011117554A DE 102011117554 A1 DE102011117554 A1 DE 102011117554A1
Authority
DE
Germany
Prior art keywords
road surface
vehicle
road
information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011117554A
Other languages
English (en)
Inventor
Ryo Ota
Toshiya Oosawa
Akira Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of DE102011117554A1 publication Critical patent/DE102011117554A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/20Road profile, i.e. the change in elevation or curvature of a plurality of continuous road segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

Eine Fahrumgebungserfassungsvorrichtung umfassend einen Informationserfassungsabschnitt montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Information zumindest über einen Frontbereich des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt ausgebildet zur Berechnung einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs, aus der mit dem Informationserfassungsabschnitt erfassten Information.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf eine Fahrumgebungserfassungsvorrichtung, die ausgebildet ist, um eine Fahrumgebung zu erfassen, in der sich ein Fahrzeug bewegt.
  • Japanische Patent Anmeldung mit Veröffentlichungsnummer 2009-286222 offenbart eine vorbekannte Vorrichtung. In dieser Technik wird durch das Abtasten bestimmter Positionen auf der seitlichen Seite eines Fahrzeugs unter Verwendung einer Vielzahl von Ultraschallsensoren eine Höhe einer Straßenoberfläche erkannt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Da die bestimmten Positionen auf der seitlichen Seite jedoch mit der oben genannten, vorbekannten Technik überwacht werden, kann ein Frontbereich und ein entfernter Bereich vor dem Fahrzeug nicht erkannt werden. Eine Verbesserung der Sicherheit über die Kontrolle des Fahrzeugs wird durch die oben genannte vorbekannte Technik nicht ausreichend erreicht.
  • Es ist eine Aufgabe der vorliegenden Erfindung eine Fahrumgebungserfassungsvorrichtung zur Verfügung zu stellen, die dazu ausgebildet ist eine Fahrumgebung genauer zu erfassen.
  • Die Aufgabe wird durch Merkmale der jeweiligen unabhängigen Ansprüche gelöst. Die Unteransprüche haben jeweils vorteilhafte Weiterbildungen der Erfindung zum Gegenstand.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist eine Fahrumgebungserfassungsvorrichtung vorgesehen, umfassend: Einen Informationserfassungsabschnitt montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Information zumindest über einen Frontbereich des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt ausgebildet zur Berechnung einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs, aus der mit dem Informationserfassungsabschnitt erfassten Information.
  • Gemäß eines anderen Aspekts der vorliegenden Erfindung ist eine Fahrumgebungserfassungsvorrichtung vorgesehen, umfassend: Eine Kamera montiert in einem Fahrzeug und ausgebildet zur Erfassung einer Umgebung eines Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt, ausgebildet zur Berechnung eines Grenzbereichs zwischen einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße, unter Verwendung von Distanzdaten, die auf einer Distanz zu jedem im Frontbereich des Fahrzeugs befindlichen Objekt in der von der Kamera erfassten Umgebung basieren.
  • Gemäß eines weiteren anderen Aspekts der vorliegenden Erfindung ist eine Fahrumgebungserfassungsvorrichtung vorgesehen, umfassend: Eine zum Erfassen einer Bildinformation, umfassend eine in einem Frontbereichs eines Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs befindlichen Straßenoberfläche einer Fahrstraße, ausgebildete Stereokamera mit einer Mehrzahl an Kameras montiert in dem Fahrzeug, wobei die Stereokamera ausgebildet ist, zum Messen einer Distanz in der Bildinformation mittels einer, während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras verursachten, Parallaxe; und einen Straßenoberflächenberechnungsabschnitt ausgebildet zum Erfassen einer ersten Region, die der Straßenoberfläche der Fahrstraße entspricht, und einer zweiten Region, die einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße entspricht, unter Verwendung der, mittels der Stereokamera gemessenen Distanzinformation, wobei der Straßenoberflächenberechnungsabschnitt ausgebildet ist zum Berechnen eines Grenzbereichs, zwischen der ersten und zweiten Region, als Ende der Fahrstraße.
  • Die weiteren Aufgaben und Merkmale dieser Erfindung sind ersichtlich aus folgender Beschreibung mit Bezug auf beiliegende Zeichnungen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine strukturelle Ansicht eines Fahrzeugs, in dem eine Fahrumgebungserfassungsvorrichtung nach einem ersten Ausführungsbeispiel gemäß vorliegender Erfindung angewendet wurde.
  • 2 ist ein Steuer-/Regelblockdiagramm einer elektronische Steuer-/Regeleinheit gemäß dem ersten Ausführungsbeispiel.
  • 3 ist ein Flussdiagramm, das den Ablauf einer Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit gemäß dem ersten Ausführungsbeispiel zeigt.
  • 4 ist eine Ansicht, die ein Verhältnis zwischen fixen Koordinaten eines Fahrzeugs und linken und rechten Fahrbahnbegrenzungslinien zeigt.
  • 5A bis 5C sind Ansichten, die jeweils eine, aus der Fahrbahnbegrenzungslinie errechnete, imaginäre Fahrbahnbegrenzungslinie zeigen.
  • 6A bis 6C sind Ansichten, die jeweils eine aus repräsentativen Punkten errechnete imaginäre Fahrbahnbegrenzungslinie zeigen.
  • 7A bis 7C sind Ansichten, die jeweils eine, aus der Fahrbahnbegrenzungslinie auf alternative Weise errechnete, imaginäre Fahrbahnbegrenzungslinie auf zeigen.
  • 8A bis 8C sind Ansichten, die jeweils eine, aus repräsentativen Punkten auf alternative Weise errechnete, imaginäre Fahrbahnbegrenzungslinie auf zeigen.
  • 9 ist ein Blockdiagramm, das eine Konfiguration einer Fahrumgebungserfassungsvorrichtung gemäß dem ersten Ausführungsbeispiel zeigt.
  • 10 ist ein Flussdiagramm, das eine, von der Fahrumgebungserfassungsvorrichtung gemäß dem ersten Ausführungsbeispiel ausgeführte, Bildverarbeitung zeigt.
  • 11 ist eine schematische Ansicht eines durch steil abfallende Bereiche konstruierten Straßenbanketts.
  • 12 ist ein Bild, das eine schematische Abbildung zeigt, die erhalten wurde als das, durch stell abfallende Bereiche konstruierte Straßenbankett vom Fahrzeug aus fotografiert wurde.
  • 13 ist eine schematische Ansicht, die charakteristische Punkte zeigt, welche gleichzeitig aufgenommen werden wenn eine wirkliche Straße fotografiert wird.
  • 14 ist eine schematische Ansicht, die eine Superpositionsverarbeitung von Bilddaten gemäß dem ersten Ausführungsbeispiel zeigt.
  • 15 ist eine schematische Ansicht, die, ein durch Bildaufnahme des Straßenbanketts erfasstes Resultat, bezüglich einer Querschnittsrichtung der Straße gemäß dem ersten Ausführungsbeispiel zeigt.
  • 16 ist eine schematische Ansicht, die ein durch mäßig abfallende Bereiche konstruiertes Straßenbankett zeigt.
  • 17 ist ein Bild, das eine schematische Abbildung zeigt, die erhalten wurde als das durch die mäßig abfallenden Bereiche konstruierte Straßenbankett vom Fahrzeug aus fotografiert wurde.
  • 18 ist eine schematische Ansicht, die, ein durch Bildaufnahme des Straßenbanketts erfasstes Resultat, bezüglich einer Querschnittsrichtung der Straße zeigt.
  • 19 ist eine systematische strukturelle Ansicht eines Fahrzeugs, ausgestattet mit einer Fahrumgebungserfassungsvorrichtung nach einem zweiten Ausführungsbeispiel gemäß vorliegender Erfindung.
  • 20 ist eine schematische Ansicht, die eine Superpositionsverarbeitung von Bilddaten gemäß dem zweiten Ausführungsbeispiel zeigt.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Im Folgenden werden Ausführungsbeispiele gemäß der vorliegenden Erfindung mit Bezug auf die Zeichnungen erklärt.
  • [Erstes Ausführungsbeispiel]
  • 1 ist eine strukturelle Ansicht eines Fahrzeugs, in dem eine Fahrumgebungserfassungsvorrichtung gemäß einem ersten Ausführungsbeispiel angewendet wurde. Das Fahrzeug gemäß dem ersten Ausführungsbeispiel umfasst eine Fahrumgebungserfassungsvorrichtung 1, eine elektrische Lenkeinheit 2, eine elektro-hydraulische Bremseinheit 3, einen Bremskraftverstärker 4, ein Lenkrad 5, ein linkes Straßenvorderrad 6, ein rechtes Straßenvorderrad 7, ein linkes Straßenhinterrad 8, ein rechtes Straßenhinterrad 9, eine elektronische Steuer-/Regeleinheit 10 und einen Fahrzeugsbewegungserfassungssensor 11. Die Fahrumgebungserfassungsvorrichtung 1 fotografiert (nimmt ein Bild auf von) einem Bereich vor dem Fahrzeug (Fahrzeug mit Fahrumgebungserfassungsvorrichtung) und einem Frontbereich des Fahrzeugs, unter Verwendung von Kameras oder ähnlichem zur Erstellung von Daten über die Fahrumgebung, Diese Kameras sind angebracht an einer unten genannten zentralen Position am vorderen Ende des Fahrzeugs. Die elektronische Lenkeinheit 2 dreht (lenkt) das linke und rechte Vorderrad 6 und 7 auf Basis eines Befehls gemäß eines Lenkwinkels des Lenkrads 5, kann aber auch das linke und rechte Vorderrad 6 und 7 unabhängig vom Lenkwinkel des Lenkrads 5 drehen (lenken). Die elektro-hydraulische Bremseinheit 3 steuert/regelt eine Bremskraft von jedem der vier Räder 47 unabhängig von einander, in Übereinstimmung mit einer Bremsbeeinflussungskraft des Fahrers oder in Übereinstimmung mit einem Fahrzeugzustand. Der Bremskraftverstärker 4 verstärkt (erhöht) die Bremsbeeinflussungskraft des Fahrers und gibt die verstärkte Bremsbeeinflussungskraft an die elektro-hydraulische Bremseinheit 3 werter. Der Fahrzeugbewegungserfassungssensor 11 erfasst eine Geschwindigkeit des Fahrzeugs (Fahrzeug Schnelligkeit), eine Längsbeschleunigung (Front-Heck direktionale Beschleunigung), eine Querbeschleunigung (links-rechts direktionale Beschleunigung), eine Gierrate, den Lenkwinkel, ein Lenkmoment und ähnliches. Die elektronische Steuer-/Regeleinheit 10 steuert/regelt die Fahrumgebungserfassungsvorrichtung 1, die elektrische Lenkeinheit 2 und die elektro-hydraulische Bremseinheit 3 auf Basis jeweiliger Erfassungswerte des Fahrzeugbewegungserfassungssensors 11. In einem Fall, indem das Fahrzeug zum Abweichen von einer Fahrspur (einer Fahrbahnbegrenzungslinie) tendiert, was aus dem von der Fahrumgebungserfassungsvorrichtung 1 aufgenommenen Bildern erkannt wird, steuert/regelt die elektronische Steuer-/Regeleinheit 10 die elektrische Lenkeinheit 2 und/oder die elektro-hydraulische Bremseinheit 3 als eine Fahrbahnabweichungsverhinderungs-Steuer/Regelung (oder eine Fahrbahnabweichungsunterdrückungs-Steuer/Regelung). Dadurch wird ein Giermoment und/oder eine Verzögerung auf das Fahrzeug angewendet, so dass das Fahrzeug daran gehindert wird die Fahrbahn zu verlassen. Die elektrohydraulische Bremseinheit 3 wendet ein gleiches Maß an Bremskraft auf das linke Vorderrad 6 sowie das rechte Vorderrad 7 an und wendet auch ein gleiches Maß an Bremskraft für das rechte Hinterrad 8 und das linke Hinterrad 9 an, wenn die elektro-hydraulische Bremseinheit 3 von der Bremsbeeinflussungskraft des Fahrers betrieben wird. Auf der anderen Seite kann die elektro-hydraulische Bremseinheit 3, zum Zeitpunkt der Fahrbahnabweichungsverhinderungs-Steuer-/Regelung, unterschiedliche Maße an Bremskraft auf das jeweilige linke und rechte Vorderrad 6 und 7 anwenden und kann auch ein unterschiedliches Maß an Bremskraft auf das jeweilige rechte und linke Hinterrad 8 und 9 anwenden, wenn die elektro-hydraulische Bremseinheit 3 von der Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit betrieben wird. Das heißt die elektro-hydraulische Bremseinheit 3 kann die Bremskräfte der Vorderräder 6 und 7 dazu veranlassen unterschiedlich von einander zu werden und kann auch die Bremskräfte der Hinterräder 8 und 9 dazu veranlassen unterschiedlich von einander zu werden. Somit kann unter der Fahrbahnabweichungsverhinderungs-Steuer/Regelung ein Giermoment auf das Fahrzeug erzeugt werden. Des weiteren führt die elektrische Steuereinheit 2, falls die elektrische Steuereinheit 2 sowohl einen Befehl stammend von der Beeinflussung durch den Fahrer als auch einen Befehl stammend von der Fahrbahnabweichungsverhinderungs-Steuer/Regelung erhält, die Steuerung der linken und rechten Vorderräder 6 und 7 in Übereinstimmung mit einer Summe aus dem Befehl stammend von der Beeinflussung durch den Fahrer und dem Befehl stammend von der Fahrbahnabweichungsverhinderungs-Steuer/Regelung aus.
  • (System der Fahrbahnabweichungsverhinderungs-Steuer/Regelung)
  • 2 ist ein Steuer-/Regelblockdiagramm der elektronischen Steuer-/Regeleinheit 10 gemäß dem ersten Ausführungsbeispiel. Die elektronische Steuer-/Regeleinheit 10 umfasst einen Abweichungstendenz-Berechnungsabschnitt 20 und eine Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit (Fahrbahnabweichungsunterdrückungs-Steuer-/Regeleinheit) 21. Der Abweichungstendenz-Berechnungsabschnitt 20 berechnet eine Tendenz der Abweichung (Deviation) von einer Fahrspur des Fahrzeugs. Wenn der Abweichungstendenz-Berechnungsabschnitt 20 eine Abweichungstendenz von der Fahrspur des Fahrzeugs entdeckt, steuert die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 die elektrische Lenkeinheit 2 und/oder die elektro-hydraulische Bremseinheit 3 um ein Giermoment auf und/oder ein Verzögerung auf das Fahrzeug anzuwenden, so dass die Tendenz des Fahrzeugs von der Fahrbahn abzuweichen unterdrückt wird. Es wird darauf hingewiesen, dass die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 einer Fahrzeugzustandunterdrückungs-Steuer-/Regeleinheit gemäß der vorliegenden Erfindung entspricht, welche eine Fahrzeugzustandunterdrückungs-Steuer-/Regelung ausführt um einen Fahrzustand des Fahrzeugs auf Basis einer Beziehung zwischen dem Fahrzeug und der Fahrbahnbegrenzungslinie zu unterdrücken. Abweichungstendenz-Berechnungsabschnitt 20 umfasst einen Fahrbahngrenze-Erfassungsabschnitt 22, einen aktuelle-Fahrzeugpositions-Erfassungsabschnitt (Fahrzeugendbereich-Erfassungsabschnitt) 23, einen erwartete-Fahrzeugpositions-Erfassungsabschnitt 24, einen imaginäre Fahrbahngrenze-Berechnungsabschnitt 25 und einen Handlungsbedarf-Entscheidungsabschnitt 26. Der Fahrbahngrenze-Erfassungsabschnitt 22 erfasst Fahrbahnbegrenzungsilnien, auf der linken und rechten Seite der Fahrbahn, auf welcher das Fahrzeug fährt, vom Bild des Frontbereichs (vor dem Fahrzeug) des Fahrzeugs, das von der Fahrumgebungserfassungsvorrichtung 1 aufgenommen wird. Die Fahrbahnbegrenzungslinien sind zum Beispiel weiße Linien, Geländer (Leitplanken) oder Bordsteine. Der aktuelle-Fahrzeugpositions-Erfassungsabschnitt 23 erfasst aktuelle Positionen von zwei vorbestimmten Punkten des Fahrzeugs. Diese zwei vorbestimmte Punkte des Fahrzeugs sind vorbestimmte Punkte, die sich innerhalb des Fahrzeugs oder in der Nähe des Fahrzeugs befinden. Die beiden vorbestimmte Punkte des Fahrzeugs sind jeweils für die linke und rechte Fahrbahnbegrenzungslinie vorgesehen. (Die beiden vorbestimmten Punkte des Fahrzeugs sind zum Vergleich jeweils mit der linken und rechten Fahrbahnbegrenzungslinie vorgesehen). Zum Beispiel sind diese vorbestimmten Punkte rechte und linke Endabschnitte des Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs. Der erwartete-Fahrzeugpositions-Erfassungsabschnitt 24 erfasst zwei vorhergesagte Positionen der beiden vorbestimmten Punkte des Fahrzeugs. Diese vorhergesagten Positionen sind Positionen, die von der aktuellen Position der beiden vorbestimmten Punkte um einen vorbestimmten Wert fortgeführt (nach vorne verschoben) sind. Genau gesagt ist jede dieser vorhergesagten Positionen eine Position an welcher der vorbestimmte Punkt von der aktuellen Position aus ankommt, wenn ein vorher festgelegtes Zeitintervall gerade abgelaufen ist. Das heißt es wird vorhergesagt, dass der vorbestimmte Punkt des Fahrzeugs diese vorhergesagte Position erreicht, wenn, ausgehend von einem aktuellen Zeitpunkt, das vorbestimmte Zeitintervall gerade abgelaufen ist. Dieses vorbestimmte Zeitintervall kann mit zunehmender Geschwindigkeit des Fahrzeugs kürzer eingestellt werden. Auch die vorhergesagten Positionen der beiden vorbestimmten Punkte des Fahrzeugs sind jeweils für die linke und rechte Fahrbahnbegrenzungslinie vorgesehen (bzw. für den Vergleich mit der jeweiligen linken und rechten Fahrbahnbegrenzungslinie vorgesehen), d. h., sie sind an der linken und rechten Seite entsprechend der aktuellen linken und rechten Position der beiden vorbestimmten Punkte gesetzt.
  • Der imaginäre Fahrbahngrenze-Berechnungsabschnitt 25 berechnet eine imaginäre Fahrbahnbegrenzungslinie. Die imaginäre Fahrbahnbegrenzungslinie ist im Wesentlichen eine Tangente an einen willkürlichen Punkt, der an der Fahrbahnbegrenzungslinie nahe der vorhergesagten Position (des vorbestimmten Punkts) des Fahrzeugs liegt. Die imaginäre Fahrbahnbegrenzungslinie wird für jede der linken und rechten aktuellen Positionen (der beiden vorbestimmten Punkte) des Fahrzeugs berechnet. Das heißt die imaginäre Fahrbahnbegrenzungslinie, welche auf die linke Fahrbahnbegrenzungslinie gesetzt ist, befindet sich nahe der linken vorhergesagten Position (des linken vorbestimmten Punktes) des Fahrzeugs, auf der anderen Seite, befindet sich die imaginäre Fahrbahnbegrenzungslinie, welche auf die rechte Fahrbahnbegrenzungslinie gesetzt ist, nahe der rechten vorhergesagten Position (des rechten vorbestimmten Punktes) des Fahrzeugs.
  • Der Handlungsbedarf-Entscheidungsabschnitt 26, entschiedet ob die Fahrbahnabweichungsverhinderungs-Steuer-/Regelung aktiviert werden soll oder nicht, d. h., ob ein Eingriff der Fahrbahnabweichungsverhinderungs-Steuer-/Regelung auf Basis einer Beziehung zwischen der aktuellen Position des Fahrzeugs, der vorhergesagten Position des Fahrzeugs und der Imaginären Fahrbahnbegrenzungslinie ausgeführt werden soll oder nicht. Der Handlungsbedarf-Entscheidungsabschnitt 26 umfasst einen Zeichenentscheidungsabschnitt 26a. Der Zeichenentscheidungsabschnitt 26a berechnet eine erste Linie und eine zweite Linie, und entscheidet über von den direktionalen Eigenschaften dieser ersten und zweiten Linie mit Bezug auf die imaginäre Fahrbahnbegrenzungslinie erfasste Zeichen. Genauer gesagt ist die erste Linie eine Gerade, die die imaginäre Fahrbahnbegrenzungslinie und die aktuelle Position (des vorbestimmten Punkts) des Fahrzeugs verbindet. Die erste Linie ist senkrecht zur imaginären Fahrbahnbegrenzungslinie und läuft durch die aktuelle Position (des vorbestimmten Punkts) des Fahrzeugs. Die zweite Linie ist eine Gerade, die die imaginäre Fahrbahnbegrenzungslinie und die aktuelle Position (des vorbestimmten Punkts) des Fahrzeugs verbindet. Die zweite Linie ist senkrecht zur imaginären Fahrbahnbegrenzungslinie und läuft durch die vorhergesagte Position (des vorbestimmten Punkts) des Fahrzeugs. Das von der Fahrumgebungserfassungsvorrichtung 1 aufgenommene Frontbereichbild ist eingeteilt (räumlich differenziert) in einen inneren Bereich der Fahrspur und einen äußeren Bereich der Fahrspur, zwischen welchen sich die imaginäre Fahrbahnbegrenzungslinie befindet. Falls sich die erste und zweite Linie im selben inneren Bereich der Fahrspur oder im selben äußeren Bereich der Fahrspur befinden, ist das zuvor genannte Zeichen der ersten Linie identisch mit dem der zweiten Linie. Auf der anderen Seite, falls sich die erste Linie im innern Bereich der Fahrspur oder im äußeren Bereich der Fahrbereichsspur befindet und sich die zweite Linie im jeweils anderen des inneren Bereichs der Fahrspur oder des äußeren Bereichs der Fahrspur befindet, unterscheidet sich das Zeichen der ersten Linie von dem der zweiten Linie. Der Handlungsbedarf-Entscheidungsabschnitt 26 bestimmt, dass die Fahrbahnabweichungsverhinderungs-Steuer/Regelung nicht notwendig ist, falls der Zeichenentscheidungsabschnitt 26a bestimmt, dass die Zeichen der ersten und zweiten Linie identisch zu einander sind, wenn das Fahrzeug in einem Bereich zwischen der linken und rechten imaginären Fahrbahnbegrenzungslinie fährt (d. h. in einer imaginären Fahrbahn definiert durch die linke und rechte imaginären Fahrbahnbegrenzungslinien). Auf der anderen Seite bestimmt der Handlungsbedarf-Entscheidungsabschnitt 26, dass die Fahrbahnabweichungsverhinderungs-Steuer/Regelung notwendig ist, falls der Zeichenentscheidungsabschnitt 26a bestimmt, dass sich die Zeichen der ersten und zweiten Linie von einander unterscheiden, wenn das Fahrzeug in einem Bereich definiert zwischen der linken und rechten imaginären Fahrbahnbegrenzungslinie fährt. Das heißt es ist bestimmt, dass die Fahrbahnabweichungsverhinderungs-Steuer/Regelung notwendig ist, wenn sich die vorhergesagte Position (des vorbestimmten Punkts) des Fahrzeugs außerhalb der imaginären Fahrbahnbegrenzungslinie befindet (d. h. außerhalb der imaginären Fahrbahn), obwohl sich die aktuelle Position (des vorbestimmten Punkts) des Fahrzeugs innerhalb der imaginären Fahrbahnbegrenzungslinie (d. h. innerhalb der imaginären Fahrbahn) befindet. Zu den Zeitpunkten der anderen Fälle ist bestimmt, dass die Fahrbahnabweichungsverhinderungs-Steuer/Regelung nicht notwendig ist.
  • Die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 führt die Fahrbahnabweichungsverhinderungs-Steuer-/Regelung aus, wenn der Handlungsbedarf-Entscheidungsabschnitt 26 bestimmt hat, dass die Fahrbahnabweichungsverhinderungs-Steuer-/Regelung notwendig ist. Auf der anderen Seite, führt die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 die Fahrbahnabweichungsverhinderungs-Steuer-/Regelung nicht aus, wenn der Handlungsbedarf-Entscheidungsabschnitt 26 bestimmt hat, dass die Fahrbahnabweichungsverhinderungs-Steuer-/Regelung nicht notwendig ist.
  • [Fahrbahnabweichungsverhinderungs-Steuer-/Regelung]
  • 3 ist ein Flussdiagramm, das den Ablauf der Fahrbahnabweichungsverhinderungs-Steuer/Regelung, welche in der elektronischen Steuer-/Regeleinheit 10 ausgeführt wird, gemäß dem ersten Ausführungsbeispiel zeigt. Einschlägige Schritte des Flussdiagramms werden nun erklärt. Diese Verarbeitung wird wiederholt, zum Beispiel mit einer Berechnungsperiode von 10 ms (Millisekunden) während der Fahrt des Fahrzeugs.
  • Bei Schritt S1, liest die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 die Erfassungswerte, die vom Fahrzeugbewegungserfassungssensor 11 empfangen worden sind, wie zum Beispiel die Fahrzeuggeschwindigkeit, die Längsbeschleunigung, die Querbeschleunigung, die Gierrate, den Lenkwinkel und das Lenkmoment.
  • Bei Schritt S2, erfasst der Fahrbahngrenze-Erfassungsabschnitt 22 die Position der (wirklichen) Fahrbahnbegrenzungslinie vom Frontbereichbild des Fahrzeugs, das von der Fahrumgebungserfassungsvorrichtung 1 erhalten wurde. Die Position der (wirklichen) Fahrbahnbegrenzungslinie wird in fixen Koordinaten des Fahrzeugs berechnet und dargestellt. Außerdem werden unten genannte zahlreiche Positionen grundsätzlich in den fixen Koordinaten des Fahrzeugs berechnet und dargestellt. Zum Beispiel, wie in 4 gezeigt, haben die fixen Koordinaten einen Ursprung O, eine X-Achse und eine Y-Achse. Der Ursprung O ist eine Anbringungsposition der Fahrumgebungserfassungsvorrichtung 1 im Fahrzeug 31. Eine Fahrtrichtung (Bewegungsrichtung) des Fahrzeugs ist als die X-Achse definiert. Eine Richtung senkrecht zur X-Achse, namentlich eine Fahrzeugbreitenrichtung ist definiert als die Y-Achse. Die linke und rechte Fahrbahnbegrenzungslinie 32 und 33 befinden sich jeweils auf der linken und rechten Seite der Fahrbahn. In diesem Ausführungsbeispiel kann die Fahrbahnbegrenzungslinie durch einige repräsentative Punkte 34, 35, 36, 37, 38 und 39 unter Berücksichtigung der Berechnungslast erfasst werden, wie in 4 gezeigt.
  • Bei Schritt S3 sieht der aktuelle-Fahrzeugpositions-Erfassungsabschnitt 23 zwei willkürliche Punkte innerhalb oder nahe des Fahrzeugs als Position des Fahrzeugs an. Die beiden Punkte die als die Position des Fahrzeugs angesehen werden sind der linken und rechten Fahrbahnbegrenzungslinie entsprechend gesetzt, weil diese zwei Punkte, wie unten aufgeführt, verglichen werden mit den Positionen der linken und rechten Fahrbahnbegrenzungslinien. Zum Beispiel können die zwei Punkte ein linkes vorderes Ende und ein rechtes vorderes Ende des Fahrzeugs sein. Dabei berechnet der aktuelle-Fahrzeugpositions-Erfassungsabschnitt 23 aktuelle Positionen der zwei Punkte (aktuelle Position des Fahrzeugs). Dann berechnet der erwartete-Fahrzeugpositions-Erfassungsabschnitt 24 eine Position (von jedem der zwei Punkte) des Fahrzeugs als eine vorhergesagte Position des Fahrzeugs, welche erlangt wird, wenn von der aktuellen Position des Fahrzeugs ausgehend ein vorher festgelegtes Zeitintervall gerade abgelaufen ist. Zu diesem Zeitpunkt berechnet der erwartete-Fahrzeugpositions-Erfassungsabschnitt 24 die vorhergesagte Position (von jedem der zwei Punkte) des Fahrzeugs aus den bei Schritt S1 erfassten Werten und zuvor gespeicherten Fahrzeugspezifikationen. Das heißt die vorhergesagte Position des Fahrzeugs wird berechnet auf Basis der Geschwindigkeit des Fahrzeugs, dem Lenkwinkel, der Gierrate, der Fahrzeugbreite, der Länge des Fahrzeugs, der Anbringungsposition der Kameras und ähnlichem. Daher sind die zwei aktuellen Positionen und die zwei vorhergesagten Positionen der zwei Punkte des Fahrzeugs entsprechend zur linken und rechten Fahrbahnbegrenzungslinie gesetzt, um diese zwei aktuellen Positionen und diese zwei vorhergesagten Positionen mit den Positionen der linken und rechten Fahrbahnbegrenzungslinien zu vergleichen.
  • Bei Schritt S4, berechnet der imaginäre Fahrbahngrenze-Berechnungsabschnitt 25 eine imaginäre Fahrbahnbegrenzungslinie. Die imaginäre Fahrbahnbegrenzungslinie ist eine Tangente an die Fahrbahnbegrenzungslinie, welche nahe der vorhergesagten Position (von jedem der zwei Punkte) des Fahrzeugs gezeichnet wird. Zum Beispiel, wie in 5A5C gezeigt wird, kann jede der imaginären Fahrbahnbegrenzungslinien 42 eine Tangente an einem Punkt der Fahrbahnbegrenzungslinie sein, der am nächsten an der vorhergesagten Position 41 des Fahrzeugs ist. Diese vorhergesagte Pasition 41 ist eine Position, welche das Fahrzeug erreichen wird, wenn ausgehend von der aktuellen Position 40 des Fahrzeugs ein vorher festgelegtes Zeitintervall gerade abgelaufen ist. Im Fall von 5A hat das Fahrzeug 31 eine Tendenz zum Abweichen (Abkommen) von der linken Fahrbahnbegrenzungslinie 32 eines geraden Wegs. Im Fall der 5B hat das Fahrzeug 31 eine Tendenz zum Abweichen (Abkommen) von der linken Fahrbahnbegrenzungslinie 32, positioniert an einer radial äußeren Seite eines kurvenförmigen Weges (bezüglich des Krümmungsmittelpunktes des kurvenförmigen Weges). Im Fall des 5C hat das Fahrzeug 31 eine Tendenz zum Abweichen von der rechten Fahrbahnbegrenzungslinie 33, positioniert auf einer radial inneren Seite eines kurvenförmigen Weges. Alternativ, im dem Fall, dass die Fahrbahnbegrenzungslinie durch mehrere repräsentative Punkte repräsentiert wird um die Berechnungslast zu mindern, werden die zwei repräsentativen Punkte, die am nächsten zur vorhergesagten Position 41 des Fahrzeugs liegen, ausgewählt. Dann wird eine durch diese zwei ausgewählten Punkte laufende Gerade als die imaginäre Fahrbahnbegrenzungslinie angesehen, wie in 6A6C gezeigt wird. Im Fall von 6A ist die imaginäre Fahrbahnbegrenzungslinie eine Gerade, die zwei repräsentative Punkte 44 und 45 beinhaltet (durch diese läuft). Im Fall der 6B ist die imaginäre Fahrbahnbegrenzungslinie eine Gerade, die zwei repräsentative Punkte 47 und 48 enthält. Im Fall der 6C, ist die imaginäre Fahrbahnbegrenzungslinie eine Gerade, die zwei repräsentative Punkte 50 und 51 enthält. Eine Distanz zwischen der vorhergesagten Position 41 des Fahrzeugs und der imaginären Fahrbahnbegrenzungslinie 42 ist definiert als eine Abweichungshöhe (Abkommhöhe) d.
  • Des Weiteren, wie in 7A7C gezeigt kann die imaginäre Fahrbahnbegrenzungslinie 42 als eine Tangente an einem Schnittpunkt 53, positioniert auf der Fahrbahnbegrenzungslinie 32 (oder 33), gesetzt werden. Dieser Schnittpunkt 53 ist der Schnittpunkt der Fahrbahnbegrenzungslinie 32 (oder 33) und einer Geraden 52, welche durch die vorhergesagte Position 41 des Fahrzeugs läuft und welche im rechten Winkel zur Fahrtrichtung des Fahrzeugs steht. Alternativ, in dem Fall, in dem die Fahrbahnbegrenzungslinie von mehreren repräsentativen Punkten repräsentiert wird, um wie oben genannt die Berechnungslast zu mindern, werden die zwei bezüglich ihrer Distanz am nächsten zur Geraden 52 befindlichen reprasentativen Punkte aus der Mehrzahl an repräsentativen Punkten ausgewählt. Die Gerade 52 läuft durch die vorhergesagte Position 41 des Fahrzeugs und steht im rechten Winkel zur Fahrtrichtung des Fahrzeugs auf die gleiche Art, wie im Fall der 7A7C. Dann wird eine durch die zwei ausgewählten repräsentativen Punkte laufende Gerade als die imaginäre Fahrbahnbegrenzungslinie 42 angesehen, wie in 8A8C gezeigt. Im Fall von 8A ist die imaginäre Fahrbahnbegrenzungslinie eine Gerade, die zwei repräsentativen Punkte 44 und 45 beinhaltet (durch diese läuft). Im Fall von 8B ist die imaginäre Fahrbahnbegrenzungslinie 42 eine Gerade, die zwei reprasentativen Punkte 47 und 48 beinhaltet. Im Fall der 8C ist die imaginäre Fahrbahnbegrenzungslinie 42 eine Gerade, die zwei repräsentativen Punkte 50 und 51 beinhaltet. In solchen Fällen, wie gezeigt in 8A8C, ist eine Distanz zwischen der vorhergesagten Position 41 des Fahrzeugs und dem Schnittpunkt 53, gebildet aus der imaginären Fahrbahnbegrenzungslinie 42 und der Geraden 52, als Abweichungshöhe d definiert.
  • Da die imaginäre Fahrbahnbegrenzungslinie 42 wie oben genannt gesetzt wird, ist die Fahrbahnbegrenzungslinie identisch mit (ist gleich mit) der imaginären Fahrbahnbegrenzungslinie im Fall eines geraden Weges. Auf der anderen Seite, im Fall einer radialen äußeren Seite des kurvenförmigen Weges bezüglich des Krümmungsmittelpunkts des kurvenförmigen Weges wird die imaginäre Fahrbahnbegrenzungslinie so berechnet, dass sie sich in einem radial äußeren Bereich jenseits der Fahrbahnbegrenzungslinie befindet. Das heißt in diesem Fall befindet sich die imaginäre Fahrbahnbegrenzungslinie außerhalb der Fahrbahnbegrenzungslinie (d. h. als befinde sie sich nicht in der durch die Fahrbahnbegrenzungslinie definierten Fahrbahn). Dennoch, im Falle einer radial inneren Seite des kurvenförmigen Weges bezüglich des Krümmungsmittelpunktes des kurvenförmigen Weges wird die imaginäre Fahrbahnbegrenzungslinie so berechnet, dass sie sich in einem radial äußeren Bereich jenseits der Fahrbahnbegrenzungslinie befindet. Das heißt in diesem Fall befindet sich die imaginäre Fahrbahnbegrenzungslinie innerhalb der durch die Fahrbahnbegrenzungslinie definierten Fahrbahn. In diesem Ausführungsbeispiel, kann die berechnete imaginäre Fahrbahnbegrenzungslinie rotiert, etwas beabstanded oder verschoben werden, d. h. sie kann angepasst werden.
  • Bei Schritt S5 entscheidet der Handlungsbedarf-Entscheidungsabschnitt 26 ob sich die vorhergesagte Position (jeder der beiden Punkte) außerhalb der in Schritt S4 berechneten imaginären Fahrbahnbegrenzungslinie (außerhalb der imaginären Fahrbahn) befindet oder nicht, d. h. ob sich die vorhergesagte Position des Fahrzeugs in dem durch die imaginäre Fahrbahnbegrenzungslinie gebildeten Fahrspuraußenbereich befindet oder nicht. Falls sich die vorhergesagte Position der Fahrzeugs außerhalb der imaginären Fahrbahnbegrenzungslinie befindet, d. h sich im Fahrspuraußenbereich, der durch die imaginäre Fahrbahnbegrenzungslinie definiert ist, befindet, fährt das Programm mit Schritt S6 fort. Falls sich die vorhergesagte Position des Fahrzeugs innerhalb der imaginären Fahrbahnbegrenzungslinie (innerhalb der imaginären Fahrbahn) befindet, d. h. sich im Fahrspurinnenbereich, der durch die imaginäre Fahrbahnbegrenzungslinie definiert ist, befindet, wird das Programm zurückgesetzt.
  • Bei Schritt S6 entschiedet der Handlungsbedarf-Entscheidungsabschnitt 26 ob sich die aktuelle Position (jeder der zwei Punkte) des Fahrzeugs innerhalb der imaginären Fahrbahnbegrenzungslinie befindet (innerhalb der imaginären Fahrbahn) oder nicht, d. h. ob sich die aktuelle Position des Fahrzeugs in der durch die imaginäre Fahrbahnbegrenzungslinie definierten Fahrspurinnenbereich befindet oder nicht. Falls sich die aktuelle Position des Fahrzeugs innerhalb der imaginären Fahrbahnbegrenzungslinie (innerhalb der imaginären Fahrbahn) befindet, fährt das Programm mit Schritt S7 fort. Falls sich die aktuelle Position des Fahrzeugs außerhalb der imaginären Fahrbahnbegrenzungslinie befindet (außerhalb der imaginären Fahrbahn) wird das Programm zurückgesetzt.
  • Bei Schritt S7 berechnet die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 eine Betätigungshöhe (beeinflusste Variabel) M durch Multiplikation eines Verstärkungsfaktors K mit der in Schritt S4 berechneten Abweichungshöhe d, wie in der folgenden Formel (1) gezeigt. M = K×d (1)
  • Die Fahrbahnabweichungsverhinderungs-Steuer-/Regeleinheit 21 betätigt die elektrische Lenkeinheit 2 und/oder die elektro-hydraulische Bremseinheit 3 auf Basis der Betätigungshöhe M. Dadurch wird zur Ausführung der Fahrbahnabweichungsverhinderungs-Steuer/Regelung das Giermoment und/oder die Verzögerung auf das Fahrzeug angewendet.
  • (Fahrumgebungserfassungsvorrichtung)
  • Als nächstes wird die Fahrumgebungserfassungsvorrichtung im Folgenden erklärt. 9 ist ein Blockdiagramm, das eine Konfiguration einer Fahrumgebungserfassungsvorrichtung 1 gemäß dem ersten Ausführungsbeispiel zeigt. Die Fahrumgebungserfassungsvorrichtung 1 umfasst eine Stereokamera gebildet aus einem Kamerapaar (ein Kameralinsenpaar) 310a und 310b (im Folgenden auch als Kamera 310 bezeichnet) als ein Bilderzeugungsmittel. Die Stereokamera kann aus drei oder mehreren Kameras gebildet werden. Durch den Einsatz dieser Kameras 310a und 310b erfasst die Fahrumgebungserfassungsvorrichtung 1 eine Umgebung um das Fahrzeug mit der Fahrumgebungserfassungsvorrichtung 1 herum. Im Fall des ersten Ausführungsbeispiels ist das Kamerapaar 310a und 310b an Positionen angebracht, die mit der selben Distanz in linker und rechter Fahrzeugbreitenrichtung von der Mitte des Fahrzeugs entfernt sind. Das heißt die Kamera 310a hat eine Distanz gleich der der Kamera 310b von der Mitte des Fahrzeugs bezüglich der Fahrzeugbreitenrichtung. In diesem Beispiel führt die Fahrumgebungserfassungsvorrichtung 1 eine Verarbeitung für die von diesen Kameras aufgenommenen Bilder aus. Jedoch, gemäß dem ersten Ausführungsbeispiel, kann die Bildverarbeitung und dergleichen durch die anderen Steuer-/Regeleinheiten ausgeführt werden. Es wird darauf hingewiesen, dass das Kamerapaar 310a und 310b einem Informationserfassungsabschnitt gemäß der vorliegende Erfindung entspricht.
  • Die Fahrumgebungserfassungsvorrichtung 1 berechnet eine Distanz zu jedem Objekt des Bildes mittels dem Prinzip der Triangulation, d. h. mittels der Nutzung einer Disparität (Unterschied) zwischen den Blickwinkeln, die entsteht, wenn die Bilder von der Mehrzahl an Kameras 310a und 310b aufgenommen werden (im Folgenden als Parallaxe bezeichnet). Zum Beispiel ist eine folgende Beziehung erfüllt. Z = (B×f)/δ
  • Wobei Z eine Distanz zum Objekt bezeichnet, B eine Distanz zwischen dem Kamerapaar 310a und 310b bezeichnet, f eine Brennweite von jeder der Kameras 310a, 310b bezeichnet und δ die Parallaxe bezeichnet.
  • Die Fahrumgebungserfassungsvorrichtung 1 umfasst einen RAM 320, einen CPU 330, einen Daten-ROM 340 und einen Programm-ROM 350. Der RAM 320 speichert die von den Kameras 310 aufgenommenen Bilder. Der CPU 330 führt die arithmetische Verarbeitung aus. Der Daten-ROM 340 speichert diverse Daten. Der Programm-ROM 350 speichert Programme der Erfassungsverarbeitung. Die Kameras 310 sind an einem im Inneren des Fahrzeugs montierten Rückspiegel befestigt. Jede dieser Kameras 310 nimmt (fängt ein) ein Bild der vor dem Fahrzeug liegenden Umwelt aus einem vorbestimmten Abneigungswinkel vom vorbestimmten Anbringungsort dieser Kamera 310 aus auf. Das von der Kamera 310 aufgenommene Fahrzeug-Frontbereichbild wird in den RAM 320 eingelesen. Dann werden eine Fahrbahn(en) und ein dreidimensionales Objekt(e), welche sich vor dem Fahrzeug befindenden, aus den Fahrzeug-Frontbereichbildern erfasst, und eine Straßenform wird aus den Fahrzeug-Frontbereichbildern abgeschätzt. Es wird darauf hingewiesen, dass die Fahrumgebungserfassungsvorrichtung 1 dem Straßenoberflächenberechnungsabschnitt gemäß der vorliegenden Erfindung entspricht.
  • 10 ist ein Flussdiagramm, das eine, von der Fahrumgebungserfassungsvorrichtung gemäß dem ersten Ausführungsbeispiel ausgeführte, Bildverarbeitung zeigt. Bei Schritt S201 wird das Bild der auf der linken Seite angeordneten Kamera 310a eingelesen (in den RAM 320), Bei Schritt S202 wird das Bild der auf der rechten Seite angeordneten Kamera 310b eingelesen. Bei Schritt S203 wird ein entsprechender Punkt(e) der Bildes berechnet. Bei Schritt S204 wird die Distanz zum entsprechenden Punkt berechnet. Bei Schritt S205, wird eine Information über die Distanz ausgegeben. Bei Schritt S206 wird entschieden ob ein Bildeinlesesignal vorhanden ist oder nicht vorhanden ist. Falls das Bildeinlesesignal vorhanden ist, kehrt das Programm zu Schritt S201 zurück, so dass der Ablauf von 10 wiederholt wird. Falls das Bildeinlesesignal nicht vorhanden ist, wird die arithmetische Verarbeitung beendet, so dass das Programm in den Ruhezustand übergeht und so verweilt, bis ein Bildeinlesesignal erscheint,
  • (Erfassungsverarbeitung auf Straßen mit steilen Böschungen)
  • Eine Bildverarbeitung wird im Folgenden erklärt für einem Fall, dass ein außerhalb der Straße liegender Bereich (z. B. beide seitlichen Seiten außerhalb der Straße auf welcher das Fahrzeug fährt) niedriger liegt als die Straßenoberfläche. 11 ist eine schematische Ansicht einer mit steilen Böschungen konstruierten erhöhten Straße (aufgeschütteten Straße). Diese erhöhte Straße hat im Wesentlichen eine Trapezform im Querschnitt, gesehen in einer Ebene rechtwinklig zu einer Ausbreitungsrichtung der erhöhten Straße. Die Straßenoberfläche ist an einem oberen Basisabschnitt (oberen Kanten-Abschnitt) dieser Trapezform gebildet. Der Böschungsbereich ist an einem Bereich zwischen der Straßenoberfläche (d. h. dem Straßeninnenbereich) und dem äußeren Bereich der Straße geformt. Beide äußeren Bereiche der Straße (beide Seiten seitlich außerhalb der Straße) sind niedriger als der Straßeninnenbereich und der Böschungsbereich. Im Folgenden wird die Straße auch Straßenoberfläche genannt. 12 ist ein erhaltenes Bild, das eine schematische Abbildung zeigt, die erhalten wird, wenn die, durch steile Böschungsbereiche konstruierte erhöhte Straße vom Fahrzeug aus fotografiert wird. In diesem Bild stoßen beide Enden der Straße (sind anliegend) an die Straßenaußenbereiche (d. h. die niedriger als die Straßenoberfläche liegenden Niedrigbereiche). Im Fall dieser Straße ist ein Winkel der Böschung größer als der Abneigungswinkel der Kamera 310, weil die Böschung eine steile Neigung hat. Daher werden Blindpunkte (d. h. Punkte die wegen eines toten Winkels nicht fotografiert werden) im Böschungsbereich erzeugt. Somit sind die Böschungsbereiche nicht auf den aufgenommenen Bildern vorhanden. Daher ist in dem aufgenommenen Bild jedes Straßenende in Kontakt mit dem Straßenaußenbereich (dem niedrigeren Bereich). Demgemäß werden in diesem Fall der Straßeninnenbereich und der Bereich, der die anderen niedrigeren Anteile repräsentiert in dem Bild erfasst. Daher wird ein Straßenseitenpunkt eines Grenzbereiches zwischen dem Straßeninnenbereich und dem Bereich, der die anderen niedrigeren Anteile auf dem Bild repräsentiert als ein wirkliches Straßenende (eines der beiden wirklichen Enden der Straße) extrahiert. Dadurch kann die Erfassungsverarbeitung in Übereinstimmung mit der wirklichen Straßenumgebung erreicht werden.
  • (Genauigkeitsverbesserung der Bildverarbeitung)
  • In einem Fall, in dem der Straßeninnenbereich oder der Straßenaußenbereich visuell völlig homogen sind, ist es schwierig Bildorte zu extrahieren, die zu einem identischen Bereich der von den beiden Kameras aufgenommenen jeweiligen Bildern gehören. 13 ist eine schematische Ansicht, die charakteristische Punkte zeigt, welche gleichzeitig aufgenommen werden wenn eine wirkliche Straße fotografiert wird. Wie in 13 gezeigt, umfasst die wirkliche Straße eine Körnung des für den Straßenbelag verwendeten Asphaltbetons, eine Straßenmarkierung, eine Fuge im Straßenbelag, Risse im Straßenbelag, von Fahrzeugen verursachte Reifenspuren und der gleichen mehr als visuell charakteristische Anteile überall auf/in der Straße im Fall der asphaltierten Straße. Sogar im Fall nicht asphaltierter Straßen umfasst die wirkliche Straße visuell charakteristische Anteile wie Spurrillen überall in der wirklichen Straße. Es wird darauf hingewiesen, dass der Straßeninnenbereich einer ersten Region mit einem ersten visuell-charakteristischen Punkt gemäß vorliegender Erfindung entspricht. Außerdem gibt es in dem niedriger als die Straße gelegenen Bereich überall im niedrigeren Bereich visuell charakteristische Anteile wie Gras. Es wird darauf hingewiesen, dass der niedriger als die Straße gelegene Bereich einer zweiten Region mit einem zweiten visuell-charakteristischen Punkt gemäß vorliegender Erfindung entspricht. Das heißt, während die Straßenoberfläche asphaltiert wurde oder zur Befahrung für Fahrzeuge abgeflacht wurde, wurde der niedriger als die Straßeoberfläche gelegene Bereich nicht asphaltiert oder abgeflacht. Daher gibt es einen visuellen Unterschied zwischen der Straßenoberfläche und dem niedriger als die Straßenoberfläche gelegenen Bereich, so dass es eine hohe Wahrscheinlichkeit gibt, dass ein Grenzbereich zwischen der Straßenoberfläche und dem niedriger als die Straßenoberfläche gelegenen Bereich visuell charakteristisch wird. Somit besteht eine Vielzahl an visuell-charakteristischen Punkten in der Straße, dem Straßenaußenbereich und dem Grenzbereich zwischen der Straße und dem Straßenaußenbereich. Daher werden die von den zwei Kameras 310 aufgenommenen Bilder mit einander auf jeden charakteristischen Punkt hin verglichen und dadurch eine Richtung und eine Distanz zu jedem charakteristischen Punkt, ausgehend von der Kamera 310, berechnet. Daher kann eine Position von jedem charakteristischen Punkt erlangt werden. Dementsprechend kann eine Ansammlung von sich wirklich auf der Straße befindenden charakteristische Punkten als im Wesentlichen auf der selben Ebene liegend betrachtet werden, und die sich wirklich im niedriger als die Straße gelegenen Bereich befindenden charakteristischen Punkte können als im Straßenaußenbereich befindend betrachtet werden.
  • (Superpositionsverarbeitung)
  • Um die Form der Straßenoberfläche zu erhalten, werden die charakteristischen Anteile wie Straßenmarkierungsfarbe, kleine Risse im Asphalt und Reifenspuren, welche sich auf der Straßenoberfläche befinden, aus den von den Kameras 310 aufgenommen Fahrzeugfrontbereichsbildern extrahiert. Dann wird eine Distanz von jedem der extrahierten charakteristischen Anteil von der Kamera 310 aus gemessen, durch eine Positionsabweichung (Deviation jedes charakteristischen Anteils zwischen den Bildern, die von den zwei Kameras 310 aufgenommen wurden. Jedoch bestehen solche charakteristischen Anteile nicht unbedingt gleichmäßig auf der ganzen Straßenoberfläche. Des Weiteren, selbst falls solche charakteristischen Anteile auf der ganzen Straßenoberfläche bestehen ist es nicht sicher, dass solche charakteristischen Anteile immer erfassbar sind. in gleicher Weise ist es nicht sicher, dass die charakteristischen Anteile im ganzen niedriger als die Straßenoberfläche gelegenen Bereich immer erfassbar sind. Daher ist es notwendig die Genauigkeit weiter zu verbessern. Deshalb werden in diesem Ausführungsbeispiel die erlangten Distanzdaten in dem Daten-ROM 340 gesammelt. Diese gesammelten Distanzdaten werden superpositioniert mit Distanzdaten, die erhaltbar sind durch Bilder, die bei einer Nachfolgeposition (zur nächsten Zeitspanne) oder später aufgenommen werden. Es wird darauf hingewiesen, dass der Daten-ROM 340 einem Distanzdatenansammlungsabschnitt gemäß der vorliegenden Erfindung entspricht. 14 ist eine schematische Ansicht, die eine Superpositionsverarbeitung der Bilddaten (Distanzinformationen) im ersten Ausführungsbeispiel zeigt. Zum Beispiel werden Anteile, die auf Bildern erfasst werden können, die in der vorherigen Position (zum vorhergehenden Zeitpunkt) aufgenommen wurden, auf Anteile, die auf Bildern erfasst werden können in der Jetztposition aufgenommen werden, superpositioniert. Das heißt manche Anteile, deren Distanzinformationen nicht, aus den bei der vorherigen Position aufgenommenen Bildern, erhalten werden konnten können diese Distanzinformationen haben, da diese Distanzinformationen neu erhalten wurden aus den in der Jetztposition aufgenommenen Bilder. Dadurch kann eine Erfassungsgenauigkeit der Straße und der umliegenden Umgebung verbessert werden. Wie in 14 gezeigt, wird selbst falls das Fahrzeug mit der Fahrumgebungserfassungsvorrichtung 1 fährt, eine Vielzahl von den selben Bereich (d. h. überlappende Bereiche) umfassenden Bildern im Laufe der Zeit erhalten, in einem Fall, in dem die Fahrzeuggeschwindigkeit relativ gering ist, d. h. in einem Fall in dem eine Fahrzeugbewegung zwischen zwei Fotografierungszeitpunkten relativ kurz ist. Daher wird eine Information über solch einen überlappenden Bereich superpositioniert unter der Vielzahl an Bildern, die mit der Zeit erlangt werden. In diesem Ausführungsbeispiel ist die Anzahl der Superpositionierungen nicht auf zwei Mal beschränkt. Eine möglichst hohe Anzahl an Superpositionierungen ist effektiv.
  • Falls sich Distanzdaten eines bestimmten Ortes, der im überlappenden Bereich beinhaltet ist und der aus den beim ersten Zeitpunkt aufgenommenen Bildern erlangt wurde, von den Distanzdaten dieses bestimmten Ortes, der erlangt wurden aus den beim zweiten Zeitpunkt aufgenommenen Bildern, unterscheiden, kann den Distanzdaten des jüngeren aus dem ersten und zweiten Zeitpunkt Priorität gegeben werden. Dadurch kann die Erkennungsgenauigkeit verbessert werden, weil neue Daten verwendet werden. Alternativ kann ein Mittelwert aus den zum ersten Zeitpunkt erlangten Daten und den zum zweiten Zeitpunkt erlangten Daten (oder Mittelwert-Daten aus mehreren Zeitpunkten) angewendet werden. Dadurch kann ein in den Daten beinhalteter Störungseinfluss und ähnliches eliminiert werden, so dass eine stabile Erfassung erreicht wird. Des weiteren können alternativ die zum ersten Zeitpunkt erfassten Daten und die zum zweiten Zeitpunk erfassten Daten (oder unter vielen Malen) mit der jeweiligen geringeren Disparität im Vergleich zur Umweltdaten angewendet werden. Dadurch kann die arithmetische Berechnung auf Basis stabiler Daten gemacht werden, so dass die Erfassungsgenauigkeit verbessert ist. Trotzdem zahlreiche Verarbeitungsmethoden, wie oben aufgeführt, genannt werden können, kann jede einzelne oder eine Kombination aus solchen Verarbeitungsmethoden eingesetzt werden.
  • (Erfassungsverarbeitung für das Straßenende)
  • 15 ist eine schematische Ansicht, die ein Resultat zeigt, das erfasst wurde durch die Aufnahme von Bildern der erhöhten Straße bezüglich einer Querschnittsrichtung der Straße. In diesem Fall ist die Böschung steil, so dass es einen toten Winkel (verursacht Blindorte) der Kamera gibt. Daher ist die Böschung im aufgenommen Bild nicht sichtbar. In diesen Bildern (Aufnahmen) ist der Straßenbereich in direktem Kontakt mit dem niedriger als die Straße gelegenen Bereich. Genauer gesagt sind ein Punkt (Ort) 601, der an einem Endteil der Straße positioniert ist, und ein Punkt (Ort) 602, der außerhalb der Straße positioniert ist, auf dem Bild angrenzend (stoßen ungefähr) an einander. Jedoch, in Wirklichkeit ist der Punkt 601, wie in 15 gezeigt, nicht angrenzend (stoßt nicht) an den Punkt 602, sondern ist etwas entfernt von Punkt 602 positioniert. Daher, weil es nicht präzise ist den Punkt 602 als einen Endpunkt der Straße auszugeben, wird der Punkt 601 als der Endpunkt der Straße ausgegeben.
  • In 15 wird folgendes Verfahren durchgeführt, wenn zum Beispiel angenommen wird, dass die dem Punkt 601 entsprechenden Positionsdaten noch nicht erfasst wurden und, dass ein weiter im Inneren der Straße als der Punkt 601 befindender Punkt (Ort) 603 erfasst wurde, als ein äußerster Punkt, der sich auf der Straßenoberfläche befindet. In diesem Fall umfasst das aufgenommene Bild einen nicht-erfassten Bereich zwischen (einem Punkt entsprechend) dem Punkt 602 und (einem Punkt entsprechend) dem Punkt 603. Daher ist ein Ort, an dem das Straßenende zwischen dem Punkt 602 und dem Punkt 603 positioniert ist nicht eindeutig. Weil sich der Punkt 602, der sich in dem niedriger als die Straßenoberfläche gelegenen Bereich befindet, jedoch erfasst wurde, kann eingeschätzt werden, dass die Straße sich nicht auf einer Sichtlinie entlang derer die Kamera 31 auf den Punkt 602 sieht befindet. Daher kann eingeschätzt werden, dass sich ein Straßenende zu mindest zwischen dem Punkt 603 und dem Punkt 601 (welcher in diesem Fall noch nicht entdeckt worden ist, aber erhaltbar ist von der oben genannten Sichtlinie) befindet. Dementsprechend wird in diesem Fall ein Punkt, der zwischen dem Punkt 602 und dem Punkt 603 ist und welcher sich auf einer weiter im Straßeninneren gelegenen Position befindet, als eine Position (nahe dem Punkt 601), die dem Grenzbereich entspricht, als Straßenende ausgegeben.
  • (Erfassungsverarbeitung für das Straßenende im Fall einer mit mäßig abfallender Böschung konstruierten Straße)
  • 16 ist eine schematische Ansicht, die ein mit mäßig abfallender Böschung konstruierte erhöhte Straße (aufgeschüttete Straße) zeigt. Dieses erhöhte Straße im Wesentlichen eine Trapezform im Querschnitt, gesehen in einer Ebene rechtwinklig zu einer Ausbreitungsrichtung der erhöhten Straße. Die Straßenoberfläche ist an einem oberen Basisabschnitt (oberen Kanten-Abschnitt) dieser Trapezform ausgebildet. Der Böschungsbereich ist an einem Bereich zwischen der Straßenoberfläche (d. h. dem Straßeninnenbereich) und dem äußeren Bereich der Straße geformt. Beide äußeren Bereiche der Straße (beide Seiten seitlich außerhalb der Straße) sind niedriger als der Straßeninnenbereich und die Böschungsbereiche. 17 ist ein aufgenommenes Bild, das eine schematische Abbildung zeigt, die erhalten wird, wenn die, durch mäßig abfallende Böschungsbereiche konstruierte, erhöhte Straße vom Fahrzeug aus fotografiert wird. In diesem Bild stoßen beide Enden der Straße (sind anliegend) an die Böschungsbereiche und diese Böschungsbereiche stoßen (sind anliegend) an die Straßenaußenbereiche (d. h. die niedriger als die Straßenoberfläche liegenden Niedrigbereiche). Im Fall dieser Straße ist ein Winkel der Böschung kleiner als der Abneigungswinkel der Kamera 310, weil die Böschung eine mäßige Neigung hat. Daher werden keine Blindanteile (d. h. Bereiche die wegen eines toten Winkels nicht fotografiert werden) erzeugt.
  • 18 ist eine schematische Ansicht, die ein Resultat zeigt, das erfasst wurde durch die Bildaufnahme der erhöhten Straße bezüglich einer Querschnittsrichtung der Straße. In diesem Fall fällt der Böschungsbereich mäßig ab und wird daher von der Kamera fotografiert. Daher ist der Straßenbereich in Kontakt mit dem (angrenzend an den) Böschungsbereich, und der Böschungsbereich ist in Kontakt mit dem (angrenzend an den) Straßenaußenbereich (dem niedrigeren Bereich) auf dem aufgenommenen Bild. Da es wichtig ist das Straßenende zu erfassen, ist es in diesem Ausführungsbeispiel unnötig den Böschungsbereich vom Straßenaußenbereich (dem niedrigeren Bereich) zu unterscheiden. Daher werden alle Bereiche, deren Höhen (Höhenniveaus) sich von einer Höhe (Niveau) der Straßenoberfläche unterscheiden, als Straßenaußenbereich behandelt. Deshalb, wird im Folgenden der Böschungsbereich auch als der Straßenaußenbereich bezeichnet. Daher wird ein Punkt (Ort) 901 als in einem Endteil des Straßenbereichs (Straßeninnenbereichs) liegend erfasst, und ein Punkt (Ort) 902 des Straßenaußenbereichs wird als ein nächster Punkt zur Straße erfasst. Daher kann eingeschätzt werden, dass sich ein wirkliches Straßenende zwischen dem Punkt 901 und dem Punkt 902 befindet.
  • (Genauigkeitsverbesserung der Straßenendenerfassung)
  • Im Fall, dass die Straße mit dem niedriger als die Straßenaberfläche gelegenen Bereich durch einen Böschungsbereich mit mäßiger Steigung verbunden (verknüpft) ist, kann ein Bild dieses Böschungsbereichs von der Kamera aufgenommen werden, so dass eine Distanzinformation des Böschungsbereichs erlangt werden kann. Dadurch kann erfasst werden, dass der Böschungsbereich unpassend für die Befahrung mit einem Fahrzeug ist. Des weiteren kann eine Grenze zwischen dem Böschungsbereich und dem Straßebereich als eine Straßengrenze (d. h. Straßenende) angesehen werden.
  • Selbst falls der niedrigere Bereich nicht erfasst werden kann, zum Beispiel im Fall, dass der niedrigere Bereich deutlich niedriger ist als die Straße (z. B. Straße ist entlang einer Klippe gebaut) oder im Fall, dass der niedrigere Bereich nicht deutlich im Kontrast steht; kann festgestellt werden, dass der niedrigere Bereich nicht die Straße ist (d. h. nicht der Straßeninnenbereich ist).
  • Es gibt die Möglichkeit, dass das erfasste Straßenende einen Erfassungsfehler im Vergleich mit dem wirklichen Straßenende hat. Des weiteren gibt es die Möglichkeit, dass das wirkliche Straßenende eine fragilen Unterbau hat und daher ist es unangemessen, dass das Fahrzeug auf dem Straßenende fährt. Als Gegenmaßnahme kann, zum Beispiel, eine um ein angemessenes Maß weiter innen liegende Position der Straße – im Vergleich zum erfassten Straßenende – als ein modifiziertes Straßenende ausgegeben werden. Es wird darauf hingewiesen, dass die weiter innen liegende Position der Straße – im Vergleich zum erfassten Straßenende – einer zweiten vorbestimmten Position gemäß der vorliegenden Erfindung entspricht. Hingegen, im Fall, dass diese Fahrumgebungserfassungsvorrichtung kombiniert wird mit der Fahrbahnabweichungsverhinderungs-Steuer/Regelung des ersten Ausführungsbeispiels, kann eine um eine angemessenes Maß weiter außen liegende Position der Straße – im Vergleich zum erfassten Straßenende – als modifiziertes Straßenende ausgegeben werden, um eine übermäßige Steuer-/Regelung oder übermäßige Warnungen zu vermeiden.
  • (Gegenmaßnahme zum Zeitpunkt an dem falsche Bilder erzeugt werden)
  • Wenn versucht wird den niedriger als die Straße gelegene Bereich als den Straßenaußenbereich zu extrahieren und zu bestimmen, gibt es eine Möglichkeit, dass aufgrund einer Reflexion durch eine Straßenpfütze ein falsches Bild erfasst wird. In solch einem Fall besteht das Risiko, dass die Straßenpfütze fälschlicherweise als unter der Straßenoberfläche liegend erfasst wird, da das fehlerhafte Bild sich unter der Straßenoberfläche in einer Falschansicht befindet. Deshalb wird die Pfütze in diesem Ausführungsbeispiel von dem Bereich, der wirklich niedriger als die Straßenoberfläche ist, unterschieden und wird nicht als der Bereich, der wirklich niedriger als die Straßenoberfläche ist, festgelegt, unter Verwendung der folgenden Charakteristiken des fehlerhaften Bildes, das auf der Pfütze reflektiert wurde, welche sich von Charakteristiken echter Bilder unterscheiden.
    • (a) Weil das fehlerhafte Bild aus einem wett entfernten Objekt(e) besteht, wird ein Straßenoberflächenanteil des aufgenommen Bildes, welcher als eine kürzere Distanz als eine scheinbare Distanz des fehlerhaften Bildes habend erfasst wird, in einem Frontbereich eines fehlerhaften Bildbereichs des aufgenommen Bildes angesehen.
    • (b) Weil eine Wasseroberfläche einer Pfütze nicht völlig flach ist, gibt es einen Fall, in dem das fehlerhafte Bild stark verzerrt ist, so dass eine Distanzinformation im Pfützenbereich verstreut ist.
    • (c) Wenn die Wasseroberfläche der Pfütze nicht stabil ist, variiert ein scheinbarer Bereich des fehlerhaften Bildes im Zeitverlauf.
    • (d) Objekt(e), die sich scheinbar auf der Straße befinden, befinden sich auch an einem Standort, der sich symmetrisch zu diesem Objekt(en) bezüglich der Straßenoberfläche (Wasseroberfläche) befindet.
    • (e) In einem Fall eines fehlerhaften Bildes eines fahrenden Fahrzeugs, fährt das fahrende Fahrzeug trotzdem das fahrende Fahrzeug als sich unter der Straßenoberfläche befindend angesehen wird. Es gibt eine äußerst geringe Eintrittswahrscheinlichkeit dieses Phänomens im Fall eines echten Bildes.
  • Durch die Erfassung solcher Charakteristika fehlerhafter Bilder kann ein Bereich eines fehlerhaften Bildes bestimmt werden, d. h. kann unterschieden werden von einem Bereich eines echten Bildes.
  • Einige technische Strukturen, die erfassbar sind aus dem obigen ersten Ausführungsbeispiel gemäß der vorliegenden Erfindung werden nun mit ihren vorteilhaften Effekten aufgelistet.
    • [a] Fahrumgebungserfassungsvorrichtung umfassend: einen Informationserfassungsabschnitt (z. B. die Kamera 310) montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Information zumindest über einen Frontbereich des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt (z. B. die Fahrumgebungserfassungsvorrichtung 1, 100) ausgebildet zur Berechnung einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs, aus der mit dem Informationserfassungsabschnitt (z. B. 310) erfassten Information. Gemäß einer solchen Struktur kann eine Position niedriger als die Straßenoberfläche erfasst werden, so dass die Informationen des Frontbereichs in der Fahrtrichtung des Fahrzeugs genau erfasst werden können.
    • [b] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [a], wobei der Informationserfassungsabschnitt (z. B. 310) eine zur Aufnahme eines Bildes des Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs ausgebildete Kamera ist. Gemäß einer solchen Struktur kann eine Fahrumgebung vor dem Fahrzeug als Bild erfasst werden.
    • [c] Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [b], wobei der Informationserfassungsabschnitt (z. B. 310) eine Stereokamera umfassend eine Mehrzahl an Kameras (z. B. 310a, 310b) ist, wobei die Stereokamera ausgebildet ist zum Messen der Distanz mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (z. B. 310a, 310b) verursachten Parallaxe, und sich die Informationen auf Distanzen beziehen. Gemäß einer solchen Struktur kann eine Distanz zu einem vor dem Fahrzeug liegendem Hindernis und ein Zustand der Straßenoberfläche auf Basis der Distanzinformation erhalten werden.
    • [d] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [c], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Erfassung einer ersten Region (Straßeninnenbereich) mit einem ersten visuell charakteristischem Punkt und einer zweiten Region (Straßenaußenbereich) mit einem zweiten visuell charakteristischem Punkt aus der sich auf eine Distanz beziehenden Information, und zur Berechnung der Straßenoberfläche und des niedriger als die Straßenoberfläche liegenden Bereichs, bezogen auf die erfasste jeweilige erste und zweite Region. Gemäß einer solchen Struktur werden die Straßenoberfläche und der niedriger als die Straßenoberfläche gelegene Bereich sowohl wegen des visuell-charakteristischen Punkt als auch wegen der Distanzinformation erkannt. Dadurch kann die Erkennungsgenauigkeit verbessert werden.
    • [e] Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [d], wobei die erste und zweite Region direkt aneinander anschließen, wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Berechnung einer Position (z. B. 601, 901), die als Ende der Straßenoberfläche einem Grenzbereich zwischen der ersten und zweiten Region entspricht. Gemäß einer solchen Struktur kann das Straßenende mit hoher Genauigkeit erfasst werden.
    • [f] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [e], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Berechnung einer zwischen einer ersten vorbestimmten Position der ersten Region und der dem Grenzbereich entsprechenden Position liegenden zweiten vorbestimmten Position als das Ende der Straßenoberfläche. Gemäß einer solchen Struktur kann eine Gefahr, die resultiert aus schwacher Unterbauung des Straßenendes, vermieden werden.
    • [g] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [d], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) einen zum Speichern der Information über Distanz in vorbestimmten Intervallen ausgebildeten Distanzdatenansammlungsabschnitt (z. B. Daten-ROM 340) umfasst, wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Erfassung der ersten und zweiten Region mittels gegenseitiger Superpositionierung einer Mehrzahl an gespeicherten Distanzdaten. Gemäß einer solchen Struktur kann die Erfassungsgenauigkeit verbessert werden.
    • [h] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [g], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) die erste und zweite Region basierend auf dem Teil der Jetzt-Umgebungsdaten erfasst, falls ein Teil der Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet wenn die Mehrzahl an gespeicherten Distanzdaten gegeneinander superpositioniert werden. Gemäß einer solchen Struktur kann die Erfassungsgenauigkeit verbessert werden, weil neuere Daten verwendet werden.
    • [i] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [g], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) die erste und zweite Region basierend auf einem Mittelwert aus dem Teil der Jetzt-Umgebungsdaten und dem Teil der vorherigen Umgebungsdaten erfasst, falls ein Teil der Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet wenn die Mehrzahl an gespeicherten Distanzdaten gegeneinander superpositioniert werden.
  • Gemäß einer solchen Struktur kann, da eine in den Daten beinhalteter Störungseinfluss und ähnliches entfernt wird, eine stabile Erfassung erreicht werden,
  • [Zweites Ausführungsbeispiel]
  • Als nächstes wird nun ein zweites Ausführungsbeispiel gemäß der vorliegenden Erfindung erklärt. Da eine grundlegende Struktur des zweiten Ausführungsbeispiels dem ersten Ausführungsbeispiel entsprecht, werden nur die sich vom ersten Ausführungsbeispiel unterscheidenden Bereiche erklärt. Obwohl die Fahrumgebungserfassungsvorrichtung mit der Fahrbahnabweichungsverhinderungs-Steuer/Regelung im ersten Ausführungsbeispiel kombiniert ist, ist eine Fahrumgebungserfassungsvorrichtung im zweiten Ausführungsbeispiel einfach mit einem Warnsystem zum Geben von Warnungen kombiniert. Des Weiteren, wird, obwohl im ersten Ausführungsbeispiel eine Stereokamera 310 verwendet wird, im zweiten Ausführungsbeispiel eine einzelne Kamera verwendet.
  • 19 ist eine strukturelle Ansicht eines Fahrzeugs, ausgestattet mit einer Fahrumgebungserfassungsvorrichtung gemäß einem zweiten Ausführungsbeispiel. Eine Fahrumgebungserfassungsvorrichtung 100 umfasst die einzelne Kamera 310 als Bilderzeugungsmittel und erfasst damit eine Umgebung um das mit der Fahrumgebungserfassungsvorrichtung 100 ausgestattetet Fahrzeug herum. Es wird darauf hingewiesen, dass, die einzelne Kamera 310 dem Informationserfassungsabschnitt gemäß der vorliegende Erfindung entspricht. Die Fahrumgebungserfassungsvorrichtung 100 erfasst einen Bildbereichunterschied eines gemessenen Identischen Orts zwischen in einer Mehrzahl an, von der einzelnen Kamera 310 zu einander unterschiedlichen Zeiten aufgenommenen, Bildern und erfasst oder bestimmt dadurch eine wirkliche Position (Distanz) des Ortes. Das heißt, wenn die Mehrzahl der von der Kamera 310 aufgenommenen Bilder mit einander verglichen werden bewegt sich ein Punkt, der in Wirklichkeit nahe dem Fahrzeug positioniert ist, mit hoher Geschwindigkeit zwischen den Bildern (d. h. er weist eine hohe Positionsdifferenz zwischen einem aus Mehrzahl an Bildern und einem anderen der Mehrzahl an Bilder auf), und ein Punkt der in Wirklichkeit vom Fahrzeug entfernt ist bewegt sich mit geringer Geschwindigkeit zwischen den Bildern, zusammen mit einer wirklichen Bewegung des Fahrzeugs. Aus solch einer Tatsache sind die wirkliche Distanz und Richtung zum gemessenen Punkt erschließbar. Dadurch kann eine dreidimensionale Form der von der Kamera 310 aufgenommenen Umgebung erfasst werden.
  • Die Fahrumgebungserfassungsvorrichtung 100 umfasst einen RAM 320, einen CPU 330 einen Daten-ROM 340 und einen Programm-ROM 350, Der RAM 320 speichert die von der Kamera 310 aufgenommenen Bilder zwischen. Der CPU 330 führt die arithmetische Verarbeitung aus. Der Daten-ROM 340 speichert verschiedenste Daten. Der Programm-ROM 350 speichert Programme der Erfassungsverarbeitung. Die Kamera 310 ist an einen im inneren des Fahrzeugs montierten Rückspiegel befestigt. Die Kamera 310 nimmt (fängt ein) ein Bild der Umwelt im Frontbereich des Fahrzeugs, in einem vorbestimmten Abneigungswinkel von der vorbestimmten Anbringungsposition dieser Kamera 310 aus, auf. Das von der Kamera 310 aufgenommene Fahrzeugfrontbereichsbild wird in den RAM 320 eingelesen. Dann wird eine sich vor dem Fahrzeug befindende Fahrbahn(en) und ein dreidimensionales Objekt(e) aus den Fahrzeugfrontbereichsbildern erfasst, und eine Straßenform wird aus den Fahrzeugfrontbereichsbildern abgeschätzt. Es wird darauf hingewiesen, dass die Fahrumgebungserfassungsvorrichtung 100 dem Straßenoberflächenberechnungsabschnitt gemäß der vorliegenden Erfindung entspricht.
  • Die Fahrumgebungserfassungsvorrichturig 100 ist verbunden (kommuniziert) mit einer Steuer-/Regeleinheit 200 zum steuern/regeln eines Warnsystems, und ist zudem mit einer Anzeigevorrichtung 115 verbunden, um verschiedenste Bilder und Informationen anzuzeigen. Die Anzeigevorrichtung 115 ist im Inneren des Fahrzeugs montiert. Des Weiteren ist die Steuer-/Regeleinheit 200 mit einem Lautsprecher 119, einem Zündschalter 120 und einem Startschalter 121 verbunden. Der Lautsprecher 119 erzeugt ein Warngeräusch, wenn das mit der Fahrumgebungserfassungsvorrichtung 100 ausgestattete Fahrzeug Risiko läuft, mit einem Hindernis zu kollidieren. Der Zündschalter 120 wird eingeschaltet, wenn ein Motor gestartet wird. Der Startschalter 121 startet oder aktiviert das Warnsystem.
  • Obwohl die Erfassungsverarbeitung im ersten Ausführungsbeispiel auf Basis der von der linken und rechten Kamera aufgenommenen Bildern ausgeführt wird, wird die Erfassungsverarbeitung im zweiten Ausführungsbeispiel auf Basis der von einer Kamera zu sich unterscheidenden Zeitpunkten aufgenommenen Bildern ausgeführt. Weil die anderen grundlegenden Erfassungs-Logiken denen des ersten Ausführungsbeispiels entsprechen, werde die entsprechenden Erklärungen zum Zwecke der Vereinfachung dieser Veröffentlichung ausgelassen. Daher werden nun nur sich vom ersten Ausführungsbeispiel unterscheidende Teile erklärt.
  • (Genauigkeitsverbesserung der Bildverarbeitung)
  • In einem Fall, in dem der Straßeninnenbereich oder der Straßenaußenbereich visuell völlig homogen sind, ist es schwierig die zum selben Bereich gehörenden (für den Zweck der Bereichsdifferenzierung) Orte, aus den jeweiligen sich in der Zeit unterscheidenden, von der einzelnen Kamera 310 aufgenommenen Bildern, zu extrahieren. Wie oben bezüglich 13 erklärt, befinden sich in Wirklichkeit mehrere visuell-charakteristische Punkte in der Straße, dem Straßenaußenbereich und dem, zwischen der Straße und dem Straßenaußenbereich geformten, Grenzbereich. Daher werden die zu unterschiedlichen Zeitpunkten von der einzelnen Kamera 310 aufgenommenen Bilder mit einander auf charakteristische Punkte hin verglichen und dadurch eine Richtung und eine Distanz zu jedem charakteristischen Punkt ausgehend von der Kamera 310 berechnet, Dadurch kann eine Position von jedem charakteristischen Punkt erlangt werden. Dementsprechend kann eine Ansammlung charakteristischer Punkte, die sich in Wirklich auf der Straße befinden, als im Wesentlichen auf der selben Ebene liegend erfasst werden, und charakteristische Punkte, die sich in Wirklichkeit im niedriger als die Straßen gelegenen Bereich befinden, können als sich im Straßenaußenbereich befindend erfasst werden.
  • (Superpositionsverarbeitung)
  • Um die Form der Straßenoberfläche erlangen zu können, werden die charakteristischen Anteile wie Straßenmarkierungsfarbe, kleine Risse im Asphalt und Reifenspuren, welche sich auf der Straßenoberfläche befinden, aus den von der Kamera 310 aufgenommen Fahrzeugfrontbereichsbildern extrahiert. Dann wird eine Distanz zu jedem der extrahierten charakteristischen Anteile, ausgehend von der Kamera 310 aus, durch eine Positionsabweichung (Deviation) eines jeden der charakteristischen Anteile zwischen der Mehrzahl an zu unterschiedlichen Zeitpunkten von der Kamera 310 aufgenommenen Bildern, gemessen. Jedoch bestehen solche charakteristischen Anteile nicht unbedingt gleichmäßig auf der ganzen Straßenoberfläche. Des Weiteren, selbst falls solche charakteristischen Anteile gleichmäßig auf der ganzen Straßenoberfläche bestehen, ist es nicht sicher, dass diese charakteristischen Anteile immer erfassbar sind. In gleicher Weise ist es nicht sicher, dass die charakteristischen Anteile im ganzen, niedriger als die Straßenoberfläche gelegenen Bereich immer erfassbar sind. Daher ist es notwendig die Genauigkeit weiter zu verbessern. Daher werden in diesem Ausführungsbeispiel die erlangten Distanzdaten in dem Daten-ROM 340 gesammelt. Diese gesammelten Distanzdaten werden superpositioniert mit Distanzdaten, die durch ein Bild erlangbar sind, das zu einer Nachfolgeposition (zum nächsten Zeitpunkt) oder später aufgenommen wird. Es wird darauf hingewiesen, dass der Daten-ROM 340 einem Distanzdatenansammlungsabschnitt gemäß der vorliegenden Erfindung entspricht. 20 ist eine schematische Ansicht, die eine Superpositionsverarbeitung von Bilddaten (Distanzinformationen) im zweiten Ausführungsbeispiel zeigt. Da die Bilder, die zu zueinander unterschiedlichen Zeitpunkten aufgenommen wurden gebraucht werden um eine Distanz von jedem Ort zu erfassen, wird im Fall der einzelnen Kamera 310 der folgende Ablauf in diesem zweiten Ausführungsbeispiel ausgeführt. Das heißt in einer Vorherigen Steuer-/Regelperiode wurden Distanzdaten berechnet, unter Verwendung einer Differenz zwischen entsprechenden, auf einem in der vor der vorherigen Steuer-/Regelperiode (d. h. fortlaufende Nummer der vorherigen Steuer-/Regelperiode minus eins) aufgenommenen Bild erfassten, Orten, und den entsprechenden, auf einem in der vorherigen Steuer-/Regelperiode aufgenommenen Bild erfassten, Orten. Dann werden die berechneten Distanzdaten der vorherigen Steuer-/Regelperiode gespeichert. Als nächstes werden in einer Jetzt-Steuer-/Regelperiode Distanzdaten berechnet, unter Verwendung einer Differenz zwischen entsprechenden, auf einem in der vorherigen Steuer-/Regelperiode aufgenommenen Bild erfassten, Orten, und den entsprechenden, auf einem in der Jetzt-Steuer-/Regelperiode aufgenommenen Bild erfassten, Orten. Dann werden die berechneten Distanzdaten der Jetzt-Steuer-/Regelperiode gespeichert. Dann werden die gespeicherten Distanzdaten der Jetzt-Steuer-/Regelperiode auf die gespeicherten Distanzdaten der vorherigen Steuer-/Regelperiode superpositioniert. Dadurch können zu manchen Anteilen Distanzinformationen erhalten werden, zu denen bei der vorherigen Steuer-/Regelperiode keine Distanzinformationen erlangt werden konnten, da diese Distanzinformationen in der Jetzt-Steuer-/Regelperiode neu erfasst werden. Dadurch kann eine Erfassungsgenauigkeit der Straße und der umliegenden Umgebung verbessert werden. Wie in 20 gezeigt, selbst falls das mit der Fahrumgebungserfassungsvorrichtung 100 ausgestattete Fahrzeug fährt, umfasst eine Mehrzahl im Zeitverlauf erlangter Bildern gleichen Bereich (d. h. überlappende Bereiche) in einem Fall, in dem die Fahrzeuggeschwindigkeit relativ gering ist, d. h. in einem Fall in dem eine Fahrzeugbewegung zwischen zwei Fotografierungszeitpunkten relativ kurz ist. Daher wird eine Information über solch einen überlappenden Bereich superpositioniert unter der Mehrzahl an Bildern, die mit der Zeit erlangt werden. In diesem Ausführungsbeispiel ist die Anzahl der Superpositionierungen nicht auf zwei Mal beschränkt. Eine möglichst hohe Anzahl an Superpositionierungen ist effektiv.
  • Einige vom oben beschriebenen zweiten Ausführungsbeispiel gemäß der vorliegenden Erfindung erfassbare technische Strukturen werden nun mit ihren vorteilhaften Effekten aufgelistet.
    • [j] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [b], wobei der Informationserfassungsabschnitt (z. B. 310) eine einzelne Kamera ist, wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Berechnung einer Höhendifferenz in dem aufgenommenen Bild in Übereinstimmung mit einer, zwischen einer nahe der einzelnen Kamera liegenden Region und einer entfernt von der einzelnen Kamera liegenden Region verursachten, Differenz einer Bild-zu-Bild-Bewegungsgeschwindigkeit eines fotografierten Objekts. Gemäß einer solchen Struktur kann die Fahrumgebung vor und nahe eines Fahrzeugs effizient durch eine geringe Anzahl an Kameras erfasst werden.
  • (Weitere Ausführungsbeispiele)
  • Obwohl die Erfindung oben mit Bezug auf das erste und zweite Ausführungsbeispiel gemäß der Erfindung beschrieben wurde, beschränkt sich die Erfindung nicht auf die oben beschriebenen Ausführungsbeispiele. Modifizierungen und Variationen dieser oben beschriebenen Ausführungsbeispiele ergeben sich für den Fachmann im Lichte der obigen Lehre.
  • Zum Beispiel, obwohl die Kamera(s) als
  • Informationserfassungsabschnitt im ersten und zweiten Ausführungsbeispiel verwendet wird, kann auch ein Laserradar (Lidar) oder ein Millimeterwellen-Radar als Informationserfassungsabschnitt angewendet werden. In einem solchen Fall können Distanzinformationen verwendet werden, die erfasst werden, durch Wellen, die reflektiert werden von einer Straßenoberfläche und einem niedriger als die Straßenoberfläche gelegenen Bereich vor dem mit der Fahrumgebungserfassungsvorrichtung ausgestattetem Fahrzeug, Des Weiteren können die oben genannten zahlreichen Systeme in angemessener Weise erfindungsgemäß miteinander kombiniert werden.
  • Einige technische Strukturen erfassbar von den obigen Ausführungsbeispielen gemäß der vorliegenden Erfindung werden nun mit ihren vorteilhaften Effekten aufgelistet.
    • [k] Die Fahrumgebungserfassungsvorrichtung wie unter Punkt [a] beschrieben, wobei der Informationserfassungsabschnitt (z. B. 310) ein Laserradar oder ein Millimeterwellenradar ist, und die Information sich auf eine Distanz bezieht und durch reflektierende Wellen von der Straßenoberfläche und dem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs erhalten wird. Gemäß einer solchen Struktur kann die Distanzinformation erfasst werden ohne vom Sonnenlicht oder ähnlichem beeinflusst zu werden.
    • [l] Eine Fahrumgebungserfassungsvorrichtung umfassend: Eine Kamera (z. B. 310) montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Umgebung eines Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet zur Berechnung eines Grenzbereichs zwischen einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße, unter Verwendung von Distanzdaten, die auf einer Distanz zu jedem im Frontbereich des Fahrzeugs befindlichen Objekt in der von der Kamera (z. B. 310) erfassten Umgebung basieren. Gemäß einer solchen Struktur kann eine Position niedriger als die Straßenoberfläche erfasst werden, so dass die Informationen des Frontbereichs in der Fahrtrichtung des Fahrzeugs genau erfasst werden können.
    • [m] Die Fahrumgebungserfassungsvorrichtung wie unter Punkt [l] beschrieben, wobei die Kamera (z. B. 310) eine Stereokamera umfassend eine Mehrzahl an Kameras (z. B. 310a, 310b) ist, wobei die Stereokamera ausgebildet ist zum Messen der Distanz mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (z. B. 310a, 310b) verursachten Parallaxe, und die Umgebung eine sich auf eine Distanz beziehende Information ist. Gemäß einer solchen Struktur kann eine Distanz zu einem vor dem Fahrzeug liegendem Hindernis und einem Zustand der Straßenoberfläche auf Basis der Distanzinformation erhalten werden.
    • [n] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [m], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Erfassung einer ersten Region mit einem ersten visuell charakteristischen Punkt und einer zweiten Region mit einem zweiten visuell charakteristischen Punkt aus der sich auf eine Distanz beziehenden Information, und zur Berechnung der Straßenoberfläche und des niedriger als die Straßenoberfläche liegenden Bereichs, bezogen auf die erfasste jeweilige erste und zweite Region. Gemäß einer solchen Struktur werden die Straßenoberfläche und der niedriger als die Straßenoberfläche gelegene Bereich sowohl wegen des visuell-charakteristischen Punkts als auch wegen der Distanzinformation erkannt. Dadurch kann die Erfassungsgenauigkeit verbessert werden.
    • [o] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [n], wobei die erste und zweite Region direkt aneinander anschließen, wobei der Straßenaberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Berechnung einer einem Grenzbereich zwischen der ersten und zweiten Region entsprechenden Position (z. B. 601, 901) als Ende der Straßenoberfläche. Gemäß einer solchen Struktur kann das Straßenende mit hoher Genauigkeit erfasst werden.
    • [p] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [n], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Abschätzung einer zwischen einer ersten vorbestimmten Position in der ersten Region und der dem Grenzbereich zwischen der ersten und zweiten Region entsprechenden Position fegenden zweiten vorbestimmten Position als das Ende der Straßenoberfläche. Gemäß einer solchen Struktur kann ein aus schwacher Unterbauung des Straßenendes hervorgehendes Risiko vermieden werden.
    • [q] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [p], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) einen zum Speichern der Information über Distanz in vorbestimmten Intervallen ausgebildeten Distanzdatenansammlungsabschnitt (z. B. Daten-ROM 340) umfasst, wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zur Erfassung der ersten und zweiten Region mittels gegenseitiger Superpositionierung einer Mehrzahl an gespeicherten Distanzdaten. Gemäß einer solchen Struktur kann die Erfassungsgenauigkeit verbessert werden.
    • [r] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [q], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) die erste und zweite Region basierend auf dem Teil der Jetzt-Umgebungsdaten erfasst, falls ein Teil der Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet, wenn die Mehrzahl an gespeicherten Distanzdaten gegenseitig superpositioniert werden. Gemäß einer solchen Struktur kann die Erfassungsgenauigkeit verbessert werden, weil neuere Daten verwendet werden.
    • [s] Die Fahrumgebungserfassungsvorrichtung wie beschrieben unter Punkt [r], wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) die erste und zweite Region basierend auf einem Mittelwert aus einem Teil der Jetzt-Umgebungsdaten und einem Teils der vorherigen Umgebungsdaten erfasst, falls ein Teil der Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet wenn die Mehrzahl an gespeicherten Distanzdaten gegenseitig superpositioniert werden. Gemäß einer solchen Struktur kann, da ein in den Daten beinhalteter Störungseinfluss und ähnliches entfernt wird, eine stabile Erfassung erreicht werden.
    • [t] Eine Fahrumgebungserfassungsvorrichtung umfassend: Eine zum Erfassen einer Bildinformation, umfassend eine in einem Frontbereichs eines Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs befindliche Straßenoberfläche einer Fahrstraße, ausgebildete Stereokamera (z. B. 310) mit einer Mehrzahl an Kameras (z. B. 310a, 310b) montiert in dem Fahrzeug, wobei die Stereokamera (z. B. 310) ausgebildet ist zum Messen einer Distanz in der Bildinformation mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (z. B. 310a, 310b) verursachten Parallaxe; und einen Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet zum Erfassen einer ersten Region, die der Straßenoberfläche der Fahrstraße entspricht, und einer zweiten Region, die einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße entspricht, unter Verwendung der mittels der Stereokamera (z. B. 310) gemessenen Distanzinformation, wobei der Straßenoberflächenberechnungsabschnitt (z. B. 1, 100) ausgebildet ist zum Berechnen eines Grenzbereich zwischen der ersten und zweiten Region als Ende der Straßenoberfläche. Gemäß einer solchen Struktur kann eine Position niedriger als die Straßenoberfläche erfasst werden, so dass die Informationen über den Frontbereich in der Fahrtrichtung des Fahrzeugs genau erfasst werden können. Des Weiteren kann eine Distanz zu einem vor dem Fahrzeug liegenden Hindernis und ein Zustand der Straßenoberfläche auf Basis der Distanzinformationen erhalten werden. Des Weiteren kann die Erfassungsgenauigkeit verbessert werden, da die Straßenoberfläche und der niedriger als die Straßenoberfläche gelegene Bereich sowohl mit Hilfe des visuell-charakteristischen Punkts als auch der Distanzinformationen erfasst werden können. Des Weiteren kann das Straßenende genau erfasst werden.
  • Diese Anmeldung basiert auf einer früheren Japanischen Patent Anmeldung Nr. 2010-272104 , eingereicht am 7. Dezember 2010. Der gesamte Inhalt dieser Japanischen Patent Anmeldung ist hiermit durch Verweis einbezogen.
  • Der Schutzbereich der Erfindung ist mit Bezug auf folgende Ansprüche definiert:
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2009-286222 [0002]
    • JP 2010-272104 [0078]

Claims (17)

  1. Fahrumgebungserfassungsvorrichtung umfassend: einen Informationserfassungsabschnitt (310) montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Information zumindest über einen Frontbereich des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet zur Berechnung einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs, aus der mit dem Informationserfassungsabschnitt (310) erfassten Information.
  2. Fahrumgebungserfassungsvorrichtung nach Anspruch 1, wobei der Informationserfassungsabschnitt (310) eine zur Aufnahme eines Bildes des Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs ausgebildete Kamera ist.
  3. Fahrumgebungserfassungsvorrichtung nach Anspruch 1 oder 2, wobei der Informationserfassungsabschnitt (310) eine Stereokamera umfassend eine Mehrzahl an Kameras (310a, 310b) ist, wobei die Stereokamera ausgebildet ist zum Messen einer Distanz mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (310a, 310b) verursachten Parallaxe, und die Information sich auf eine Distanz bezieht.
  4. Fahrumgebungserfassungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Erfassung einer ersten Region mit einem ersten visuell charakteristischem Punkt und einer zweiten Region mit einem zweiten visuell charakteristischem Punkt aus der sich auf eine Distanz beziehenden Information, und zur Berechnung der Straßenoberfläche und des niedriger als die Straßenoberfläche liegenden Bereichs bezogen auf die erfasste jeweilige erste und zweite Region.
  5. Fahrumgebungserfassungsvorrichtung nach Anspruch 4, wobei die erste und zweite Region direkt aneinander anschließen, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Berechnung einer einem Grenzbereich zwischen der ersten und zweiten Region entsprechenden Position (601, 901) als Ende der Straßenoberfläche.
  6. Fahrumgebungserfassungsvorrichtung nach Anspruch 5, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Berechung einer zwischen einer ersten vorbestimmten Position der ersten Region und der dem Grenzbereich entsprechenden Position liegenden zweiten vorbestimmten Position als das Ende der Straßenoberfläche.
  7. Fahrumgebungserfassungsvorrichtung nach Anspruch 2, wobei der Informationserfassungsabschnitt (310) eine einzelne Kamera ist, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Berechnung einer Höhendifferenz in dem aufgenommenen Bild gemäß mit einer zwischen einer nahe der einzelnen Kamera liegenden Region und einer entfernt von der einzelnen Kamera liegenden Region verursachten Differenz einer Bild-zu-Bild-Bewegungsgeschwindigkeit eines fotografierten Objekts.
  8. Fahrumgebungserfassungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei der Informationserfassungsabschnitt (310) ein Laserradar oder ein Millimeterwellenradar ist, und die Information sich auf eine Distanz bezieht und durch reflektierende Wellen von der Straßenoberfläche und dem niedriger als die Straßenoberfläche liegenden Bereich im Frontbereich des Fahrzeugs erhalten wird.
  9. Eine Fahrumgebungserfassungsvorrichtung umfassend eine Kamera (310) montiert in einem Fahrzeug und ausgebildet zum Erfassen einer Umgebung eines Frontbereichs des Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs; und einen Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet zur Berechnung eines Grenzbereichs zwischen einer Straßenoberfläche einer Fahrstraße und einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße, unter Verwendung von Distanzdaten, die auf einer Distanz zu jedem im Frontbereich des Fahrzeugs befindlichen Objekt in der von der Kamera (310) erfassten Umgebung basieren.
  10. Fahrumgebungserfassungsvorrichtung nach Anspruch 9, wobei die Kamera (310) eine Stereokamera umfassend eine Mehrzahl an Kameras (310a, 310b) ist, wobei die Stereokamera ausgebildet ist zum Messen der Distanz mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (310a, 310b) verürsachten Parallaxe, und die Umgebung eine sich auf eine Distanz beziehende Information ist.
  11. Fahrumgebungserfassungsvorrichtung nach Anspruch 9 oder 10, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Erfassung einer ersten Region mit einem ersten visuell charakteristischem Punkt und einer zweiten Region mit einem zweiten visuell charakteristischem Punkt aus der sich auf eine Distanz beziehenden Information, und zur Berechnung der Straßenoberfläche und des niedriger als die Straßenoberfläche liegenden Bereichs, bezogen auf die erfasste jeweilige erste und zweite Region.
  12. Fahrumgebungserfassungsvorrichtung nach Anspruch 11, wobei die erste und zweite Region direkt aneinander anschließen, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Berechnung einer einem Grenzbereich zwischen der ersten und zweiten Region entsprechenden Position (601, 901) als Ende der Straßenoberfläche.
  13. Fahrumgebungserfassungsvorrichtung nach Anspruch 11, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Abschätzung einer zwischen einer ersten vorbestimmten Position in der ersten Region und der dem Grenzbereich zwischen der ersten und zweiten Region entsprechenden Position liegenden zweiten vorbestimmten Position als das Ende der Straßenoberfläche.
  14. Fahrumgebungserfassungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) einen zum Speichern der Information über Distanz in vorbestimmten Intervallen ausgebildeten Distanzdatenansammlungsabschnitt (340) umfasst, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet ist zur Erfassung der ersten und zweiten Region mittels gegenseitiger Superpositionierung einer Mehrzahl an gespeicherten Distanzdaten,
  15. Fahrumgebungserfassungsvorrichtung nach Anspruch 14, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) die erste und zweite Region basierend auf einem Teil von Jetzt-Umgebungsdaten erfasst, wenn der Teil von Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet während die Mehrzahl an gespeicherten Distanzdaten gegenseitig superpositioniert werden,
  16. Fahrumgebungserfassungsvorrichtung nach Anspruch 14, wobei der Straßenoberflächenberechnungsabschnitt (1, 100) die erste und zweite Region basierend auf einem Mittelwert aus einem Teil von Jetzt-Umgebungsdaten und einem Teil von vorherigen Umgebungsdaten erfasst, wenn der Teil von Jetzt-Umgebungsdaten sich von dem von vorherigen Umgebungsdaten unterscheidet während die Mehrzahl an gespeicherten Distanzdaten gegenseitig superpositioniert werden.
  17. Fahrumgebungserfassungsvorrichtung umfassend: eine zum Erfassen einer Bildinformation, umfassend eine in einem Frontbereichs eines Fahrzeugs bezüglich einer Fahrtrichtung des Fahrzeugs befindliche Straßenoberfläche einer Fahrstraße, ausgebildete Stereokamera (310) mit einer Mehrzahl an Kameras (310a, 310b) montiert in dem Fahrzeug, wobei die Stereokamera (310) ausgebildet ist zum Messen einer Distanz in der Bildinformation mittels einer während der jeweiligen Aufnahme von Bildern des selben Objektes mit der Mehrzahl an Kameras (310a, 310b) verursachten Parallaxe; und einen Straßenoberflächenberechnungsabschnitt (1, 100) ausgebildet zum Erfassen einer ersten Region die der Straßenoberfläche der Fahrstraße entspricht und einer zweiten Region die einem niedriger als die Straßenoberfläche liegenden Bereich neben der Fahrstraße entspricht, unter Verwendung der mittels der Stereokamera (310) gemessenen Distanzinformation, wobei der Straßenaberflächenberechnungsabschnitt (1, 100) ausgebildet ist zum Berechnen eines Grenzbereich zwischen der ersten und zweiten Region als Ende der Straßenaberfläche.
DE102011117554A 2010-12-07 2011-11-03 Fahrumgebungserfassungsvorrichtung Granted DE102011117554A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-272104 2010-12-07
JP2010272104A JP5389002B2 (ja) 2010-12-07 2010-12-07 走行環境認識装置

Publications (1)

Publication Number Publication Date
DE102011117554A1 true DE102011117554A1 (de) 2012-06-14

Family

ID=46144888

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011117554A Granted DE102011117554A1 (de) 2010-12-07 2011-11-03 Fahrumgebungserfassungsvorrichtung

Country Status (3)

Country Link
US (1) US8982188B2 (de)
JP (1) JP5389002B2 (de)
DE (1) DE102011117554A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103171556A (zh) * 2013-03-19 2013-06-26 北京农业智能装备技术研究中心 适用于开沟作业拖拉机的自动走直控制系统

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5075152B2 (ja) * 2009-03-24 2012-11-14 日立オートモティブシステムズ株式会社 車両制御装置
US9499172B2 (en) * 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
US9110196B2 (en) 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
KR101846575B1 (ko) * 2012-12-07 2018-04-06 현대자동차주식회사 가상차선 생성시스템 및 방법
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
KR101787996B1 (ko) * 2013-04-11 2017-10-19 주식회사 만도 차선 추정 장치 및 그 방법
JP6049541B2 (ja) * 2013-05-31 2016-12-21 日立オートモティブシステムズ株式会社 車両制御システム
JP6049542B2 (ja) * 2013-05-31 2016-12-21 日立オートモティブシステムズ株式会社 車両制御システム
JP6108974B2 (ja) * 2013-06-14 2017-04-05 日立オートモティブシステムズ株式会社 車両制御システム
JP6035207B2 (ja) * 2013-06-14 2016-11-30 日立オートモティブシステムズ株式会社 車両制御システム
JP6110256B2 (ja) * 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
JP6156077B2 (ja) * 2013-11-08 2017-07-05 トヨタ自動車株式会社 車両制御装置
KR101582572B1 (ko) * 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US9031758B1 (en) * 2014-03-04 2015-05-12 Nissan North America, Inc. On-board vehicle control system and method for determining whether a vehicle is within a geographical area of interest
JP2016018256A (ja) * 2014-07-04 2016-02-01 株式会社デンソー 分岐合流判定装置
KR101527886B1 (ko) * 2014-09-25 2015-06-10 연세대학교 산학협력단 스테레오 영상을 이용한 도로 물웅덩이 검출 장치 및 그 방법
JP6363516B2 (ja) * 2015-01-21 2018-07-25 株式会社デンソー 車両の走行制御装置
KR101543342B1 (ko) 2015-02-23 2015-08-11 한국건설기술연구원 차량통신 네트워크를 이용한 도로포장의 포트홀 데이터 처리 시스템 및 그 방법
JP6657618B2 (ja) * 2015-06-30 2020-03-04 株式会社デンソー 逸脱回避装置
TWI609807B (zh) * 2016-05-17 2018-01-01 緯創資通股份有限公司 影像評估方法以及其電子裝置
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US10829116B2 (en) 2016-07-01 2020-11-10 nuTonomy Inc. Affecting functions of a vehicle based on function-related information about its environment
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
JP6544341B2 (ja) * 2016-11-25 2019-07-17 トヨタ自動車株式会社 車両運転支援装置
WO2018123641A1 (ja) * 2016-12-27 2018-07-05 日立オートモティブシステムズ株式会社 走行可能領域検出装置及び走行支援システム
KR102286005B1 (ko) * 2016-12-28 2021-08-04 한화디펜스 주식회사 주행 제어 시스템 및 주행 제어 방법
US10095234B2 (en) * 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10234864B2 (en) 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10281920B2 (en) 2017-03-07 2019-05-07 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
KR20200022676A (ko) * 2018-08-23 2020-03-04 현대자동차주식회사 차량의 거동 제어 장치 및 그 방법
US11977378B2 (en) * 2018-09-17 2024-05-07 The Charles Machine Works, Inc. Virtual path guidance system
JP7056496B2 (ja) * 2018-10-03 2022-04-19 株式会社豊田自動織機 位置検出装置
JP7134855B2 (ja) * 2018-12-12 2022-09-12 日立Astemo株式会社 路面状態判定装置、および、路面状態判定システム
JP7257814B2 (ja) * 2019-02-21 2023-04-14 日立Astemo株式会社 走行路認識装置
CN111523471B (zh) * 2020-04-23 2023-08-04 阿波罗智联(北京)科技有限公司 车辆所在车道的确定方法、装置、设备以及存储介质
US11733054B2 (en) 2020-12-11 2023-08-22 Motional Ad Llc Systems and methods for implementing occlusion representations over road features
KR102213263B1 (ko) * 2020-12-14 2021-02-08 현대모비스 주식회사 차선 추정 장치 및 방법
JP7371647B2 (ja) * 2021-03-03 2023-10-31 トヨタ自動車株式会社 車両の制御装置、制御方法、制御プログラム
JP7345515B2 (ja) * 2021-03-29 2023-09-15 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2023027676A (ja) * 2021-08-17 2023-03-02 トヨタ自動車株式会社 車線逸脱防止装置
CN115158333B (zh) * 2022-07-04 2024-09-10 合肥工业大学 基于智能融合识别技术的车速自适应调节方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009286222A (ja) 2008-05-28 2009-12-10 Toyota Motor Corp 事故予測装置
JP2010272104A (ja) 2009-04-22 2010-12-02 Hitachi Ltd コンポーネント設計支援装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3379324B2 (ja) * 1996-02-08 2003-02-24 トヨタ自動車株式会社 移動体検知方法及び装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム
JP3897337B2 (ja) * 2002-02-08 2007-03-22 株式会社東芝 路肩検出装置及び方法
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4835201B2 (ja) * 2006-02-27 2011-12-14 トヨタ自動車株式会社 立体形状検出装置
EP2168079B1 (de) * 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Verfahren und system zur universellen strassenbegrenzungserkennung
JP2009053818A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 画像処理装置及びその方法
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
JP2010055340A (ja) * 2008-08-28 2010-03-11 Hirosaki Univ 走行路推定装置及びプログラム
JP5089545B2 (ja) * 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 道路境界検出判断装置
JP5188452B2 (ja) * 2009-05-22 2013-04-24 富士重工業株式会社 道路形状認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009286222A (ja) 2008-05-28 2009-12-10 Toyota Motor Corp 事故予測装置
JP2010272104A (ja) 2009-04-22 2010-12-02 Hitachi Ltd コンポーネント設計支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103171556A (zh) * 2013-03-19 2013-06-26 北京农业智能装备技术研究中心 适用于开沟作业拖拉机的自动走直控制系统

Also Published As

Publication number Publication date
JP2012123495A (ja) 2012-06-28
JP5389002B2 (ja) 2014-01-15
US20120140039A1 (en) 2012-06-07
US8982188B2 (en) 2015-03-17

Similar Documents

Publication Publication Date Title
DE102011117554A1 (de) Fahrumgebungserfassungsvorrichtung
EP3094530B1 (de) Verfahren und system zum schätzen eines fahrspurverlaufs
DE602004000990T2 (de) Fahrassistenzsystem für Fahrzeuge
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE102018111778A1 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE102019106375B4 (de) Fahrzeugsteuervorrichtung
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE112018007484T5 (de) Hindernis-Detektionsvorrichtung, automatische Bremsvorrichtung unter Verwendung einer Hindernis-Detektionsvorrichtung, Hindernis-Detektionsverfahren und automatisches Bremsverfahren unter Verwendung eines Hindernis-Detektionsverfahrens
EP2904599B1 (de) Verfahren und vorrichtung zum unterstützen des zurückführens eines fahrzeugs nach dem verlassen einer fahrbahn
DE112017006263T5 (de) Kollisionsvermeidungsvorrichtung für ein Fahrzeug und Kollisionsvermeidungsverfahren für dieses
EP2594461B1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
WO2014094766A1 (de) Verfahren zur bestimmung eines fahrbahnzustands aus umfeldsensordaten
WO2004109326A1 (de) Vorrichtung und verfahren zur ermittlung einer räumlichen ausrichtung eines aufliegers oder anhängers
WO2009086967A1 (de) Verfahren und vorrichtung zum anzeigen der umgebung eines fahrzeugs
EP2795537A1 (de) Bestimmung eines höhenprofils einer fahrzeugumgebung mittels einer 3d-kamera
DE102016118497A1 (de) Ermittlung einer virtuellen Fahrspur für eine von einem Kraftfahrzeug befahrene Straße
EP2982572B1 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken, fahrerassistenzsystem und kraftfahrzeug
DE112019001078T5 (de) Verfahren und vorrichtung zur fahrzeugsteuerung
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
DE102013201796A1 (de) Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem
DE102019133163A1 (de) Fahrzeug und verfahren für eine ausweichlenkungssteuerung
DE102017126452A1 (de) Fahrzeugsteuersystem
DE102016111079A1 (de) Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
WO2012163631A1 (de) Verfahren zum bestimmen einer nickbewegung einer in einem fahrzeug verbauten kamera und verfahren zur steuerung einer lichtaussendung zumindest eines frontscheinwerfers eines fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20150414

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: HITACHI ASTEMO, LTD., HITACHINAKA-SHI, JP

Free format text: FORMER OWNER: HITACHI AUTOMOTIVE SYSTEMS, LTD., HITACHINAKA-SHI, IBARAKI, JP

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division