DE19723963A1 - Objekterkennungsvorrichtung und -verfahren für Fahrzeuge - Google Patents

Objekterkennungsvorrichtung und -verfahren für Fahrzeuge

Info

Publication number
DE19723963A1
DE19723963A1 DE19723963A DE19723963A DE19723963A1 DE 19723963 A1 DE19723963 A1 DE 19723963A1 DE 19723963 A DE19723963 A DE 19723963A DE 19723963 A DE19723963 A DE 19723963A DE 19723963 A1 DE19723963 A1 DE 19723963A1
Authority
DE
Germany
Prior art keywords
vehicle
objects
relative position
section
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19723963A
Other languages
English (en)
Other versions
DE19723963C2 (de
Inventor
Yoshiyuki Sogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE19723963A1 publication Critical patent/DE19723963A1/de
Application granted granted Critical
Publication of DE19723963C2 publication Critical patent/DE19723963C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93273Sensor installation details on the top of the vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Description

Die vorliegende Erfindung betrifft eine Objekterken­ nungsvorrichtung und ein Objekterkennungsverfahren für ein Fahrzeug und insbesondere eine Objekterkennungsvorrichtung und ein Objekterkennungsverfahren, die für ein Fahrtunter­ stützungssystem eines Automobils oder für ein Steuerungssy­ stem für einen autonomen Fahrbetrieb eines autonom oder selbständig fahrenden Fahrzeugs verwendet werden.
Um ein sichereres Fahr- oder Betriebsgefühl eines Fahr­ zeugführers bei einer Fahrt durch enge Straßen mit häufig auftretenden Hindernissen, wie beispielsweise Wänden, Pfäh­ len, Stangen oder Lichtmasten, Leitschienen, geparkten Fahr­ zeugen und ähnlichen Hindernissen, zu gewährleisten, wurde eine Vorrichtung zum Erfassen solcher Hindernisse durch Tastsensoren, wie beispielsweise ein Eckenstabfühler, ein Kontaktschalter und ähnliche Einrichtungen, die auf einem Fahrzeug angeordnet sind, entwickelt.
Außerdem wurde ein Verfahren entwickelt, bei dem Ultra­ schallsensoren auf einer Seitenfläche oder an Ecken des Fahrzeugs angeordnet sind, um einen Abstand zu einem Hinder­ nis zu messen und einen Fahrzeugführer über den gemessenen Abstand zu informieren.
Außerdem wurde in den letzten Jahren ein Verfahren vor­ geschlagen, gemäß dem nicht nur ein Abstand zu einem Hinder­ nis erfaßt, sondern auch die Gestalt bzw. Form des Hinder­ nisses erkannt wird. Als Beispiel eines solchen Verfahrens wird durch den vorliegenden Anmelder in der offengelegten Japanischen Patentveröffentlichung Nr. 5-114099 eine Hin­ derniserkennungsvorrichtung beschrieben, bei der mehrere CCD-Kameras und eine Stereoskopbildverarbeitungseinrichtung zum Erkennen von um das Fahrzeug vorhandenen Hindernissen verwendet werden, um den Fahrzeugführer zu informieren. Die­ ses Hinderniserkennungssystem kann nicht nur eine Richtung und eine Form eines Hindernisses erkennen, sondern auch ei­ nen exakten Abstand zum Hindernis bestimmen.
Bei autonom oder selbständig fahrenden Fahrzeugen wird, um während der Fahrt eine Kollision oder einen Kontakt mit Hindernissen zu vermeiden, ein Verfahren angewendet, gemäß dem das Vorhandensein bzw. das Nichtvorhandensein von Hin­ dernissen unter Verwendung eines Infrarotsensors oder eines Ultraschallsensors erfaßt wird, wobei, wenn ein Hindernis vorhanden ist, eine Steuerung, wie beispielsweise eine Steuerung zum Anhalten des Fahrzeugs, ausgeführt wird.
Außerdem können gemäß einer kürzlich vorgeschlagenen intelligenten Steuerung für einen autonomen Fahrbetrieb für ein Fahrzeug, bei der die vorstehend erwähnte Stereoskop­ bildverarbeitungseinrichtung zum Erkennen von in der Nähe des Fahrzeugs vorhandenen Hindernissen verwendet wird, meh­ rere Hindernisse gleichzeitig erfaßt werden, um die Richtung und die Gestalt oder Form dieser Hindernisse zu erkennen und außerdem verschiedartige Steuerungen, z. B. eine Steuerung zum Anhalten des Fahrzeugs oder zum Steuern des Fahrzeugs in die Richtung, in der kein Hindernis vorhanden ist, auszufüh­ ren.
Bei der vorstehend erwähnten Hinderniserkennungsvor­ richtung, bei der Stereoskopkameras verwendet werden, tritt jedoch das Problem auf, daß, weil sie nur Hindernisse erken­ nen kann, die in ein Sichtfeld der Kameras kommen, z. B., Ka­ meras, deren Linsen in Vorwärtsrichtung des Fahrzeugs ausge­ richtet sind, nur im Sichtfeld der Kameras vorhandene Objek­ te erkannt werden können, Objekte außerhalb des Sichtfeldes jedoch nicht.
Daher besteht, wenn das Fahrzeug eine Kurve fährt bzw. eine Drehung ausführt, die Möglichkeit, daß das Fahrzeug mit einem an der Ecke stehenden Hindernis kollidiert. Um dies zu verhindern, könnten leicht zusätzliche Kameras installiert werden, um an beiden Seiten des Fahrzeugs angeordnete Hin­ dernisse zu erfassen, wobei diese Idee jedoch nicht geeignet ist, weil zusätzliche Kamerapositionen vorgesehen sein müs­ sen und die Kosten zunehmen.
Insbesondere im Fall eines autonom fahrenden Fahrzeugs, z. B. eines unbemannten Bodenreinigungsfahrzeugs, das Boden­ reinigungsarbeiten ausführt, ist es häufig erforderlich, ei­ nen genauen Arbeitsvorgang um ein Hindernis auszuführen. D.h., das Fahrzeug muß in der Lage sein, jedes um das Fahr­ zeug angeordnete Hindernis zu erkennen. In diesem Fall ist es aus dem gleichen Grund, wie im vorstehend erwähnten Fall, unzulässig, zusätzliche Kameras oder ähnliche Einrichtungen zu installieren.
Daher ist es eine Aufgabe der vorliegenden Erfindung, eine Objekterkennungsvorrichtung bereitzustellen, durch die Objekte um das Fahrzeug über einen weiten Bereich erfaßt werden können, ohne daß zusätzliche Kameras, Ultraschallsen­ soren oder andere komplizierte Objekterfassungsvorrichtungen verwendet werden. Diese Aufgabe wird durch die Merkmale der Patentansprüche gelöst.
Die Erfindung wird nachstehend unter Bezug auf die bei­ gefügten Zeichnungen beschrieben; es zeigen:
Fig. 1 ein Funktionsblockdiagramm eines Fahrtunterstüt­ zungssystems, bei dem eine erste Ausführungsform einer er­ findungsgemäßen Objekterfassungsvorrichtung verwendet wird;
Fig. 2 eine schematische Seitenansicht zum Darstellen des Gesamtaufbaus eines Fahrtunterstützungssystems, bei dem die erste Ausführungsform einer erfindungsgemäßen Objekter­ fassungsvorrichtung verwendet wird;
Fig. 3 eine schematische Draufsicht zum Darstellen des Gesamtaufbaus eines Fahrtunterstützungssystems, bei dem die erste Ausführungsform einer erfindungsgemäßen Objekterfas­ sungsvorrichtung verwendet wird;
Fig. 4 eine Ansicht zum Erläutern von bei der ersten Ausführungsform der vorliegenden Erfindung verwendeten Posi­ tionsinformationen über um das Fahrzeug angeordnete Objekte;
Fig. 5 eine Ansicht zum Erläutern einer gemäß der er­ sten Ausführungsform der vorliegenden Erfindung erfaßten Po­ sitionsänderung eines Objekts;
Fig. 6 eine Ansicht zum Darstellen von bei der ersten Ausführungsform der vorliegenden Erfindung vorgesehenen Ge­ fahrennäherungslinien;
Fig. 7 ein Ablaufdiagramm einer ersten Ausführungsform eines erfindungsgemäßen Fahrtunterstützungssystems;
Fig. 8 ein Funktionsblockdiagramm einer zweiten Ausfüh­ rungsform eines erfindungsgemäßen Fahrtunterstützungssy­ stems;
Fig. 9 eine schematische Seitenansicht zum Darstellen des Gesamtaufbaus eines Fahrtunterstützungssystems, bei dem eine zweite Ausführungsform einer erfindungsgemäßen Objekt­ erfassungsvorrichtung verwendet wird;
Fig. 10 eine schematische Draufsicht zum Darstellen des Gesamtaufbaus eines Fahrtunterstützungssystems, bei dem eine dritte Ausführungsform einer erfindungsgemäßen Objekterfas­ sungsvorrichtung verwendet wird;
Fig. 11 ein Ablaufdiagramm der zweiten Ausführungsform eines erfindungsgemäßen Fahrtunterstützungssystems;
Fig. 12 ein Funktionsblockdiagramm eines Steuerungssy­ stems für einen autonomen Fahrbetrieb, bei dem die dritte Ausführungsform einer erfindungsgemäßen Objekterfassungsvor­ richtung verwendet wird;
Fig. 13 eine schematische Seitenansicht zum Darstellen des Gesamtaufbaus eines Steuerungssystems für einen autono­ men Fahrbetrieb, bei dem die dritte Ausführungsform einer erfindungsgemäßen Objekterfassungsvorrichtung verwendet wird;
Fig. 14 eine schematische Draufsicht zum Darstellen des Gesamtaufbaus eines Steuerungssystems für einen autonomen Fahrbetrieb, bei dem die dritte Ausführungsform einer erfin­ dungsgemäßen Objekterfassungsvorrichtung verwendet wird;
Fig. 15 eine Ansicht zum Erläutern von bei der dritten Ausführungsform der vorliegenden Erfindung verwendeten Posi­ tionsinformationen von um ein Fahrzeug angeordneten Objek­ ten;
Fig. 16 ein Ablaufdiagramm für die dritte Ausführungs­ form eines erfindungsgemäßen Steuerungssystems für einen au­ tonomen Fahrbetrieb;
Fig. 17 ein Funktionsblockdiagramm einer vierten Aus­ führungsform eines erfindungsgemäßen Steuerungssystems für einen autonomen Fahrbetrieb;
Fig. 18 eine schematische Seitenansicht zum Darstellen des Gesamtaufbaus eines Steuerungssystems für einen autono­ men Fahrbetrieb, bei dem eine vierte Ausführungsform einer erfindungsgemäßen Objekterfassungsvorrichtung verwendet wird;
Fig. 19 eine schematische Draufsicht zum Darstellen des Gesamtaufbaus eines Steuerungssystems für einen autonomen Fahrbetrieb, bei dem eine vierte Ausführungsform einer er­ findungsgemäßen Objekterfassungsvorrichtung verwendet wird;
Fig. 20 eine Ansicht zum Erläutern von bei der vierten Ausführungsform der vorliegenden Erfindung verwendeten Posi­ tionsinformationen von um ein Fahrzeug angeordneten Objek­ ten; und
Fig. 21 ein Ablaufdiagramm der vierten Ausführungsform eines erfindungsgemäßen Steuerungssystems für einen autono­ men Fahrbetrieb.
Fig. 2 und 3 zeigen ein motorbetriebenes Fahrzeug 1 mit einem Fahrtunterstützungssystem 2 zum Unterstützen eines Fahrers hinsichtlich der Beurteilung der Möglichkeit eines Zusammenstoßes des Fahrzeugs mit Hindernissen auf einer Straße, wie beispielsweise Seitenwänden, Leitschienen, Stan­ gen, Pfählen oder Lichtmasten, geparkten Autos und ähnlichen Hindernissen, und zum Darstellen des Ergebnisses dieser Be­ urteilung für den Fahrer.
Das Fahrtunterstützungssystem 2 weist auf: ein stereo­ skopisches optisches System 3 zum Aufnehmen von in einem vorgegebenen Bereich außen angeordneten Objekten, einen Lenkwinkelsensor 4 zum Erfassen eines Lenkwinkels, einen Hinterrad-Drehzahlsensor 5 zum Erfassen der Drehzahl eines Hinterrads, eine Steuerungsvorrichtung 6, durch die beur­ teilt wird, ob eine enge Straße durchfahren werden kann, oder die Möglichkeit einer Kollision mit Hindernissen be­ steht, und einen Anzeigeabschnitt 7, durch den ein Fahrzeug­ führer über das Ergebnis der Beurteilung informiert wird.
Das stereoskopische optische System 3 besteht aus einem Paar CCD-Kameras 3L, 3R (eine linke bzw. eine rechte Kame­ ra), die in einem vorgegebenen Abstand an der Decke im vor­ deren Abschnitt des Fahrgastraum angeordnet sind, um Stereo­ skopbilder von Objekten außerhalb des Fahrzeugs aufzunehmen.
Die Steuerungsvorrichtung 6 weist eine Fahrzeug- Rundumobjekterkennungsvorrichtung 10 und einen Abschnitt 20 zum Ausgeben des Ergebnisses einer Kollisionsbeurteilung auf. Im Objekterkennungsabschnitt 10 werden Positionsinfor­ mationen über um das Fahrzeug angeordnete Objekte basierend auf dem durch das stereoskopische optische System 3 aufge­ nommenen Bild, dem durch den Lenksensor 4 erfaßten Lenkwin­ kel und der durch den Hinterrad-Drehzahlsensor 5 erfaßten Hinterrad-Drehzahl berechnet, und im Abschnitt 20 zum Ausge­ ben des Ergebnisses einer Kollisionsbeurteilung wird die Möglichkeit einer Kollision mit Hindernissen basierend auf den von der Fahrzeug-Rundumobjekterkennungsvorrichtung 10 erhaltenen Positionsinformationen von Objekten, falls erfor­ derlich, ausgegeben.
Der Anzeigeabschnitt 7 besteht aus mehreren lichtemit­ tierenden Objekten, wie beispielsweise elektrischen Lampen oder Leuchtdioden. Davon bezeichnen die Bezugszeichen 7FL und 7FR einen an der Oberseite des linken bzw. des rechten Kotflügels der Fahrzeugkarosserie angeordneten Anzeigeab­ schnitt. Die Bezugszeichen 7IL und 7IR bezeichnen einen im Armaturenbrett bzw. in der Instrumententafel angeordneten Anzeigeabschnitt, und Bezugszeichen 7S bezeichnet einen in der Nähe des Seitenspiegels an der Beifahrerseite angeordne­ ten Anzeigeabschnitt. Diese Anzeigeabschnitte werden gemäß Ausgangssignalen vom Abschnitt 20 zum Ausgeben des Ergebnis­ ses einer Kollisionsbeurteilung aktiviert. Sie sind bei­ spielsweise so aufgebaut, daß eine rote Lampe flimmert oder eingeschaltet wird, wenn festgestellt wird, daß eine Kolli­ sion auftreten wird, eine gelbe Lampe flimmert oder einge­ schaltet wird, wenn festgestellt wird, daß eine Kollision in Abhängigkeit von der zukünftigen Lenkungsbetätigung des Fah­ rers auftreten kann, und eine grüne Lampe eingeschaltet ist, wenn festgestellt wird, daß zwischen dem Fahrzeug und Objek­ ten genügend Raum vorhanden ist bzw. keine Kollisionsgefahr besteht.
Die Fahrzeug-Rundumobjekterkennungsvorrichtung 10 weist ferner einen Stereoskopbildverarbeitungsabschnitt 11, einen Objekterkennungsabschnitt 12, einen Abschnitt 13 zum Berech­ nen von Objektpositionsinformationen und einen Speicherab­ schnitt 14 auf.
Im Stereoskopbildverarbeitungsabschnitt 11 wird eine Abstandsinformation gemäß einem Triangulationsprinzip aus einem Gesamtbild erhalten, das aus einem Paar durch das ste­ reoskopische optische System 3 aufgenommenen Stereoskopbil­ der besteht, werden Abstandsbilder, die dreidimensionale Ab­ standsverteilungen aufweisen, basierend auf dieser Abstands­ information gebildet und diese Abstandsbilder an den Objekt­ erkennungsabschnitt 12 ausgegeben. Daher wird durch das ste­ reoskopische optische System 3 und den Stereoskopbildverar­ beitungsabschnitt 11 eine Objekterfassungseinrichtung gebil­ det.
Im einzelnen werden im Stereoskopbildverarbeitungsab­ schnitt 11 die Abstandsverteilungen durch Auffinden einer Übereinstimmung von Helligkeits- oder Farbmustern zwischen dem linken und dem rechten Bild für jeden kleinen Bereich erhalten, durch die ein vorgegebenes Bild gebildet wird. Wenn das "i"-te Bildelement des linken und des rechten Bil­ des als Ai bzw. Bi dargestellt wird (bezüglich der Hellig­ keit oder der Farbe), wird die Bestimmung der Übereinstim­ mung zwischen dem linken und dem rechten Bild basierend auf dem folgenden City-Blockabstand H durchgeführt. D.h., es wird festgestellt, daß der linke und der rechte kleine Be­ reich miteinander übereinstimmen, wenn der Minimalwert des City-Blockabstands H eine vorgegebene Bedingung erfüllt.
H = Σ |Ai - Bi| (1)
Die Abstandsverteilungsinformation, d. h. die Abstandsbilder, sind in einer vorgegebenen Größe des Bildes (z. B. 400×200 Bildelementen) in einem Koordinatensystem angeordnet. In diesem Beispiel hat das Koordinatensystem einen Ursprung an der linken oberen Ecke, wobei eine "i"-Achse in Querrichtung und eine "j"-Achse in Längsrichtung angeordnet sind.
Der Objekterkennungsabschnitt 12 ist eine Objekterken­ nungseinrichtung zum Extrahieren mehrerer vor dem Fahrzeug angeordneter Objekte aus dem Abstandsbild, zum Berechnen der Position und der Größe jedes Objekt und zum Erzeugen eines Bildes einer Grenz- oder Umrißlinie des Objekts. Beim Extra­ hieren eines Objekts wird basierend auf einer Höheninforma­ tion in den dreidimensionalen Positionsdaten des Objekts un­ terschieden zwischen dem Objekt und der Straße, und durch die Abstandsinformation wird das Objekt vom Hintergrund ge­ trennt. Weil diese Höhen- oder Abstandsinformationen aus ei­ nem Bezugskoordinatensystem erhalten werden, wird zunächst das Koordinatensystem im Stereoskopbildverarbeitungsab­ schnitt 11 in ein neues Koordinatensystem im realen Raum oder Realraum um das Fahrzeug 1 transformiert.
Dieses praktische Koordinatensystem im Realraum wird durch orthogonale Koordinaten gebildet, deren Ursprung auf die Mitte des Fahrzeugs 1 festgelegt ist (exakt auf einen Punkt der Straßenoberfläche unmittelbar unter der Fahrzeug­ mitte), wobei die X-Achse des Koordinatensystems in Seiten- oder Querrichtung des Fahrzeugs 1, die Y-Achse in Längsrich­ tung des Fahrzeugs und die Z-Achse in vertikaler Richtung des Fahrzeugs ausgerichtet ist. In diesem Fall stimmt die X- Y-Ebene (Z=0) mit der Straßenoberfläche überein, vorausge­ setzt, daß die Straße eben ist. Um die dreidimensionale Po­ sition (X, Y, Z) eines Objekts im Realraumkoordinatensystem aus der Abstandsinformation (i, j) im Bild zu berechnen, wird gemäß den folgenden Gleichungen (2) und (3) eine Koor­ dinatentransformation durchgeführt.
Z = CH-Y x PW × (j - JV) (2)
X = r/2 - ρ + Y × PW × (i - IV) (3)
wobei
CH: Höhe der Kameras
PW: Sichtwinkel je Bildelement
IV: i-Koordinate eines unendlich entfernten Punk­ tes in Geradeausrichtung vor dem Fahrzeug 1
JV: j-Koordinate eines unendlich entfernten Punk­ tes in Geradeausrichtung vor dem Fahrzeug 1
r: Abstand zwischen den beiden Kameras
ρ: Abweichung des Mittelpunktes der beiden Kame­ ras von der Fahrzeugmitte
Umgekehrt wird die Abstandsinformation (i, j) im Bild aus der dreidimensionalen Koordinate (X, Y, Z) des Realraumkoor­ dinatensystems gemäß den folgenden Gleichungen (4) und (5) berechnet, die durch Transformation der Gleichungen (2) und (3) erhalten werden.
j = (CH - Z)/(Y × PW) + JV (4)
i = (X - r/2 + p)/(Y × PW) + IV (5)
Außerdem wird im Objekterkennungsabschnitt 12, wie nachstehend beschrieben wird, eine "Objekterkennung", wie beispielsweise die Erkennung von Hindernissen, z. B. von ge­ parkten Automobilen, getrennt von einer "Wanderfassung", z. B. der Erfassung von Seitenwänden an der Straßenseite, durchgeführt. Bei einer "Objekterkennung" wird nur ein Ob­ jekt aus den Abstandsbilddaten vom Stereoskopbildverarbei­ tungsabschnitt 11 ausgewählt, das die Fahrt des Fahrzeug be­ hindern kann. Das Abstandsbild wird in vertikaler Richtung in mehrere Abschnitte unterteilt. Die Breite eines Ab­ schnitts beträgt 8 bis 20 Bildelemente. Bei dieser Ausfüh­ rungsform werden, weil 400 Bildelemente in der Seitenrich­ tung angeordnet sind, in einem Bild 20 bis 50 Abschnitte ge­ bildet. Im Objekterkennungsabschnitt 12 können, weil für je­ den Abschnitt Objekte erfaßt werden, mehrere Objekte gleich­ zeitig erfaßt werden. Daraufhin wird auch der Abstand zu den erfaßten Objekten berechnet.
Bezüglich den Objekten jedes Abschnitts wird aus der Koordinate (i, j) des Bildes und dem Abstandsdatenelement Y unter Verwendung der vorstehenden Gleichungen (2) und (3) eine dreidimensionale Position (X, Y, Z) eines Objekts im Realraum berechnet. Die Höhe H des Objektes bezüglich der Straßenoberfläche wird gemäß der folgenden Gleichung berech­ net:
H = Z - Zr (6)
wobei Zr die Höhe der Straßenoberfläche ist. Allgemein wird vorausgesetzt, daß Zr= 0,0 m beträgt, außer für den Fall, wenn das Fahrzeug geneigt ist oder sich in vertikaler Richtung bewegt. Wenn die Höhe des Objekt kleiner ist als etwa 0,1 m, wird angenommen, daß das Objekt kein Hindernis ist, so daß die Daten des Objekts verworfen werden. Daher werden Daten der Straße selbst, von Fahrbahnmarkierungen, Schatten und ähnliche Daten aus den Bilddaten gelöscht. Andererseits kön­ nen Objekte, deren Höhe größer ist als das Fahrzeug, verwor­ fen werden, weil angenommen wird, daß diese Fußgängerbrüc­ ken, Straßenschilder und ähnliche Einrichtungen sind. Daher werden nur Objekte ausgewählt, durch die die Fahrt behindert wird. Durch diese Verarbeitung der Höhendaten, können im zweidimensionalen Bild der Straße überlagerte Objekte von der Straße unterschieden werden.
Daraufhin wird bezüglich der Daten der derart extra­ hierten Objekte eines Abschnitts die Anzahl der in einem vorgegebenen Abstand Y enthaltenen Daten gezählt, und es wird ein Histogramm erzeugt, dessen Abszissenachse der Ab­ stand Y ist. Der vorgegebene Abstand Y wird festgelegt, in­ dem die Erfassungsgrenze, die Erfassungsgenauigkeit, die Form des Objektes und ähnliche Faktoren berücksichtigt wer­ den.
Weil im derart erzeugten Histogramm fehlerhaft erfaßte Werte enthalten sind, erscheinen einige wenige Daten an ei­ ner Position, wo tatsächlich kein Objekt vorhanden ist. Wo auch immer ein Objekt mit einer gewissen Größe vorhanden ist, tritt an der Position, wo das Objekt vorhanden ist, ei­ ne große Häufigkeit von Datenpunkten auf. An Positionen, wo kein Objekt vorhanden ist, erscheint dagegen eine geringe Häufigkeit von Datenpunkten.
Wenn daher die Häufigkeit bei einem bestimmten Abstand Y einen vorgegebenen Wert überschreitet, wird festgestellt, daß dort ein Objekt vorhanden ist. Wenn die Häufigkeit über einen bestimmten Bereich kleiner ist als der vorgegebene Wert, wird festgestellt, daß innerhalb dieses Bereichs kein Objekt vorhanden ist, wodurch ein nachteiliger Einfluß durch Rauschen eliminiert werden kann.
Wenn festgestellt wird, daß Objekte vorhanden sind, wird der Abstand Y zu dem Objekt durch Bilden eines Mittel­ wertes der Abstandsdaten Y und der Daten in der Nähe von Y erhalten. Diese Verarbeitungen zum Erfassen von Objekten und zum Berechnen des Abstands werden für alle Abschnitte ausge­ führt. Wenn der Unterschied zwischen dem Abstand zu einem erfaßten Objekt in einem bestimmten Abschnitt und dem Ab­ stand zu einem erfaßten Objekt in einem in der Nähe angeord­ neten Abschnitt kleiner ist als ein vorgegebener Wert, wird angenommen, daß diese Objekte das gleiche Objekt darstellen. Wenn diese Differenz dagegen größer ist als ein vorgegebener Wert, werden diese Objekte als verschiedene Objekte betrach­ tet. Daher kann, auch wenn mehrere Objekte einander überla­ gert sind, ein unabhängiges Objekt durch die unterschiedli­ chen Abstände identifiziert werden.
Nachstehend wird die Transformation der erfaßten Objek­ te im dreidimensionalen Raum in den zweidimensionalen Raum beschrieben. Zunächst wird ein "dreidimensionales Fenster" eingerichtet, das die Objekte enthält, und dann wird aus diesem "dreidimensionalen Fenster" ein "zweidimensionales Fenster" erzeugt. Im einzelnen werden zweidimensionale Koor­ dinaten (in, jn) unter Verwendung der vorstehenden Gleichun­ gen (4) und (5) bezüglich jedem von acht Eckpunkten (Xn, Yn, Zn) eines dreidimensionalen Fensters berechnet, und es wer­ den Polygone durch Umhüllen dieser zweidimensionalen Koordi­ naten (in, jn) erzeugt. Dadurch werden Umrißlinien der Ob­ jekte aus den im dreidimensionalen Fenster enthaltenen Daten extrahiert.
Hinsichtlich der Wanderfassung im Objekterkennungsab­ schnitt 12, wird die Seitenwand auf der Straßenseite durch den Höhenunterschied zwischen der Seitenwand und der Stra­ ßenoberfläche von der Straße unterschieden. Die Seitenwand wird durch den Unterschied der Abstände in der Seiten- und in der Längsrichtung des Bildes vom fernen Hintergrund un­ terschieden.
D.h., es werden aus der Abstandverteilungsinformation zunächst nur Daten von Objekten extrahiert, die höher sind als die Straßenoberfläche, daraufhin werden daraus nur in einem vorgegebenen Suchbereich der Seitenwand vorhandene Da­ ten der Seitenwand extrahiert, wenn die Seitenwand exi­ stiert, wobei ihre Position durch lineare Gleichungen durch Anwenden eines Huff-Transformationsverfahrens dargestellt wird. Basierend auf diesen linearen Gleichungen wird, indem ein Seitenwandexistenzbereich eingerichtet wird, in dem die Seitenwand vermutet wird, das nächste und das entfernteste Ende der Seitenwand von diesen Objektdaten im Seitenwandexi­ stenzbereich erfaßt.
D.h., weil die Seitenwand auch ein Objekt ist, werden zunächst Daten von Objekten, die höher sind als die Straßen­ oberfläche, aus dem Abstandsbild extrahiert. Daraufhin werden die Daten von Objekten, die niedriger sind als eine Höhe von etwa 0,1 m, verworfen, weil vorausgesetzt wird, daß diese Fahrbahnmarkierungen, Verschmutzungen, Schatten oder ähnli­ che Objekte auf der Straße darstellen. Außerdem werden Daten von Objekten, die höher sind als die Höhe des Fahrzeugs, verworfen, weil diese als Fußgängerbrücken, Verkehrszeichen und ähnliche Einrichtungen betrachtet werden. Daher werden nur Objekte über der Straßenoberfläche ausgewählt.
Wenn die derart extrahierten Daten verarbeitet werden, wird, weil es nicht effizient ist, alle Daten im Bild zu verarbeiten, eine Grenze in einem Suchbereich festgelegt, in dem die Seitenwand gesucht werden soll.
Allgemein sind die Seitenwände an der linken und der rechten Seite der Straße parallel zum Fahrzeug 1 angeordnet. Außerdem können Daten der weit vom Fahrzeug entfernten Sei­ tenwand aus den erforderlichen Daten gelöscht werden. Wenn dies berücksichtigt wird, werden zwei Suchbereiche an der linken bzw. der rechten Straßenseite eingerichtet, und die Erfassung wird getrennt für jeden Suchbereich durchgeführt.
Anschließend werden die zweidimensionalen Positionen (X-, Y-Koordinaten) der in jedem der Suchbereiche enthalte­ nen Objekte berechnet. Weil die Daten in den Suchbereichen nicht nur Daten der Seitenwand selbst, sondern auch Daten anderer Objekte enthalten, sind auch Rauschdaten enthalten. Aus diesen verschiedenartigen Daten werden unter Verwendung des Huff-Transformationsverfahrens nur linear angeordnete Daten extrahiert, und die Umrißlinie der Seitenwand wird er­ zeugt.
Im einzelnen wird, wenn die Erfassung der linearen Gleichung gemäß der Huff-Transformation zunächst bezüglich einer Position (Xi, Yi) eines Objekts beschrieben wird, eine durch Pi verlaufende gerade Linie Fi vorausgesetzt. Die Gleichung der geraden Linie wird dargestellt durch:
X = afi × Y + bfi (7)
Anschließend wird, wenn ein Parameterraum vorausgesetzt wird, durch den ein Gradient af und ein Achsenabschnitt oder Abschnitt bf parametrisiert werden, eine Häufigkeitsbestim­ mung der Kombination der Parameter afi und bfi bezüglich Pi (Xi, Yi) vorgenommen.
Weil vorausgesetzt wird, daß die Seitenwand etwa paral­ lel zum Fahrzeug 1 angeordnet ist, sollte der Wert des Gra­ dienten afi groß genug sein, z. B. im Bereich von ±20 Grad liegen. Außerdem sollte der Wert des Abschnitts bfi -1 m bis -10 m an der linken Straßenseite und +1 m bis +10 m an der rechten Straßenseite betragen, weil die Erfassung einer weit vom Fahrzeug entfernten Seitenwand in der Praxis nicht er­ forderlich ist.
Durch diese Festlegung der Bereiche wird ein rechtecki­ ger Bereich gebildet, in dem Häufigkeitsermittlungen vorge­ nommen werden. Außerdem wird dieser rechteckige Bereich in mehrere Gitter unterteilt. Der Gradient afi von Gleichung (7) wird um ein Gitterintervall Δaf innerhalb des vorgegebe­ nen Bereichs (z. B. ±20 Grad) geändert. Durch Ersetzen dieses Gradienten afi und der Koordinaten (Xi, Yi) der Objektdaten Pi in Gleichung (7), wird der Wert des Abschnitts bfi erhal­ ten. Wenn der derart erhaltene Wert bfi innerhalb des vorge­ gebenen Bereichs liegt, wird für ein entsprechendes Gitter des Parameterraums ein Zählwert vorwärts gezählt.
Die Positionsgenauigkeit der erfaßten Seitenwand, d. h. die Erfassungsgenauigkeit des Gradienten und des Abschnitts der linearen Gleichung, ist abhängig von Δaf und Δbf. Bei der Bestimmung des Gitterintervalls von Δaf wird Δbf unter Verwendung dieser Seitenwandinformation dem erforderlichen Pegel der Peripheriegeräte angepaßt.
Wenn als Ergebnis der Häufigkeitsermittlung im Parame­ terraum Daten in einer geraden Linie angeordnet sind, ent­ hält das den Parametern afi, bfi der geraden Linie entspre­ chende Gitter einen hohen Zählwert. Dadurch erscheint im linken und im rechten Häufigkeitsermittlungsbereich ein lo­ kales Maximum.
Wenn eine Seitenwand vorhanden ist, d. h., eine offen­ sichtliche Anordnung von Objektdaten existiert, stellt das lokale Maximum einen großen Wert dar. Wenn dagegen keine Seitenwand vorhanden ist, d. h., Objektdaten verstreut ver­ teilt sind, stellt das lokale Maximum einen kleinen Wert dar. Daher kann festgestellt werden, ob eine Seitenwand vor­ handen ist, indem erfaßt wird, ob der Wert des lokalen Maxi­ mums größer ist als ein vorgegebener Entscheidungswert. Die­ ser Entscheidungswert wird unter Berücksichtigung der Größe des Suchbereichs, des Gitterintervalls und ähnlicher Fakto­ ren festgelegt.
Anschließend wird, wenn eine Seitenwand vorhanden ist, die Position des nächsten und des am weitesten entfernten Endes erfaßt. Zunächst wird ein Wandexistenzbereich durch eine gerade Linie festgelegt, entlang der eine Seitenwand vermutet wird. Der Wandexistenzbereich hat eine Breite von 0,3 m bis 1,0 m, wobei die gerade Linie in der Mitte angeord­ net ist. Außerdem wird, nachdem dieser Bereich in der Y- Richtung in Scheiben unterteilt wurde, die Anzahl der Ob­ jektdaten in der Scheibe vorwärts gezählt, um ein Histogramm zu erstellen. Wenn eine Scheibe gefunden wird, in der die Häufigkeit größer ist als ein vorgegebener Wert, wird fest­ gestellt, daß in deren Nähe eine Seitenwand vorhanden ist. Daher wird die dreidimensionale Position für alle Seitenwän­ de berechnet, und das nächste und das am weitesten entfernte Ende werden erfaßt.
Bei den vorstehenden Verarbeitungen werden Parameter der Position von Objekten auf Straßen, der Form von Objekten und andere Parameter aus dem Abstandsbild gelesen und dem Abschnitt 13 zum Berechnen von Objektpositionsinformationen zugeführt, der eine Einrichtung zum Berechnen von Objektpo­ sitionsinformationen bildet.
Im Abschnitt 13 zum Berechnen von Objektpositionsinfor­ mationen werden, nachdem die im Speicherabschnitt 14 gespei­ cherten Objektpositionsinformationen aktualisiert wurden, basierend auf dem durch den Lenksensor 4 erfaßten Lenkwin­ kel, der durch den Hinterrad-Drehzahlsensor 5 erfaßten Dreh­ zahl des Hinterrades und der vom Objekterkennungsabschnitt 12 erhaltenen Information neue Positionsinformationen von Objekten um das Fahrzeug berechnet.
Gemäß Fig. 4 sind die neuen Positionsinformationen von Objekten um das Fahrzeug Positionsinformationen innerhalb eines Bereichs QRST, die durch neu erhaltene Informationen (Informationen innerhalb eines Bereichs PQR) vom Objekter­ kennungsabschnitt 12 und durch zuvor vom Objekterkennungsab­ schnitt 12 erhaltene Informationen gebildet werden.
D.h., wenn das Fahrzeug eine Strecke M zurückgelegt hat und neue Positionsinformationen des Bereichs PQR vom Objekt­ erkennungsabschnitt 12 erhalten werden, werden die vorherge­ henden Positionsinformationen eines Bereichs Q′R′S′T′ aktua­ lisiert. In diesem Fall werden die aus dem Speicherbereich überlaufenden Daten (Daten eines Bereichs TSS′T′) und die (mit den neu erhaltenen Daten des Bereichs PQR überlappen­ den) Daten eines Bereichs PEF gelöscht und dann die neuen Positionsinformationen des Bereichs PQR hinzugefügt. Die derart erhaltenen Daten der aktuellen Objektpositionsinfor­ mation werden wieder im Speicherabschnitt 14 gespeichert und an den Abschnitt 20 zum Ausgeben des Ergebnisses einer Kol­ lisionsbeurteilung ausgegeben. Fig. 4 zeigt anhand eines leicht verständlichen Beispiels den Fall eines in Geradeaus­ richtung fahrenden Fahrzeugs, wobei die aktuellen Objektpo­ sitionsinformationen jedoch auf ähnliche Weise erhalten wer­ den können, wenn das Fahrzeug eine Kurve fährt bzw. eine Drehung ausführt.
Daher können gemäß der im Zusammenhang mit der ersten Ausführungsform der vorliegenden Erfindung beschriebenen Fahrzeug-Rundumobjekterkennungsvorrichtung 10, weil die Po­ sition eines Objekts auch dann bekannt ist, nachdem dieses Objekt das Sichtfeld einer Kamera verlassen hat, Objekte um das Fahrzeug in einem breiten Bereich erfaßt werden, ohne daß zusätzliche Kameras oder andere komplizierte Vorrichtun­ gen erforderlich sind.
Die neuen Objektpositionsinformationen werden gemäß nachstehenden Gleichungen aus den vorhergehenden Objektposi­ tionsinformationen erhalten.
Gemäß Fig. 5 bewegt sich, wenn das Fahrzeug in Gerade­ ausrichtung fährt, ein Objekt an einem Punkt A (xa, ya) zum Punkt B (xb, yb). In diesem Fall ist, weil das Fahrzeug ge­ radeaus fährt, xa = xb. Wenn vorausgesetzt wird, daß der Fahr­ wert des Hinterrades ΔM beträgt, gilt yb = ya - ΔM. Die durch (xold, yold) dargestellte vorangehende Position verschiebt sich gemäß den folgenden Gleichungen zur durch (xnew, ynew) dargestellten neuen Position:
xnew = xold (8)
ynew = yold - ΔM (9)
Außerdem verschiebt sich, wenn das Fahrzeug eine Dre­ hung mit dem Punkt P (XCE, YCE) als Mittelpunkt ausführt, der Punkt B (xb, yb) zum Punkt C (xc, yc). Wenn der Lenkwinkel durch δ dargestellt wird, werden die Koordinaten des Punktes PC durch folgende Gleichungen dargestellt:
XCE = f(δ) (10)
YCE = 0 (11)
wobei f(δ) ein unter Bezug auf eine vorgegebene Tabelle, durch die der Lenkwinkel δ parametrisiert wird, erhaltener Wert ist.
Der Drehwinkel θc bei Kurvenfahrt wird durch folgende Gleichung dargestellt:
θc = ΔM/(XCE - XW) (12)
wobei XW ein Offset-Wert des Hinterrades in X-Richtung be­ züglich der Kameraposition ist.
Wenn das Fahrzeug eine Drehung um den Drehwinkel θc ausführt, verschiebt sich die vorhergehende Objektposition der Koordinate (xold, yold) zur Koordinate (xnew, ynew), die folgendermaßen berechnet wird:
xnew = r × cos (a + θc) + XCE (13)
ynew = r × sin (a + θc) + YCE (14)
wobei r = ((xold - XCE)² + (yold - YCE)²)1/2
a = arctan ((yold - YCE)/(xold - XCE))
Im Abschnitt 20 zum Ausgeben des Ergebnisses einer Kol­ lisionsbeurteilung wird die Wahrscheinlichkeit einer Kolli­ sion mit einem Objekt basierend auf der derart erhaltenen Objektpositionsinformation und einer gespeicherten Informa­ tion über die äußere Form des Fahrzeugs beurteilt, und das Beurteilungsergebnis wird an den vorstehend erwähnten Anzei­ geabschnitt 7 ausgegeben.
Wie in Fig. 6 dargestellt, sind an der linken und an der rechten Seite des Fahrzeugs eine linke Gefahrennähe­ rungslinie LA und eine rechte Gefahrennäherungslinie RA ein­ gerichtet. Wenn das Objekt oder Hindernis innerhalb dieser Gefahrennäherungslinien LA und RA vorhanden ist, wird eine der Warnlampen 7FL, 7FR, 7IL und 7IR ausgewählt, um ein ro­ tes Licht einzuschalten. Wenn beispielsweise das Objekt an der linken Seite des Fahrzeugs vorhanden ist, leuchten die Warnlampe 7FL auf dem linken Kotflügel und die Warnlampe 7IL auf der Instrumententafel bzw. dem Armaturenbrett auf. Wenn dagegen das Objekt an der rechten Seite des Fahrzeugs vor­ handen ist, leuchten die Warnlampe 7FR auf dem rechten Kot­ flügel und die Warnlampe 7IR auf der Instrumententafel bzw. dem Armaturenbrett auf.
Ferner sind eine linke Gefahrennäherungslinie LB und eine rechte Gefahrennäherungslinie RB außerhalb der Gefah­ rennäherungslinien LA bzw. RA eingerichtet. Wenn das Objekt zwischen der Gefahrennäherungslinie LA und der Gefahrennähe­ rungslinie LB vorhanden ist, wird festgestellt, daß das Fahrzeug in Abhängigkeit von der Handhabung bzw. Bedienung des Fahrzeugs durch den Fahrer zukünftig mit dem Objekt kol­ lidieren kann, wobei ein gelbes Licht in den Warnlampen 7FL und 7IL aufleuchtet. Wenn dagegen das Objekt zwischen der Gefahrennäherungslinie RA und der Gefahrennäherungslinie RB vorhanden ist, leuchtet ähnlicherweise ein gelbes Licht in den Warnlampen 7FR und 7IR auf.
Außerdem wird, wenn das Objekt außerhalb der Gefahren­ näherungslinien LB und RB vorhanden ist, festgestellt, daß zwischen dem Objekt und dem Fahrzeug ein geeigneter Abstand vorhanden ist, so daß keine Kollisionsgefahr besteht. In diesem Fall wird in den Warnlampen 7FL und 7IL ein grünes Licht eingeschaltet, usw.
Im in Fig. 6 dargestellten Beispiel sind die Gefahren­ näherungslinien LA, RA, LB und RB gerade, parallel zueinan­ der verlaufende Linien, diese Linien müssen jedoch nicht notwendigerweise gerade oder parallel verlaufen. Es kann ei­ ne beliebige Form von Linien oder Kurven ausgewählt oder in Abhängigkeit von der Fahrzeuggeschwindigkeit oder dem Lenk­ winkel verändert werden.
Nachstehend wird die erste Ausführungsform einer erfin­ dungsgemäßen Fahrtunterstützungssteuerung unter Bezug auf das in Fig. 7 dargestellte Ablaufdiagramm beschrieben.
Zunächst werden bei Schritt (nachstehend als S bezeich­ net) 101 ein Lenkwinkel δ und ein aus der Drehzahl des Hin­ terrades berechnet er Fahrwert des Hinterrades vom Lenkwin­ kelsensor 4 bzw. vom Hinterrad-Drehzahlsensor 5 gelesen. Au­ ßerdem wird gleichzeitig eine vorangehende Objektpositi­ onsinformation vom Speicherabschnitt 14 des Fahrzeug- Rundumobjekterkennungsabschnitts 10 gelesen.
Daraufhin schreitet das Programm zu S102 fort, wo fest­ gestellt wird, ob das Fahrzeug 1 eine Drehung ausführt oder geradeaus fährt. Wenn es geradeaus fährt, schreitet das Pro­ gramm zu S103 fort, und wenn es eine Drehung ausführt, schreitet das Programm zu S104 fort.
Wenn das Programm zu S103 fortschreitet, wird die Ob­ jektpositionsinformation durch Addieren eines Fahrwerts ΔM des Hinterrades zur neuen Objektpositionsinformation ver­ schoben. (vergl. Gleichungen (8) und (9)). Wenn das Programm dagegen zu S104 fortschreitet, werden der Drehmittelpunkt Pc und der Drehwinkel θc basierend auf dem Lenkwinkel δ und dem Fahrwert ΔM des Hinterrades gemäß den Gleichungen (10), (11) und (12) berechnet, und beim nächsten Schritt S105 wird die vorangehende Objektpositi­ onsinformation so weit gedreht, wie dem Drehwinkel θc um den Drehmittelpunkt Pc entspricht. Im einzelnen wird die durch die Koordinaten (xnew, ynew) dargestellte neue Objektpositi­ onsinformation gemäß den Gleichungen (13) und (14) berech­ net.
Das Programm schreitet von S103 oder S105 zu S106 fort, wo die durch die Verarbeitung bei S103 oder S105 aus dem Speicherbereich überlaufenden Daten gelöscht werden.
Anschließend schreitet das Programm zu S107 fort, wo die mit den neu erhaltenen Objektpositionsinformationen überlappenden Daten aus den vorhergehenden Objektpositi­ onsinformationen gelöscht werden.
Daraufhin schreitet das Programm zu S108 fort, wo die neu erhaltenen Objektpositionsinformationen gelesen werden, d. h., die Daten des Objekts, die durch die Verarbeitung des durch das stereoskopische optische System 3 aufgenommenen Bildes im Stereoskopbildverarbeitungsabschnitt 11 und im Ob­ jekterkennungsabschnitt 12 erhalten wurden. Anschließend schreitet das Programm zu S109 fort, wo diese Daten zu der bei S107 gebildeten vorangehenden Objektpositionsinformation addiert werden, um sie zu speichern. Die derart erhaltenen Objektpositionsinformationen sind aktualisierte neue Positi­ onsinformationen über um das Fahrzeug angeordnete Objekte. Die bei den Schritten S102 bis S108 ausgeführten Verarbei­ tungen entsprechen den im Abschnitt 13 zum Berechnen von Ob­ jektpositionsinformationen und im Speicherabschnitt 14 aus­ geführten Verarbeitungen.
Außerdem schreitet das Programm zu S110 fort, bei dem die Möglichkeit einer Kollision des Fahrzeugs mit dem Objekt basierend auf diesen aktualisierten neuen Positionsinforma­ tionen über um das Fahrzeug angeordnete Objekte unter Bezug auf die gespeicherte äußere Form des Fahrzeugs beurteilt wird. Daraufhin schreitet das Programm zu S111 fort, wo ge­ mäß dem Ergebnis der Beurteilung bei S110 ein Signal an den Anzeigeabschnitt 7 ausgegeben wird. Die bei S110 und S111 ausgeführten Verarbeitungen entsprechen den im Abschnitt 20 zum Ausgeben des Ergebnisses einer Kollisionsbeurteilung ausgeführten Verarbeitungen.
Die vorstehenden Positionsinformationen über um das Fahrzeug angeordnete Objekte werden bei der nächsten Ausfüh­ rung des Programms als die vorangehenden Objektpositionsin­ formationen eingelesen und verarbeitet.
Gemäß der ersten Ausführungsform einer Fahrzeug- Rundumobjekterkennungsvorrichtung 10 kann nicht nur die Po­ sition von Objekten vor dem Fahrzeug erfaßt werden, sondern es kann auch die Position von Objekten erkannt werden, die sich infolge der Bewegung des Fahrzeugs neben das Fahrzeug bewegt haben. Daher kann durch das Fahrzeugfahrtunterstüt­ zungssystem, in dem diese Fahrzeug-Rundumobjekterkennungs­ vorrichtung verwendet wird, die Bedienung des Fahrzeugs durch den Fahrer über einen weiten Bereich unterstützt wer­ den.
Nachstehend wird eine zweite Ausführungsform der vor­ liegenden Erfindung unter Bezug auf die Fig. 8 bis 11 be­ schrieben.
Gemäß Fig. 8 und 9 weist das Fahrtunterstützungssystem 2 einen Drehzahlsensor 5 für das linke Hinterrad, einen Drehzahlsensor 25 für das rechte Hinterrad, eine linke CCD- Kamera, eine rechte CCD-Kamera, eine Steuerungsvorrichtung 6 und Anzeigeabschnitte 7FL bis 7S auf. Die Steuerungsvorrich­ tung 6 weist außerdem eine Fahrzeug-Rundumobjekterken­ nungsvorrichtung 10 und einen Abschnitt 20 zum Ausgeben des Ergebnisses einer Kollisionsbeurteilung auf. Die Fahrzeug- Rundumobjekterkennungsvorrichtung 10 weist ferner einen Ste­ reoskopbildverarbeitungsabschnitt 11, einen Objekterken­ nungsabschnitt 12, einen Abschnitt 12 zum Berechnen von Ob­ jektpositionsinformationen und einen Speicherabschnitt 14 auf. Der Abschnitt 26 zum Berechnen von Objektpositionsin­ formationen berechnet basierend auf den Umdrehungszahlen des linken und des rechten Hinterrades und den im Speicherab­ schnitt 14 gespeicherten vorangehenden Positionsinformatio­ nen über um das Fahrzeug angeordnete Objekte neue Positi­ onsinformationen über um das Fahrzeug angeordnete Objekte und gibt diese an den Abschnitt 20 zum Ausgeben des Ergeb­ nisses einer Kollisionsbeurteilung aus.
Der Abschnitt 26 zum Berechnen von Objektpositionsin­ formationen hat etwa die gleiche Funktion wie der im Zusam­ menhang mit der ersten Ausführungsform beschriebene Ab­ schnitt 13 zum Berechnen von Objektpositionsinformationen. Im einzelnen wird die Verschiebung der vorangehenden Objekt­ positionsinformationen folgendermaßen durchgeführt.
Gemäß Fig. 5 verschiebt sich, wenn das Fahrzeug gerade­ aus fährt, ein Objekt an einem Punkt A (xa, ya) zur Position B (xb, yb). In diesem Fall verschiebt sich, weil der Fahr­ wert ΔML des linken Hinterrades dem Fahrwert ΔMR des rechten Hinterrades gleich ist und ferner xa = xb ist, eine durch Ko­ ordinaten (xold, yold) dargestellte vorangehende Objektposi­ tion gemäß den beiden folgenden Gleichungen zur durch Koor­ dinaten (xnew, ynew) dargestellten aktuellen neuen Objektpo­ sition:
xnew = xold (15)
ynew = yold-ΔMR (16)
Wenn das Fahrzeug dagegen eine Drehung ausführt, bewegt sich das Objekt am Punkt B (xb, yb) zum Punkt C (xc, yc). Der Drehmittelpunkt Pc (XCE, YCE) wird folgendermaßen darge­ stellt:
XCE = (ΔMR + ΔML)/( ΔMR - ΔML) × (Spurweite)/2 (17)
YCE = (Offset-Wert des Hinterrades) = 0 (18)
Außerdem wird der Drehwinkel θc von Punkt B zu Punkt C dargestellt durch:
θ = ( ΔMR - ΔML)/(Spurweite) (19)
Daher wird die vorangehende Objektposition durch Erset­ zen der Koordinaten (XCE, YCE) und des Drehwinkels θc in den vorstehend erwähnten Gleichungen (13) und (14) auf die durch die Koordinaten (xnew, ynew) dargestellte aktuelle neue Ob­ jektposition verschoben.
Nachstehend wird eine Arbeitsweise der zweiten Ausfüh­ rungsform eines Fahrtunterstützungssystems 2 unter Bezug auf das in Fig. 11 dargestellte Ablaufdiagramm beschrieben.
Zunächst werden bei S201 die Fahrwerte ΔML und ΔMR des linken und des rechten Hinterrads vom linken bzw. vom rech­ ten Hinterradsensor gelesen, und ferner wird die vorangehen­ de Objektpositionsinformation vom Speicherabschnitt 14 der Fahrzeug-Rundumobjekterkennungsvorrichtung 10 gelesen.
Anschließend schreitet das Programm zu S202 fort, wo gemäß den Fahrwerten ΔML und ΔMR festgestellt wird, ob das Fahrzeug eine Drehung ausführt oder geradeaus fährt. Wenn das Fahrzeug geradeaus fährt, schreitet das Programm zu S203 fort, wo der Fahrwert ΔML zur vorangehenden Objektpositi­ onsinformation addiert wird. Wenn das Fahrzeug eine Drehung ausführt, schreitet das Programm zu S204 fort, wo der Dreh­ mittelpunkt Pc und der Drehwinkel θc berechnet werden, wor­ aufhin bei S105 die vorangehende Objektpositionsinformation um den Drehwinkel θc um den Drehmittelpunkt Pc gedreht wird. Daraufhin schreitet das Programm von S203 oder S105 zu dem Schritt S106 folgenden Schritten fort, wo die gleichen Ver­ arbeitungen ausgeführt werden wie bei der ersten Ausfüh­ rungsform.
Daher kann durch die bei der zweiten Ausführungsform vorgesehene Fahrzeug-Rundumobjekterkennungsvorrichtung ohne Verwendung des Lenkwinkelsensors die gleiche Wirkung erzielt werden wie bei der ersten Ausführungsform.
Die Fig. 12 bis 16 betreffen eine dritte Ausfüh­ rungsform der vorliegenden Erfindung. Die Vorrichtung gemäß der dritten Ausführungsform dient zum Ausführen von Steue­ rungen für einen autonomen Fahrbetrieb, wie beispielsweise einer Steuerung zum Anhalten des Fahrzeugs, zum Ausweichen von Hindernissen und ähnlicher Steuerungen, basierend auf den von der in Verbindung mit der zweiten Ausführungsform beschriebenen Fahrzeug-Rundumobjekterkennungsvorrichtung 10 erhaltenen Objektpositionsinformationen.
Bezugszeichen 30 bezeichnet ein autonom fahrendes Fahr­ zeug zum unbemannten Ausführen verschiedenartiger Arbeiten, wie beispielsweise zum Reinigen von Böden, Mähen von Rasen­ flächen und ähnlicher Arbeiten. Das autonom fahrende Fahr­ zeug 30 weist eine Arbeitsvorrichtung 31, z. B. einen Mäher, in der Nähe des hinteren Fahrzeugendes auf. Außerdem weist es ein Paar Antriebsräder (linkes Antriebsrad 33L und rech­ tes Antriebsrad 33R) an der linken bzw. der rechten Seite des Mittelabschnitts des Fahrzeugs auf. Diese Antriebsräder werden durch Antriebsmotoren 34 (linker Antriebsmotor 34L und rechter Antriebsmotor 34R) angetrieben, die durch eine Steuerungsvorrichtung 35 für einen autonomen Fahrbetrieb ge­ steuert werden.
Außerdem weist das autonom fahrende Fahrzeug 30 ein stereoskopisches optisches System 3 (linke und rechte CCD- Kamera) zum Aufnehmen des vorderen Bildbereichs auf. Ferner sind ein linker Antriebsraddrehzahlsensor 5 zum Erfassen der Anzahl der Umdrehungen des linken Antriebsrads 33L und ein rechter Antriebsraddrehzahlsensor 25 zum Erfassen der Anzahl der Umdrehungen des rechten Antriebsrads 33R vorgesehen. Das stereoskopische optische System 3, der linke Antriebsrad­ drehzahlsensor 5 und der rechte Antriebsraddrehzahlsensor 25 sind mit der Steuerungsvorrichtung 35 für einen autonomen Fahrbetrieb verbunden.
Die Steuerungsvorrichtung 35 für einen autonomen Fahr­ betrieb weist eine Fahrzeug-Rundumobjekterkennungsvorrich­ tung 10 auf, die die gleiche Funktion hat wie die bei der zweiten Ausführungsform der vorliegenden Erfindung vorgese­ hene Fahrzeug-Rundumobjekterkennungsvorrichtung, und einen Fahrtsteuerungsabschnitt 38 zum Ausführen von Steuerungen, wie beispielsweise einer Steuerung zum Anhalten des Fahr­ zeugs, zum Ausweichen von Hindernissen und ähnlicher Steue­ rungen, basierend auf den Objektpositionsinformationen von der Fahrzeug-Rundumobjekterkennungsvorrichtung 10.
Wie in Fig. 15 dargestellt, sind die durch die Fahr­ zeug-Rundumobjekterkennungsvorrichtung 10 erzeugten Objekt­ positionsinformationen Positionsinformationen von Objekten, die in einem vorgegebenen Bereich QRST in der X-Y-Ebene mit dem Fahrzeug als Mittelpunkt angeordnet sind. Im Fall einer Geradeausfahrt, wie beispielsweise einer Fahrt vom Punkt A (xa, ya) zum Punkt B (xb, yb), werden die neuen aktuellen Po­ sitionsinformationen gemäß den vorstehenden Gleichungen (15) und (16) berechnet. Andererseits werden im Fall einer Kur­ venfahrt, wie beispielsweise bei einer Fahrt vom Punkt B (xb, yb) zum Punkt C (xc, yc), die neuen aktuellen Positi­ onsinformationen durch die Gleichungen (13) und (14) erhal­ ten. Die aus dem Speicherbereich überlaufenden Daten und die mit den neu erhaltenen Daten überlappenden Daten (Sichtfeld der Kamera) werden jeweils gelöscht. Durch Addieren der der­ art erhaltenen Daten zu den neu erhaltenen Daten (Sichtfeld der Kamera) werden die neuen aktuellen Objektpositionsinfor­ mationen erhalten.
Im Fahrtsteuerungsabschnitt 38 wird basierend auf den vom Abschnitt 26 zum Berechnen von Objektpositionsinforma­ tionen erhaltenen Positionsinformationen über um das Fahr­ zeug angeordnete Objekte unter Bezug auf die gespeicherte äußere Form des Fahrzeugs beurteilt, ob das Fahrzeug ange­ halten werden sollte oder nicht. Wenn festgestellt wird, daß das Fahrzeug angehalten werden sollte, wird der Antriebsmo­ tor 34 ausgeschaltet. Wenn festgestellt wird, daß das Fahr­ zeug dem Hindernis ausweichen kann, jedoch nicht angehalten werden muß, wird einer der Antriebsmotoren 34L, 34R an der dem Hindernis abgewandten Seite gesteuert, um dessen Drehge­ schwindigkeit zu reduzieren.
Nachstehend wird unter Bezug auf das in Fig. 16 darge­ stellte Ablaufdiagramm eine durch die Steuerungsvorrichtung 35 für einen autonomen Fahrbetrieb ausgeführte autonome Fahrtsteuerung beschrieben. Die Inhalte der Schritte S201 bis S109 sind die gleichen wie diejenigen bei der zweiten Ausführungsform, mit der Ausnahme, daß anstelle von "Hinterrad" bei den Schritten S201, S203 und S204 der Aus­ druck "Antriebsrad" einzusetzen ist.
Bei S301 wird basierend auf den vom Abschnitt 26 zum Berechnen von Objektpositionsinformationen erhaltenen Ob­ jektpositionsinformationen unter Bezug auf die gespeicherte äußere Form des Fahrzeugs beurteilt, ob das Fahrzeug ange­ halten werden sollte oder nicht. Wenn festgestellt wird, daß das Fahrzeug angehalten werden sollte, weil es in unmittel­ bare Nähe eines Hindernisses kommt, schreitet das Programm zu S302 fort, wo der Antriebsmotor ausgeschaltet wird (die Steuerung zum Anhalten des Fahrzeugs aktiviert wird), um das Fahrzeug anzuhalten.
Wenn andererseits bei S301 festgestellt wird, daß das Fahrzeug nicht angehalten werden muß, schreitet das Programm zu S303 fort, wo die Steuerung zum Anhalten des Fahrzeugs deaktiviert wird. Anschließend wird bei S304 basierend auf den vom Abschnitt 26 zum Berechnen von Objektpositionsinfor­ mationen erhaltenen Objektpositionsinformationen unter Bezug auf die gespeicherte äußere Fahrzeugform beurteilt, ob das Fahrzeug einen Ausweichvorgang ausführen sollte oder nicht.
Wenn bei S304 festgestellt wird, daß dem Hindernis aus­ gewichen werden sollte, schreitet das Programm zu S305 fort, wo die Drehzahl des Motors an der dem Hindernis abgewandten Seite gesteuert wird (die Steuerung zum Ausweichen eines Hindernisses aktiviert wird), um einen berechneten reduzier­ ten Drehzahlwert zu erhalten, woraufhin das Programm beendet wird. Außerdem setzt das Fahrzeug, wenn bei S304 festge­ stellt wird, daß dem Hindernis nicht ausgewichen werden muß, seine Fahrt fort.
Dadurch können die Steuerungen für einen autonome Fahr­ betrieb, wie beispielsweise eine Steuerung zum Anhalten des Fahrzeugs, zum Ausweichen von Hindernissen usw., effektiv ausgeführt werden, wenn das autonom fahrende Fahrzeug mit der Fahrzeug-Rundumobjekterkennungsvorrichtung 10 ausgerü­ stet ist. Außerdem kann diese Fahrzeug-Rundumobjekterken­ nungsvorrichtung 10 für ein autonom fahrendes Fahrzeug ver­ wendet werden, das entlang Wänden oder wandähnlicher Objekte fährt. Insbesondere wenn diese Vorrichtung für einen Boden­ reinigungsroboter verwendet wird, wird ein Arbeitsvorgang in unmittelbarer Nähe einer Wand einfach.
Die Fig. 17 bis 21 betreffen eine vierte Ausfüh­ rungsform der vorliegenden Erfindung. Bei dieser Ausfüh­ rungsform ist die CCD-Kamera auf einem autonom fahrenden Fahrzeug 40 drehbar angeordnet, um Bilder in einem breiteren Bereich aufzunehmen. D.h., das stereoskopische optische Sy­ stem 3 ist, wie in Fig. 17 und 18 dargestellt, auf einem Drehtisch 41 angeordnet, der in horizontaler Richtung schwenkbar ist, um einen breiteren Objektinformationsbereich zu erfassen.
Der Drehtisch 41 ist mit einem Motor 42 verbunden, um den Drehwinkel des Drehtischs zu steuern. Der Drehwinkel α (wobei vorausgesetzt wird, daß der Drehwinkel in Geradeaus­ richtung 0 Grad beträgt) wird durch einen Drehwinkelsensor 43 erfaßt und dem Objekterkennungsabschnitt 48 zugeführt, wie in Fig. 17 dargestellt. Eine Fahrzeug-Rundumobjekterken­ nungsvorrichtung 47 der Steuerungsvorrichtung 45 für einen autonomen Fahrbetrieb hat mit Ausnahme des bei der vierten Ausführungsform vorgesehenen Objekterkennungsabschnitts 48 die gleiche Funktion wie die Fahrzeug-Rundumobjekterken­ nungsvorrichtung 10 der dritten Ausführungsform.
D.h., durch den Objekterkennungsabschnitt 48 werden Pa­ rameter, wie beispielsweise die Position und die Form von Objekten auf der Straße, aus dem vom Stereoskopbildverarbei­ tungsabschnitt 11 ausgegebenem Abstandsbild auf die gleiche Weise erhalten wie durch den Objekterkennungsabschnitt 12. Außerdem berechnet der Objekterkennungsabschnitt 48 Koordi­ naten eines in Fahrtrichtung erfaßten Objekts unter Bezug auf den Drehwinkel α des Drehtischs 41 und gibt diese Koor­ dinaten des Objekts an den Abschnitt 26 zum Berechnen von Objektpositionsinformationen aus.
Wie in Fig. 20 dargestellt, müssen bei dieser Ausfüh­ rungsform, weil das durch das stereoskopische optische Sy­ stem 3 erhaltene Bild um den Drehwinkel α von der Geradeaus­ richtung abweicht, die Koordinaten des Objekts korrigiert werden. Die korrigierte Objektpositionsinformation wird zu der in Geradeausrichtung erfaßten Positionsinformation ad­ diert.
Im Fahrtsteuerungsabschnitt 46 wird die Fahrtsteuerung, z. B. eine Steuerung zum Anhalten des Fahrzeugs, zum Auswei­ chen von Hindernissen und ähnliche Steuerungen, basierend auf den Objektpositionsinformationen auf die gleiche Weise ausgeführt wie im Fahrtsteuerungsabschnitt 38 der dritten Ausführungsform der vorliegenden Erfindung. Außerdem steuert der Fahrtsteuerungsabschnitt 46 das stereoskopische optische System 3 so, daß es mit konstanter Geschwindigkeit nach links und nach rechts schwenkt. In diesem Fall kann die Be­ wegung des stereoskopischen optischen Systems der Fahrzeug­ bewegung angepaßt werden, so daß beispielsweise, wenn das Fahrzeug nach links dreht, das stereoskopische optische Sy­ stem 3 nach links geschwenkt wird, und wenn das Fahrzeug nach rechts dreht, das stereoskopische optische System 3 nach rechts geschwenkt wird.
Der Steuerungsablauf in der Steuerungsvorrichtung 45 für einen autonomen Fahrbetrieb ist mit Ausnahme des Pro­ grammschritts S401 der gleiche wie in der bei der dritten Ausführungsform vorgesehenen Steuerungsvorrichtung 35 für einen autonomen Fahrbetrieb.
D.h., nachdem die mit den neu erhaltenen Positionsin­ formationen überlappenden Daten bei S107 aus den vorangehen­ den Objektpositionsinformationen gelöscht wurden, schreitet das Programm zu S401 fort, wo die mit dem Drehwinkel α des Drehtischs 41 korrigierten neuen Objektpositionsinformatio­ nen gelesen werden, woraufhin das Programm zu S109 fort­ schreitet.
Daher kann bei der vierten Ausführungsform der vorlie­ genden Erfindung, außer dem bei der dritten Ausführungsform erhaltenen Effekt, ein breiter Sichtfeldbereich der Kamera erhalten werden, so daß das autonom fahrende Fahrzeug exak­ tere und kompliziertere Arbeiten ausführen kann.
Bei den ersten bis vierten Ausführungsformen der vor­ liegenden Erfindung ist die Fahrzeug-Rundumobjekterkennungs­ vorrichtung jeweils so aufgebaut, daß Objekte um das Fahr­ zeug basierend auf durch die CCD-Kamera erfaßten Bildern er­ faßt werden, wobei jedoch anstelle der CCD-Kamera andere Vorrichtungen, wie beispielsweise Laser-Radar, ein Ultra­ schallsensor und ähnliche Vorrichtungen, verwendet werden können.
Außerdem wurde bei den vorstehenden Ausführungsformen der vorliegenden Erfindung die Berechnung der Objektpositi­ onsinformationen bezüglich eines orthogonalen Koordinatensy­ stems durchgeführt, wobei diese Berechnung jedoch auch be­ züglich eines Polarkoordinatensystems durchgeführt werden kann.
Zusammenfassend können erfindungsgemäß, weil die Posi­ tionsinformationen über um das Fahrzeug angeordnete Objekte permanent aktualisiert und gespeichert werden, während das Fahrzeug fährt, die Objekte in einem breiten Bereich um das Fahrzeug erfaßt werden, ohne daß zusätzliche Kameras, Senso­ ren und andere komplizierte Erfassungsvorrichtungen erfor­ derlich sind.

Claims (10)

1. Objekterkennungsvorrichtung für ein Fahrzeug zum Erken­ nen von um das Fahrzeug angeordneten Objekten, mit ei­ ner Objekterfassungseinrichtung zum Erfassen einer Richtung von Objekten und einer Abstandsverteilung zu den Objekten und einer Objekterkennungseinrichtung zum Erkennen der durch die Objekterfassungseinrichtung er­ faßten Objekte als Hindernisse basierend auf der Abstandsverteilung und zum Berechnen einer Relativposi­ tion der Objekte bezüglich des Fahrzeugs, wobei die Ob­ jekterkennungsvorrichtung ferner aufweist:
eine Objektpositionsspeichereinrichtung zum Spei­ chern der Relativposition der Objekte bezüglich des Fahrzeugs;
eine Einrichtung zum Berechnen eines Fahrwerts, der eine Fahrtstrecke und eine Fahrtrichtung des Fahr­ zeugs enthält; und
eine Einrichtung zum Berechnen von Objektpositi­ onsinformationen zum Berechnen einer neuen Relativposi­ tion der Objekte bezüglich des Fahrzeugs basierend auf der Relativposition der Objekte und dem Fahrwert des Fahrzeugs und zum Aktualisieren der in der Objektposi­ tionsspeichereinrichtung gespeicherten Relativposition durch die neue Relativposition der Objekte, um die Ob­ jekte erkennen zu können, die einen Erfassungsbereich der Objekterfassungseinrichtung verlassen haben.
2. Vorrichtung nach Anspruch 1, wobei die Objekterfas­ sungseinrichtung aufweist: eine Einrichtung zum Aufneh­ men eines Stereoskopbildes der Objekte durch eine in eine Vorwärtsrichtung des Fahrzeugs ausgerichtete Abbil­ dungseinrichtung und zum Berechnen einer dreidimensio­ nalen Abstandsverteilung basierend auf dem Stereoskop­ bild.
3. Vorrichtung nach Anspruch 1 oder 2, wobei die Objekterfassungseinrichtung aufweist: eine Einrichtung zum Aufnehmen eines Stereoskopbildes der Objekte durch eine um einen Winkel bezüglich der Vor­ wärtsrichtung des Fahrzeugs gedrehte Abbildungseinrich­ tung, zum Berechnen einer dreidimensionalen Abstands­ verteilung basierend auf dem Stereoskopbild und zum Korrigieren der dreidimensionalen Abstandsverteilung gemäß dem Winkel.
4. Vorrichtung nach Anspruch 3, wobei der Winkel mit kon­ stanter Geschwindigkeit in die linke und in die rechte Richtung geändert wird.
5. Vorrichtung nach Anspruch 3 oder 4, wobei der Winkel in die linke Richtung geändert wird, wenn das Fahrzeug ei­ ne Linksdrehung ausführt, und in die rechte Richtung, wenn das Fahrzeug eine Rechtsdrehung ausführt.
6. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei die Einrichtung zum Berechnen eines Fahrwertes den Fahrwert basierend auf einem Lenkwinkel und der Radumlaufzahl berechnet.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Einrichtung zum Berechnen eines Fahrwertes den Fahrwert basierend auf der Umlaufzahl des linken und des rechten Hinterrades berechnet.
8. Objekterkennungsvorrichtung nach Anspruch 2, wobei die Abbildungseinrichtung ein Paar von auf dem Fahrzeug an­ geordneten CCD-Kameras ist.
9. Vorrichtung nach einem der Ansprüche 3 bis 8, wobei die Abbildungseinrichtung ein Paar von auf dem Fahrzeug drehbar angeordneten CCD-Kameras ist.
10. Verfahren zum Erkennen von um ein Fahrzeug angeordneten Objekten mit einer Objekterfassungseinrichtung zum Er­ fassen einer Richtung von Objekten und einer Abstands­ verteilung zu den Objekten und einer Objekterkennungs­ einrichtung zum Erkennen der Objekte als Hindernisse basierend auf der Abstandsverteilung und zum Be­ rechnen einer Relativposition der Objekte bezüglich des Fahrzeugs, mit den Schritten:
Speichern der Relativposition der Objekte bezüg­ lich des Fahrzeugs;
Berechnen eines Fahrwertes, der eine Fahrstrecke und eine Fahrtrichtung des Fahrzeugs enthält; und
Berechnen einer neuen Relativposition der Objekte bezüglich des Fahrzeugs basierend auf der Relativposi­ tion der Objekte und dem Fahrwert des Fahrzeugs und Ak­ tualisieren der in der Objektpositionsspeichereinrich­ tung gespeicherten Relativposition durch die neue Rela­ tivposition der Objekte.
DE19723963A 1996-06-06 1997-06-06 Objekterkennungsvorrichtung und -verfahren für Fahrzeuge Expired - Fee Related DE19723963C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14443896A JP3866328B2 (ja) 1996-06-06 1996-06-06 車両周辺立体物認識装置

Publications (2)

Publication Number Publication Date
DE19723963A1 true DE19723963A1 (de) 1997-12-11
DE19723963C2 DE19723963C2 (de) 2001-09-06

Family

ID=15362220

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19723963A Expired - Fee Related DE19723963C2 (de) 1996-06-06 1997-06-06 Objekterkennungsvorrichtung und -verfahren für Fahrzeuge

Country Status (4)

Country Link
US (2) US6169572B1 (de)
JP (1) JP3866328B2 (de)
DE (1) DE19723963C2 (de)
GB (1) GB2313971B (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10133761A1 (de) * 2001-07-11 2003-01-30 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus
DE10240018A1 (de) * 2002-08-27 2004-03-11 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Warnsignals vor einer Notmaßnahme eines Fahrerassistenzsystems eines Fahrzeugs
US6917378B2 (en) 2002-10-07 2005-07-12 Donnelly Hohe Gmbh & Co., Kg Method of operating a display system in a vehicle
DE102004042281A1 (de) * 2004-09-01 2006-03-02 Daimlerchrysler Ag Hilfsvorrichtung für das Handhaben eines Fahrzeugs
DE10247371B4 (de) * 2001-10-29 2007-11-22 Honda Giken Kogyo K.K. Fahrzeuginformation-Bereitstellungsvorrichtung
US9500491B2 (en) 2011-11-10 2016-11-22 Audi Ag Method for position determination

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JPH11296229A (ja) * 1998-02-13 1999-10-29 Komatsu Ltd 車両の誘導装置
JP4229486B2 (ja) * 1998-05-06 2009-02-25 富士通テン株式会社 画像測距装置
EP2309453A3 (de) * 1998-07-31 2012-09-26 Panasonic Corporation Bildanzeigevorrichtung und Bildanzeigeverfahren
US7277123B1 (en) 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
GB2344884A (en) * 1998-12-18 2000-06-21 Notetry Ltd Light Detection Apparatus - eg for a robotic cleaning device
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP4334686B2 (ja) * 1999-07-07 2009-09-30 本田技研工業株式会社 車両の画像表示装置
JP3349121B2 (ja) * 1999-09-22 2002-11-20 富士重工業株式会社 ステレオカメラの取付構造
DE19949409A1 (de) * 1999-10-13 2001-04-19 Bosch Gmbh Robert Verfahren und Vorrichtung zur Objektdetektierung
JP2001195699A (ja) * 2000-01-14 2001-07-19 Yazaki Corp 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体
US6515597B1 (en) * 2000-01-31 2003-02-04 Matsushita Electric Industrial Co. Ltd. Vicinity display for car
US6801244B2 (en) * 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
DE10103870B4 (de) * 2001-01-30 2004-02-05 Daimlerchrysler Ag Verfahren zur Bilderkennung bei Kraftfahrzeugen
US6733950B2 (en) * 2001-03-14 2004-05-11 General Electric Company Limited play data storage media and method for limiting access to data thereon
GB2375251B (en) 2001-04-30 2003-03-05 Infrared Integrated Syst Ltd The location of events in a three dimensional space under surveillance
JP3880837B2 (ja) * 2001-11-02 2007-02-14 富士重工業株式会社 車外監視装置
JP2003150936A (ja) * 2001-11-08 2003-05-23 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法
ATE321689T1 (de) * 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
JP4023228B2 (ja) * 2002-06-19 2007-12-19 日産自動車株式会社 車載用障害物検知装置
KR100446636B1 (ko) * 2002-11-21 2004-09-04 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
DE10258287A1 (de) * 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
US7437226B2 (en) * 2003-08-20 2008-10-14 Samsung Electronics Co., Ltd. Method of constructing artificial mark for autonomous driving, apparatus and method of determining position of intelligent system using artificial mark and intelligent system employing the same
JP3949628B2 (ja) * 2003-09-02 2007-07-25 本田技研工業株式会社 車両の周辺監視装置
US20050259240A1 (en) * 2003-09-18 2005-11-24 Goren David P Optical navigation of vehicles
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
WO2005060640A2 (en) 2003-12-15 2005-07-07 Sarnoff Corporation Method and apparatus for object tracking prior to imminent collision detection
WO2006014974A2 (en) 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US7248968B2 (en) * 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
WO2006065563A2 (en) * 2004-12-14 2006-06-22 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
EA011777B1 (ru) * 2005-02-04 2009-06-30 Дональдсон Компани, Инк. Фильтр и система вентиляции картера
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP2007112317A (ja) * 2005-10-21 2007-05-10 Fujitsu Ten Ltd 接触回避支援装置
FR2893173B1 (fr) * 2005-11-10 2008-01-18 Valeo Vision Sa Procede d'evaluation, par un vehicule automobile, des caracteristiques d'un element frontal.
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US20070170315A1 (en) * 2006-01-20 2007-07-26 Gedalyahu Manor Method of detecting obstacles on railways and preventing train accidents
JP2007199965A (ja) * 2006-01-25 2007-08-09 Matsushita Electric Works Ltd 自律移動装置
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
JP4171510B2 (ja) 2006-12-20 2008-10-22 本田技研工業株式会社 移動装置、ならびにその制御システム、制御プログラムおよび監督システム
JP2008242795A (ja) * 2007-03-27 2008-10-09 Honda Motor Co Ltd 障害物検知装置
JP5080333B2 (ja) 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
EP1978432B1 (de) 2007-04-06 2012-03-21 Honda Motor Co., Ltd. Routingvorrichtung für eine autonome mobile Einheit
US8210435B2 (en) * 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
US8346468B2 (en) * 2008-07-08 2013-01-01 Sky-Trax Incorporated Method and apparatus for collision avoidance
JP5089545B2 (ja) * 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 道路境界検出判断装置
WO2011018999A1 (ja) * 2009-08-12 2011-02-17 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
US9762880B2 (en) * 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US8781721B2 (en) 2012-06-06 2014-07-15 Google Inc. Obstacle evaluation technique
JP5829980B2 (ja) * 2012-06-19 2015-12-09 トヨタ自動車株式会社 路側物検出装置
US9135798B2 (en) * 2012-09-01 2015-09-15 Honda Motor Co., Ltd. Vehicle periphery monitoring device
WO2014070448A1 (en) 2012-10-31 2014-05-08 Tk Holdings, Inc. Vehicular path sensing system and method
JP6107079B2 (ja) * 2012-11-21 2017-04-05 富士通株式会社 報知制御方法、報知制御装置および報知制御プログラム
KR101803164B1 (ko) 2013-03-15 2017-12-28 우버 테크놀로지스, 인크. 로봇 공학용 다중 감지 스테레오 비전 방법, 시스템 및 장치
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
US9099004B2 (en) 2013-09-12 2015-08-04 Robert Bosch Gmbh Object differentiation warning system
US9604642B2 (en) * 2014-04-29 2017-03-28 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Positioning autonomous vehicles based on field of view
JP6292097B2 (ja) * 2014-10-22 2018-03-14 株式会社デンソー 側方測距センサ診断装置
BE1023147B1 (nl) * 2015-07-03 2016-12-01 Cnh Industrial Belgium Nv Controller voor een werkvoertuig
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
JP6950170B2 (ja) * 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
US10479376B2 (en) 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
US10331960B2 (en) 2017-05-10 2019-06-25 Fotonation Limited Methods for detecting, identifying and displaying object information with a multi-camera vision system
US11615566B2 (en) 2017-05-10 2023-03-28 Fotonation Limited Multi-camera vehicle vision system and method
US10740627B2 (en) 2017-05-10 2020-08-11 Fotonation Limited Multi-camera vision system and method of monitoring
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
CN107985200B (zh) * 2017-11-13 2020-11-13 西南交通大学 一种载重货车右转弯安全预警方法
US10685197B2 (en) 2017-11-17 2020-06-16 Divine Logic, Inc. Systems and methods for tracking items
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
US11525921B2 (en) 2018-04-03 2022-12-13 Sharkninja Operating Llc Time of flight sensor arrangement for robot navigation and methods of localization using same
US11565698B2 (en) * 2018-04-16 2023-01-31 Mitsubishi Electric Cornoration Obstacle detection apparatus, automatic braking apparatus using obstacle detection apparatus, obstacle detection method, and automatic braking method using obstacle detection method
EP3889720B1 (de) * 2018-11-29 2023-04-05 Honda Motor Co., Ltd. Arbeitsmaschine, arbeitsmaschinensteuerungsverfahren und programm
JP2022044155A (ja) * 2020-09-07 2022-03-17 株式会社Subaru 画像処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1605315A (en) * 1959-07-12 1989-07-19 Ferranti Ltd Improvements relating to targetlocating apparatus for aircraft
US4590569A (en) * 1983-10-14 1986-05-20 Navigation Sciences Inc. Navigation system including an integrated electronic chart display
FR2725031B1 (fr) * 1984-12-10 1996-11-15 Dassault Electronique Dispositif pour recreer une image dynamique, a partir d'un radar
US4833475A (en) * 1986-01-27 1989-05-23 Raytheon Company Raster scan radar with true motion memory
JP2646146B2 (ja) * 1990-03-28 1997-08-25 三菱電機株式会社 車間距離制御装置
JP3167752B2 (ja) * 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
ATE219165T1 (de) * 1995-12-14 2002-06-15 Imperial College Film- oder schicht-abscheidung und pulver herstellung

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10133761A1 (de) * 2001-07-11 2003-01-30 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus
DE10247371B4 (de) * 2001-10-29 2007-11-22 Honda Giken Kogyo K.K. Fahrzeuginformation-Bereitstellungsvorrichtung
DE10240018A1 (de) * 2002-08-27 2004-03-11 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Warnsignals vor einer Notmaßnahme eines Fahrerassistenzsystems eines Fahrzeugs
DE10240018B4 (de) * 2002-08-27 2016-09-15 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Warnsignals vor einer Notmaßnahme eines Fahrerassistenzsystems eines Fahrzeugs
US6917378B2 (en) 2002-10-07 2005-07-12 Donnelly Hohe Gmbh & Co., Kg Method of operating a display system in a vehicle
DE102004042281A1 (de) * 2004-09-01 2006-03-02 Daimlerchrysler Ag Hilfsvorrichtung für das Handhaben eines Fahrzeugs
US9500491B2 (en) 2011-11-10 2016-11-22 Audi Ag Method for position determination

Also Published As

Publication number Publication date
GB2313971A (en) 1997-12-10
GB2313971B (en) 1998-08-05
US6661449B1 (en) 2003-12-09
US6169572B1 (en) 2001-01-02
JPH09326032A (ja) 1997-12-16
GB9711530D0 (en) 1997-07-30
DE19723963C2 (de) 2001-09-06
JP3866328B2 (ja) 2007-01-10

Similar Documents

Publication Publication Date Title
DE19723963C2 (de) Objekterkennungsvorrichtung und -verfahren für Fahrzeuge
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
WO2016120044A1 (de) Vermessen einer abmessung auf einer oberfläche
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE60200417T2 (de) Aktive Fahrzeug-Fahrunterstützungsvorrichtung und mit dieser versehenes Fahrzeug
DE102006010735B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE69734736T2 (de) Fahrbahnsensor und Navigationssystem, das diesen Sensor verwendet
EP1848626B1 (de) Vorrichtung zum verbringen eines kraftfahrzeugs in eine zielposition
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE102016123878A1 (de) Fahrzeugblinksignaldetektion
DE102013103569A1 (de) Parkplatzerfassungsvorrichtung
DE112009005165T5 (de) Einparkunterstützungsvorrichtung
EP2753479A1 (de) Verfahren zur bestimmung einer durchfahrbarkeit eines objekts für ein fahrzeug mittels einer 3d-kamera
WO2010115580A1 (de) Verfahren und vorrichtung zur objekterkennung
DE102020123087A1 (de) System zur vermeidung seitlichen streifens bei anhängern
DE102010020688A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
DE102020203756A1 (de) Autobahnausfahrt-erfassung und linienspiegelung zur fahrzeugtrajektorien-bestimmung
EP1665197B1 (de) Verfahren zur ermittlung einer position eines kraftfahrzeugs auf einer strasse
DE102021115630A1 (de) Verfahren zum Betreiben einer mobilen Vorrichtung
DE102017126452B4 (de) Fahrzeugsteuersystem
DE112021000992T5 (de) Parkunterstützungsvorrichtung
DE102013103041A1 (de) Parkplatzerfassungsvorrichtung
EP2394247B1 (de) Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee