WO2008104263A1 - Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug - Google Patents

Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug Download PDF

Info

Publication number
WO2008104263A1
WO2008104263A1 PCT/EP2008/000862 EP2008000862W WO2008104263A1 WO 2008104263 A1 WO2008104263 A1 WO 2008104263A1 EP 2008000862 W EP2008000862 W EP 2008000862W WO 2008104263 A1 WO2008104263 A1 WO 2008104263A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
camera
objects
texture
roadway
Prior art date
Application number
PCT/EP2008/000862
Other languages
English (en)
French (fr)
Inventor
Thorsten Graf
Volkmar SCHÖNING
Friedrich Wahl
Markus Rilk
Simon Winkelbach
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to AT08715687T priority Critical patent/ATE507108T1/de
Priority to EP08715687A priority patent/EP2129548B1/de
Priority to DE502008003354T priority patent/DE502008003354D1/de
Publication of WO2008104263A1 publication Critical patent/WO2008104263A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • B60R2021/0039Body parts of the occupant or pedestrian affected by the accident
    • B60R2021/0048Head
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01204Actuation parameters of safety arrangents
    • B60R2021/01252Devices other than bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the invention relates to a method and a device for detecting subsequent vehicles of a motor vehicle by means of at least one rear-view camera arranged in the motor vehicle according to the preamble of claim 1 and of claim 10.
  • Rear-end collisions often occur in traffic and can often lead to injuries in the neck area of the vehicle occupants. It would therefore be desirable to take appropriate safety precautions in the vehicle to detect subsequent vehicles and, if necessary, to determine the time remaining until a collision occurs, for example to bring backrests and / or headrests to a more appropriate position, pre-tighten seatbelts, etc., so as to achieve safety To reduce the severity of injuries or to calculate an evasion trajectory and to execute it if necessary.
  • symmetries in the rear views is exploited, which may be color symmetries, gray scale symmetries, symmetries with respect to vertical or horizontal edges or other symmetries.
  • the problem arising of such symmetries of exploiting methods lies in the fact that the edges or borders of subsequent vehicles are often not completely visible or that other objects that are not vehicles have better symmetry values than the following vehicle.
  • Color information about the situation behind the own vehicle are also useful parameters, but their integration into detection systems is fraught with difficulties. For example, blinding the sun may alter local and global color properties within the detected image.
  • the texture is another feature that is interesting in principle for the detection of subsequent vehicles, but information of the texture of a following vehicle when using low-resolution cameras due to the distance has hardly been usable for detection so far.
  • the reliability of the above-mentioned information usually depends on further parameters such as the distance between the vehicles, the weather conditions, the type of vehicles such as cars or trucks, etc. Therefore, it is extremely difficult to develop a subsequent vehicle detection algorithm based only on such information.
  • the first step of generating a hypothesis about the possible location of the following vehicle it is also possible to use a method based on the speed of the following vehicle. If the speed of the following vehicle relative to the own vehicle is known, then the direction of the motion vector of the vehicle pixels can be determined. Assuming that the lane is formed by a known plane, one can estimate the amount of motion vectors of the lane-related pixels. Pixels having a different motion vector can then be classified as not belonging to the lane. Masks or template-based methods are proposed for performing the second step, the verification of the hypothesis. These try to describe the following vehicle with an abstract template, for example, a vehicle enclosing rectangle with predetermined aspect ratios. Other methods of performing the second step of vehicle identification use training methods such as neural networks or supported vector machines. The problem here is the generation of training data for all kinds of traffic situations, such as different weather conditions.
  • a reversing camera system of a motor vehicle which serves to find a suitable parking space and can be used for automatic parking.
  • the system uses a reversing camera with a wide-angle lens to detect a suitable parking space, wherein the recorded image is equalized and converted into a plan view of the determined parking lot.
  • the main difficulty is being able to detect the objects to be detected independently of the nature of the road surface and the objects themselves.
  • the invention is therefore based on the object to provide a method and a device, with which it is possible with higher certainty, the objects following an own vehicle, i. Detect vehicles regardless of the road surface.
  • the method according to the invention for detecting vehicles following an own vehicle by means of at least one rear-view camera arranged in the own vehicle has the following steps:
  • the reversing cameras used usually accommodate a wide range of angles, i. images are generated with the so-called fish-eye effect, preferably every recorded image is equalized and converted into a perspective view.
  • the images are further preferred from the perspective view in a plan view, i. Bird's eye view, transformed.
  • the process is also referred to as inverse perspective mapping.
  • a road area directly behind the vehicle is preferably cut from the current image and added to the roadway texture of the previous image.
  • the width of the section from the current image can be specified and the length of the section results from the distance that is covered between two images.
  • a cutout behind the own vehicle is cut out and inserted at the beginning of the lane texture generated from the previous images, taking into account the airspeed to obtain a consistent current lane texture.
  • the lane texture is stored as a function of the speed of the subject vehicle.
  • the angle of view of the at least one camera is arranged at a predetermined angle to the road, wherein the angle between 30 ° and 40 °, preferably 36 °.
  • the temporal behavior of detected objects from the current image and the previously recorded images is determined and determined their relative speed to the own vehicle, this being achieved by appropriate storage of the determined data, in particular dynamic storage of the roadway texture.
  • the own speed of the own vehicle and the determined relative speed of the detected object of the probable collision time are determined. This makes it possible to take appropriate measures if the probability of a potential rear-end accident, ie a rear-end collision, is given.
  • the method includes: a rear-view camera arranged on an own vehicle, an evaluation unit which evaluates the images recorded by the rear-view camera, generates the current roadway texture, and uses subsequent objects
  • a mono color camera arranged at the rear of the own vehicle with a predetermined resolution and refresh rate is used, the viewing direction of the camera and the roadway including a predetermined angle.
  • this angle can be between 30 ° and 40 °, preferably 36 °.
  • the device has a control unit that initiates measures to reduce the consequences of an accident in the event of a probable collision.
  • measures may be, for example, a tightening of the passenger straps or an optimization of the position of the neck support.
  • Fig. 2 is a rear view of the rear view camera before and after the equalization
  • 4 shows the updating of the roadway texture
  • 5 shows the detection of a following vehicle in an exemplary representation.
  • FIG. 1 shows a schematic representation of the arrangement of a reversing camera on the rear 4 of a motor vehicle 1, which moves on a roadway 2 in the direction of travel 3.
  • the camera is arranged at the rear 4 of the motor vehicle 1 that the viewing direction 5, i. the optical axis of the camera is arranged with the roadway at a predetermined angle ⁇ .
  • This viewing angle ⁇ is between 30 ° and 40 °, preferably the viewing angle is 36 ° under normal load conditions, the camera being mounted at a height of about 80 cm at the rear.
  • a single monochrome color CCD camera is used, as used in some product lines as a standard camera.
  • Such a camera typically has a resolution of 51 x 492 pixels and provides approximately 60 fields per second in NTSC format.
  • Other cameras with other resolutions and output formats are of course possible.
  • the aperture angle in the horizontal direction is about 131 ° and that in the vertical direction about 100 °.
  • the control elements for example, motors for the adjustment of the neck support
  • the observation system must signal the warning a minimum time before the possible rear-end collision to the actuators. Consequently, the following vehicles must be detected as early as possible.
  • the resolution and arrangement of the camera at the rear 4 of the vehicle 1 limits the possible detection distance. Furthermore, errors in the camera calibration must be taken into account during the evaluation.
  • FIG. 2 shows in part a) a rear view of the roadway 2 behind the own vehicle taken by the reversing camera.
  • a distant vehicle 10 can be seen in the intrinsic lane of the roadway 2, while on the left lane in the direction of travel another vehicle 11 can be seen, which is closer to the own vehicle 1. Further, on the opposite lane one can be seen from the own vehicle 1 removing vehicle 12.
  • the fish-eye effect of the wide-angle lens of the camera is Clearly visible is the fish-eye effect of the wide-angle lens of the camera.
  • FIG. 3 shows, in a schematic representation, the effect of the inverse perspective image IPM, which is described, for example, in H. Mallot et al .: "Inverse perspective mapping simplifies optical flow computation and obstacle detection", Biological Cybemetics, pp. 177-185, Vol. No. 3, 1991.
  • Such an inverse perspective image can be used to transform the rectified roadway image shown in part a) into the plan view or bird's-eye view shown in part b).
  • part a) of FIG. 4 shows an equalized image at time tn of the reversing camera, which is transformed by means of the inverse perspective image into the plan view shown in part b).
  • this plan view there is an update area UP, which is drawn in part b) as a rectangle.
  • This is the lane area traveled by the own vehicle 1 at the current speed v since the previous image at time tn-1. Since, due to the refresh rate, the speed v of the own vehicle and the orientation of the camera relative to the road, this is an area located immediately behind the own vehicle, there is no following vehicle in this update area UB even at higher speeds. It is therefore possible, from a plurality of such update areas at successive times gradually build a road texture without vehicles and save.
  • Such a composite road texture at the previous time tn-1 is shown in part c) of FIG.
  • This road texture at time tn-1 is now shifted in the negative y direction by the distance traveled between times tn and tn-1 of the vehicle's own path.
  • the resulting gap L corresponds exactly to the update area UB of the current image at time tn.
  • This update area UB is copied into the gap L so that the actual roadway texture shown in part e) of FIG. 4 results at time tn.
  • FIG. 5 is a schematic representation of the difference between the current image and the current road texture at time tn, i. the detection of a subsequent object or vehicle.
  • part a) of Fig. 5 shows the rectified current image of the rear camera of the own vehicle in perspective
  • part d) the current road texture in plan view It is obvious that where a difference of the current image and the current road texture results in a difference in the pixel values, there is a subsequent object. Taking into account the reduced resolution of the reversing camera in the distance so subsequent objects can be measured.
  • the distance between the own vehicle and the detected subsequent object results from the corresponding y-components, the following object O being represented here by a bar representing the front end of the following object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

Ein Verfahren zur Detektion von einem Eigenfahrzeug (1) nachfolgenden Fahrzeugen mittels mindestens einer im Eigenfahrzeug angeordneten Rückfahrkamera weist die folgenden Schritte auf : Aufnehmen von Bildern der rückwärtigen Situation der Umgebung hinter dem Eigenfahrzeug mit der Rückfahrkamera, Generierung einer Fahrbahntextur der rückwärtigen Fahrbahn (2) ohne andere auf der Fahrbahn befindlichen Objekte aus den aufgenommenen Bildern, Differenzbildung zwischen dem aktuellen Bild und der aktuellen Fahrbahntextur zur Detektion von Objekten.

Description

Verfahren und Vorrichtung zur Detektion von nachfolgenden Fahrzeugen in einem Kraftfahrzeug
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Detektion nachfolgender Fahrzeuge eines Kraftfahrzeugs mittels mindestens einer in dem Kraftfahrzeug angeordneten Rückfahrkamera gemäß dem Oberbegriff des Anspruchs 1 bzw. des Anspruchs 10.
Auffahrunfälle treten im Straßenverkehr häufig auf und können oftmals zu Verletzungen im Halsbereich der Fahrzeuginsassen führen. Es wäre daher zum Treffen entsprechender Sicherheitsvorkehrungen im Fahrzeug wünschenswert nachfolgende Fahrzeuge detektieren und gegebenenfalls die verbleibende Zeit bis zum Eintreten einer Kollision bestimmen zu können, um beispielsweise Rückenlehnen und/oder Nackenstützen in eine geeignetere Position zu bringen, Sicherheitsgurte vorzustraffen, etc., um so den Schweregrad von Verletzungen herabsetzen zu können oder eine Ausweichtrajektorie zu berechnen und gegebenenfalls auszuführen.
Eine Anzahl von Algorithmen zur Detektion nachfolgender Fahrzeuge mit unterschiedlichen Stärken und Schwächen wurde bislang vorgeschlagen. Dabei unterteilen die meisten dieser Algorithmen den Erkennungsprozeß in zwei Schritte, nämlich in einen ersten Schritt, in dem ein Hypothese über die mögliche Position des nachfolgenden Fahrzeugs aufgestellt wird, und einen zweiten Schritt, in dem die Hypothese verifiziert wird.
Für den ersten Schritt, der Aufstellung einer Hypothese, kommen oft sogenannte wissensbasierte Verfahren (knowledge based methods) zum Einsatz. Dabei werden oftmals das Vorhandensein von Symmetrien in den rückwärtigen Ansichten ausgenutzt, wobei es sich um farbliche Symmetrien, Grauwertsymmetrien, Symmetrien bezüglich vertikaler oder horizontaler Kanten oder andere Symmetrien handeln kann. Das auftretende Problem solcher Symmetrien ausnutzender Verfahren liegt darin begründet, dass die Kanten oder Begrenzungen nachfolgender Fahrzeuge oftmals nicht vollständig sichtbar sind oder dass andere Objekte, die keine Fahrzeuge sind, bessere Symmetriewerte als das nachfolgende Fahrzeug aufweisen. Farbinformationen über die hinter dem Eigenfahrzeug befindliche Situation sind ebenfalls nützliche Parameter, aber ihre Integration in Detektionssysteme ist mit Schwierigkeiten verbunden. So kann beispielsweise ein Blenden der Sonne lokale und globale Farbeigenschaften innerhalb des detektierten Bildes verändern.
In einigen Fällen ist es ausreichend, die Ecken des nachfolgenden Fahrzeugs, d.h. die Kontur, als einfaches Rechteck für die Hypothesegenerierung zu modellieren. Robustere Parameter sind üblicherweise horizontale und vertikale Kanten des nachfolgenden Fahrzeugs. Vertikale Kanten können jedoch auch durch Schatten unterhalb des nachfolgenden Fahrzeugs verursacht werden, wobei Schatten in den meisten Szenarios vorhanden sind und diese mehr oder weniger unabhängig vom Typ des nachfolgenden Fahrzeugs sind. Es ist möglich, auch diese Schatteninformationen in die Fahrzeugdetektion einfließen zu lassen.
Weiterhin ist die Textur ein weiteres für die Detektion nachfolgender Fahrzeuge im Prinzip interessantes Merkmal, wobei jedoch eine Information der Textur eines nachfolgenden Fahrzeugs bei der Verwendung von Kameras mit niedriger Auflösung aufgrund des Abstands bislang kaum für eine Detektion verwendbar ist.
Allgemein gilt ferner, dass die Verläßlichkeit der oben genannten Informationen üblicherweise von weiteren Parametern wie beispielsweise dem Abstand zwischen den Fahrzeugen, den Wetterbedingungen, der Art der Fahrzeuge wie beispielsweise PKW oder LKW, usw., abhängt. Daher ist es äußerst schwierig, einen Algorithmus zur Detektion nachfolgender Fahrzeuge zu entwickeln, der nur auf derartigen Informationen basiert.
Für den ersten Schritt der Generierung einer Hypothese über den möglichen Ort des nachfolgenden Fahrzeugs ist es auch möglich ein auf die Geschwindigkeit des nachfolgenden Fahrzeuges abgestelltes Verfahren zu verwenden. Ist die Geschwindigkeit des nachfolgenden Fahrzeugs relativ zum Eigenfahrzeug bekannt, so kann die Richtung des Bewegungsvektors der Fahrzeugpixel bestimmt werden. Unter der Annahme, dass die Fahrbahn durch eine bekannte Ebene gebildet wird, kann man den Betrag der Bewegungsvektoren der zur Fahrbahn gehörigen Pixel schätzen. Pixel mit einem davon unterschiedlichen Bewegungsvektor können dann als nicht zur Fahrbahn gehörend klassifiziert werden. Masken oder Schablonen basierende Verfahren (template based methods) werden zum Durchführen des zweiten Schrittes, der Verifikation der Hypothese, vorgeschlagen. Diese versuchen das nachfolgende Fahrzeug mit einer abstrakten Schablone, beispielsweise ein das Fahrzeug umschließendes Rechteck mit vorgegebenen Seitenverhältnissen, zu beschreiben. Andere Verfahren zur Durchführung des zweiten Schritts der Fahrzeugerkennung verwenden Trainingsverfahren wie neuronale Netze oder gestützte Vektorautomaten (support vector machines). Das Problem hier besteht in der Erzeugung von Trainingsdaten für alle möglichen Verkehrssituationen wie beispielsweise unterschiedlichste Wetterbedingungen.
In der DE 102 50 021 A1 wird nun ein Rückfahrkamerasystem eines Kraftfahrzeugs beschrieben, das zum Auffinden eines geeigneten Parkplatzes dient sowie zum automatischen Einparken verwendet werden kann. Das System verwendet zur Detektion eines geeigneten Parkplatzes eine Rückfahrkamera mit einem Weitwinkelobjektiv, wobei das aufgenommene Bild entzerrt und in eine Draufsicht auf den ermittelten Parkplatz umgerechnet wird.
Bei allen Verfahren liegt die Hauptschwierigkeit darin die zu detektierenden Objekte unabhängig von der Beschaffenheit der Fahrbahn sowie der Objekte selbst erkennen zu können.
Der Erfindung liegt daher die Aufgabe zugrunde, eine Verfahren und eine Vorrichtung zu schaffen, womit es mit höherer Sicherheit möglich ist, die einem Eigenfahrzeug nachfolgenden Objekte, d.h. Fahrzeuge, unabhängig von der Fahrbahn zu erkennen.
Diese Aufgabe wird durch eine Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 10 gelöst. Bevorzugte Ausgestaltungen des Verfahren sind Gegenstand der Unteransprüche.
Das erfindungsgemäße Verfahren zur Detektion von einem Eigenfahrzeug nachfolgenden Fahrzeugen mittels mindestens einer im Eigenfahrzeug angeordneten Rückfahrkamera weist die folgenden Schritte auf:
Aufnehmen von Bildern der hinter dem Eigenfahrzeug rückwärtigen Situation der Fahrzeugumgebung mit der mindestens einen Rückfahrkamera, Generierung einer Fahrbahntextur der rückwärtigen Fahrbahn hinter dem
Eigenfahrzeug ohne auf der Fahrbahn befindlichen Objekte aus den aufgenommenen
Bildern,
Differenzbildung zwischen dem aktuellen Bild und der aktuell generierten
Fahrbahntextur zur Detektion von Objekten.
Da die verwendeten Rückfahrkameras üblicherweise eine weiten Winkelbereich aufnehmen, d.h. es werden Bilder mit dem sog. Fischaugeneffekt erzeugt, wird vorzugsweise jedes aufgenommene Bild entzerrt und in eine perspektivische Ansicht überführt. In einem weiteren Schritt werden die Bilder weiter bevorzugt aus der perspektivischen Ansicht in eine Draufsicht, d.h. Vogelperspektive, transformiert. Der Vorgang wird auch als inverse perspektivische Abbildung (inverse perspective mapping) bezeichnet.
Zur Erzeugung der aktuellen Fahrbahntextur wird vorzugsweise aus dem aktuellen Bild ein Straßenbereich direkt hinter dem Fahrzeug ausgeschnitten und zu der Fahrbahntextur des vorigen Bildes hinzugefügt. Insbesondere kann die Breite des Ausschnitts aus dem aktuellen Bild vorgegeben sein und die Länge des Ausschnitts ergibt sich aus der Strecke, die zwischen zwei Bildaufnahmen zurückgelegt wird. Mit anderen Worten, aus dem entzerrten und transformierten Bild wird ein Ausschnitt hinter dem Eigenfahrzeug ausgeschnitten und an den Anfang der aus den vorherigen Bildern erzeugten Fahrbahntextur eingefügt, wobei die Eigengeschwindigkeit berücksichtigt werden muss, um eine konsistente aktuelle Fahrbahntextur zu erhalten. Vorzugsweise wird die Fahrbahntextur als Funktion der Geschwindigkeit des Eigenfahrzeugs gespeichert wird.
Vorzugsweise ist der Blickwinkel der mindestens einen Kamera unter einem vorgegebenen Winkel zur Fahrbahn angeordnet, wobei der Winkel zwischen 30° und 40°, vorzugsweise 36° beträgt.
Weiter bevorzugt wird das zeitliche Verhalten erkannter Objekte aus dem aktuellen Bild und den vorherigen aufgenommenen Bildern bestimmt und deren Relativgeschwindigkeit zum Eigenfahrzeug ermittelt, wobei dies durch entsprechende Speicherung der ermittelten Daten, insbesondere dynamische Speicherung der Fahrbahntextur, erzielt wird.
Vorzugsweise kann aus dem aktuellen Abstand eines detektierten Objekts, der Eigengeschwindigkeit des Eigenfahrzeugs und der ermittelten Relativgeschwindigkeit des detektierten Objekts der wahrscheinliche Kollisionszeitpunkt ermittelt werden. Dies ermöglicht es geeignete Maßnahmen zu ergreifen, wenn die Wahrscheinlichkeit eines potentiellen Heckunfalls, d.h. eines Auffahrunfalls, gegeben ist.
Eine erfindungsgemäße Vorrichtung zur Durchführung des im Vorangegangenen erläuterten
Verfahrens beinhaltet: eine an einem Eigenfahrzeug angeordnete Rückfahrkamera, eine Auswerteeinheit, welche die von der Rückfahrkamera aufgenommenen Bilder auswertet, die aktuelle Fahrbahntextur generiert, nachfolgende Objekte mittels
Differenzbildung bestimmt und die Fahrbahntextur dynamisch speichert sowie erkannte Objekte zeitlich verfolgt, und eine Einheit zur Berechnung eines Zeitintervall bis zu einer möglichen Kollision aus den Daten der detektierten Objekte und der Eigengeschwindigkeit.
Vorzugsweise wird eine am Heck des Eigenfahrzeugs angeordnete Mono-Farbkamera mit vorgegebener Auflösung und Bildwiederholfrequenz verwendet, wobei die Blickrichtung der Kamera und die Fahrbahn einen vorgegebenen Winkel einschließen. Insbesondere kann dieser Winkel zwischen 30° und 40°, vorzugsweise 36° betragen.
Weiter bevorzugt weist die Vorrichtung eine Steuereinheit auf, die Maßnahmen zur Minderung von Unfallfolgen im Falle einer wahrscheinlichen Kollision einleitet. Derartige Maßnahme können beispielsweise ein Straffung der Insassengurte oder eine Optimierung der Position der Nackenstütze sein.
Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. In den Figuren zeigt
Fig. 1 ein Eigenfahrzeug mit am Heck angeordneter Rückfahrkamera in schematischer Darstellung,
Fig. 2 ein rückwärtiges Bild der Rückfahrkamera vor und nach der Entzerrung
Fig. 3 ein Beispiel der inversen perspektivischen Abbildung eines Bildes,
Fig. 4 das Aktualisieren der Fahrbahntextur, und Fig. 5 die Detektion eines nachfolgenden Fahrzeugs in beispielhafter Darstellung.
Fig. 1 zeigt in schematischer Darstellung die Anordnung einer Rückfahrkamera an dem Heck 4 eines Kraftfahrzeugs 1 , welches sich auf einer Fahrbahn 2 in Fahrtrichtung 3 bewegt. Dabei ist die Kamera so am Heck 4 des Kraftfahrzeugs 1 angeordnet, dass die Blickrichtung 5, d.h. die optische Achse der Kamera, mit der Fahrbahn unter einem vorgegebenen Blickwinkel α angeordnet ist. Dieser Blickwinkel α liegt zwischen 30° und 40°, vorzugsweise beträgt der Blickwinkel 36° bei normalen Lastbedingungen, wobei die Kamera in einer Höhe von ca. 80 cm am Heck montiert ist.
In der bevorzugten Ausführungsform kommt eine einzelne monokulare Farb-CCD-Kamera zum Einsatz, wie sie in einigen Produktlinien als Standardkamera verwendet wird. Eine solche Kamera hat üblicherweise eine Auflösung von 51O x 492 Pixeln und liefert annähernd 60 Halbbilder pro Sekunde im NTSC-Format. Andere Kameras mit anderen Auflösungen und Ausgabeformaten sind selbstverständlich möglich. Der Aperturwinkel in horizontaler Richtung beträgt ca. 131 ° und derjenige in vertikaler Richtung ca. 100°.
Da die Stellelemente, beispielsweise Motoren für die Verstellung der Nackenstütze, einige Zeit zum Erreichen der vorgesehenen Position im Fall eines Auffahrunfalls benötigen, muss das Beobachtungssystem die Warnung eine Mindestzeit vor dem möglichen Auffahrunfall an die Stellglieder signalisieren. Folglich müssen die nachfolgenden Fahrzeuge so früh als möglich detektiert werden. Allerdings setzt die Auflösung und Anordnung der Kamera am Heck 4 des Fahrzeugs 1 Grenzen hinsichtlich der möglichen Detektionsdistanz. Weiterhin müssen bei der Auswertung Fehler der Kamerakalibrierung berücksichtigt werden.
Generell gilt, dass mit der Verwendung von Rückfahrkameras ein gewisses Maß an a-priori Wissen vorliegt, das verwendet werden kann. So bewegen sich statische Objekte vom Eigenfahrzeug während der Fahrt weg, was eine wichtige Information für eine verlässliche Fahrzeugdetektion darstellt. Ferner wird davon ausgegangen, dass die Fahrbahn annähernd durch eine Ebene approximiert werden kann, was zumindest für einen bestimmten Bereich hinter dem Eigenfahrzeug mit hoher Wahrscheinlichkeit zutrifft. Dabei liegt der Bereich bei der oben genannten Kamera bei ca. 40 m. Fig. 2 zeigt in Teil a) ein von der Rückfahrkamera aufgenommenes rückwärtiges Bild der Fahrbahn 2 hinter dem Eigenfahrzeug. Dabei ist in der Eigenspur der Fahrbahn 2 ein entferntes Fahrzeug 10 zu sehen, während auf der in Fahrtrichtung linken Spur ein weiteres Fahrzeug 11 zu erkennen ist, welches sich näher am Eigenfahrzeug 1 befindet. Ferner ist auf der Gegenfahrbahn ein sich vom Eigenfahrzeug 1 entfernendes Fahrzeug 12 zu erkennen. Deutlich zu erkennen ist der Fischaugeneffekt des Weitwinkelobjektives der Kamera.
In Teil b) der Fig. 2 ist das entzerrte Bild dargestellt mit den beiden nachfolgenden Fahrzeugen 10 und 11 sowie dem sich entfernenden Fahrzeug 12. Der Algorithmus zum Entzerren der Bilder ist bekannt und bedarf daher keiner näheren Erläuterung.
Fig. 3 zeigt in schematischer Darstellung die Wirkung der inversen perspektivischen Abbildung IPM, die beispielsweise in H. Mallot et al.: "Inverse perspective mapping simplifies optical flow computation and obstacle detection", Biological Cybemetics, S 177-185, Vol. 64, No. 3, 1991 , beschrieben ist. Eine derartige inverse perspektivische Abbildung kann zur Transformation des in Teil a) dargestellten entzerrten Fahrbahnbildes in die in Teil b) dargestellte Draufsicht oder Vogelperspektive verwendet werden.
Fig. 4 zeigt nun den Ablauf der Erstellung der aktuellen Fahrbahntextur aus dem aktuellen Bild der Rückfahrkamera, die zur Bestimmung nachfolgender Objekte notwendig ist.
Dabei zeigt Teil a) der Fig. 4 ein entzerrtes Bild zum Zeitpunkt tn der Rückfahrkamera, welches mittels der inversen perspektivischen Abbildung in die in Teil b) dargestellte Draufsicht transformiert wird. In dieser Draufsicht gibt es einen Update-Bereich UP, der in Teil b) als Rechteck eingezeichnet ist. Es ist dies der Fahrbahnbereich, der vom Eigenfahrzeug 1 mit der aktuellen Geschwindigkeit v seit dem vorangegangenen Bild zum Zeitpunkt tn-1 zurückgelegt wurde. Da aufgrund der Bildwiederholfrequenz, der Geschwindigkeit v des Eigenfahrzeugs und der Ausrichtung der Kamera gegenüber der Fahrbahn dies ein Bereich ist, der unmittelbar hinter dem Eigenfahrzeug angeordnet ist, befindet sich in diesem Update-Bereich UB selbst bei höheren Geschwindigkeiten kein nachfolgendes Fahrzeug. Es ist daher möglich, aus einer Mehrzahl derartiger Update- Bereiche zu nacheinanderfolgenden Zeitpunkten nach und nach eine Fahrbahntextur ohne Fahrzeuge zusammenzusetzen und abzuspeichern. Eine derartig zusammengesetzte Fahrbahntextur zum vorherigen Zeitpunkt tn-1 ist in Teil c) der Fig. 4 dargestellt. Diese Fahrbahntextur zum Zeitpunkt tn-1 wird nun in negativer y- Richtung um den zwischen den Zeitpunkten tn und tn-1 zurückgelegten Weg des Eigenfahrzeugs verschoben. Die so entstehende Lücke L entspricht genau dem Update- Bereich UB des aktuellen Bildes zum Zeitpunkt tn. Dieser Update-Bereich UB wird in die Lücke L einkopiert, so dass sich die in Teil e) der Fig. 4 dargestellt aktuelle Fahrbahntextur zum Zeitpunkt tn ergibt.
Fig. 5 zeigt nun in schematischer Darstellung die Differenzbildung zwischen aktuellem Bild und aktueller Fahrbahntextur zum Zeitpunkt tn, d.h. die Detektion eines nachfolgenden Objekts bzw. Fahrzeugs. Dabei zeigt Teil a) der Fig. 5 das entzerrte aktuelle Bild der Rückfahrkamera des Eigenfahrzeugs in perspektivischer Darstellung, Teil b) die aktuelle Fahrbahntextur in perspektivischer Darstellung, Teil c) das aktuelle Bild in Draufsicht und Teil d) die aktuelle Fahrbahntextur in Draufsicht. Es ist offensichtlich, dass dort wo eine Differenzbildung des aktuellen Bildes und der aktuellen Fahrbahntextur eine Differenz in den Pixelwerten ergibt, sich ein nachfolgendes Objekt befindet. Unter Berücksichtigung der in der Entfernung reduzierten Auflösung der Rückfahrkamera können so nachfolgende Objekte vermessen werden.
Der Abstand zwischen dem Eigenfahrzeug und dem detektierten nachfolgenden Objekt ergibt sich aus den entsprechenden y-Komponenten, wobei das nachfolgende Objekt O hier durch einen Strich dargestellt ist, der das vordere Ende des nachfolgenden Objekts wiedergibt. Durch dynamisches Speichern der detektierten Objekte über ein entsprechendes Zeitfenster kann daher auch die Relativgeschwindigkeit des nachfolgenden Objekts zum Eigenfahrzeug ermittelt werden, so dass eine Berechnung eines möglichen Kollisionszeitpunktes möglich ist, wodurch die Möglichkeit zum Auslösen entsprechender Maßnahmen gegeben ist. BEZUGSZEICHENLISTE
1 Eigenfahrzeug
2 Fahrbahn
3 Fahrtrichtung
4 Heck des Eigenfahrzeugs
5 Optische Achse der Rückfahrkamera
10 nachfolgendes Fahrzeug
11 nachfolgendes Fahrzeug
12 Fahrzeug in Gegenrichtung
α Winkel zwischen optischer Kameraachse und Fahrbahn
IPM inverse Perspektive Abbildung
UB Update-Bereich tn Zeitpunkt des aktuellen Bildes tn-1 Zeitpunkt des vorherigen Bildes v Eigenfahrzeuggeschwindigkeit
L Lücke
O Objekt

Claims

P AT E N TA N S P R Ü C H E
1. Verfahren zur Detektion von einem Eigenfahrzeug (1 ) nachfolgenden Objekten (O) mittels mindestens einer im Eigenfahrzeug (1 ) angeordneten Rückfahrkamera mit den Schritten:
Aufnehmen von Bildern der rückwärtigen Situation der Fahrzeugumgebung hinter dem Eigenfahrzeug (1 ) mit der mindestens einen Rückfahrkamera,
Generierung einer Fahrbahntextur der rückwärtigen Fahrbahn hinter dem
Eigenfahrzeug ohne auf der Fahrbahn befindlichen anderen Objekte(10, 11 ) aus den aufgenommenen Bildern,
Differenzbildung zwischen dem aktuellen Bild und der aktuell generierten
Fahrbahntextur zur Detektion von Objekten (O).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die aufgenommenen Bilder entzerrt werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die aufgenommenen Bilder in eine Draufsicht transformiert werden.
4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass aus dem aktuellen Bild ein Straßenbereich (UB) direkt hinter dem Eigenfahrzeug (1 ) ausgeschnitten und zu der Fahrbahntextur der vorigen Bilderhinzugefügt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Breite des ausgeschnittenen Straßenbereichs (UB) aus dem aktuellen Bild vorgegeben ist und die Länge des Ausschnitts sich aus der Strecke ergibt, die zwischen zwei Bildaufnahmen zurückgelegt wird.
6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Fahrbahntextur als Funktion der Geschwindigkeit des Eigenfahrzeugs (1 ) gespeichert wird.
7. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Blickrichtung der mindestens einen Kamera unter einem vorgegebenen Blickwinkel α zur Fahrbahn angeordnet ist.
8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das zeitliche Verhalten erkannter Objekte (O) aus dem aktuellen Bild und den vorherigen Bildern bestimmt und deren Relativgeschwindigkeit zum Eigenfahrzeug (1) ermittelt wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass aus dem aktuellen Abstand eines detektierten Objekts (O), der Eigengeschwindigkeit des Eigenfahrzeugs (1 ) und der ermittelten Relativgeschwindigkeit des detektierten Objekts (O) der wahrscheinliche Kollisionszeitpunkt berechnet wird.
10. Vorrichtung zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche mit einer an einem Eigenfahrzeug (1 ) angeordneten Rückfahrkamera, einer Auswerteeinheit, welche die von der Rückfahrkamera aufgenommenen Bilder auswertet, die aktuelle Fahrbahntextur generiert, nachfolgende Objekte (O) mittels
Differenzbildung bestimmt und die Fahrbahntextur dynamisch speichert sowie erkannte Objekte (O) zeitlich verfolgt, und einer Einheit zur Berechnung eines Zeitintervall bis zu einer möglichen Kollision aus den Daten der detektierten Objekte (O) und der Eigengeschwindigkeit.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass eine am Heck des Eigenfahrzeugs (1 ) angeordnete Mono-Farbkamera mit vorgegebener Auflösung und Bildwiederholfrequenz verwendet wird, wobei die Blickrichtung der Kamera und die Fahrbahn einen vorgegebenen Winkel einschließen.
12. Vorrichtung nach einem der Ansprüche 10 oder 11 , dadurch gekennzeichnet, dass die Vorrichtung eine Steuereinheit aufweist, die Maßnahmen zur Minderung von Unfallfolgen im Falle einer wahrscheinlichen Kollision einleitet.
PCT/EP2008/000862 2007-02-26 2008-02-04 Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug WO2008104263A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AT08715687T ATE507108T1 (de) 2007-02-26 2008-02-04 Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug
EP08715687A EP2129548B1 (de) 2007-02-26 2008-02-04 Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug
DE502008003354T DE502008003354D1 (de) 2007-02-26 2008-02-04 Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP07003927 2007-02-26
EP07003927.6 2007-02-26
DE102007033735A DE102007033735A1 (de) 2007-02-26 2007-07-18 Verfahren und Vorrichtung zur Detektion von nachfolgenden Fahrzeugen in einem Kraftfahrzeug
DE102007033735.5 2007-07-18

Publications (1)

Publication Number Publication Date
WO2008104263A1 true WO2008104263A1 (de) 2008-09-04

Family

ID=39646149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/000862 WO2008104263A1 (de) 2007-02-26 2008-02-04 Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug

Country Status (4)

Country Link
EP (1) EP2129548B1 (de)
AT (1) ATE507108T1 (de)
DE (2) DE102007033735A1 (de)
WO (1) WO2008104263A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011055795A1 (de) * 2011-11-29 2013-05-29 Continental Automotive Gmbh Verfahren zur Ermittlung eines drohenden Überschlags eines Fahrzeugs
CN111402132A (zh) * 2020-03-11 2020-07-10 黑芝麻智能科技(上海)有限公司 倒车辅助方法及系统、图像处理器及相应的辅助驾驶系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2945491A1 (fr) * 2009-05-18 2010-11-19 Peugeot Citroen Automobiles Sa Procede et dispositif pour etendre une zone de visibilite
DE102012025322B4 (de) 2012-12-22 2014-08-21 Audi Ag Kraftfahrzeug mit Kamera-Monitor-System

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985172B1 (en) * 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
EP1646008A1 (de) 2004-10-11 2006-04-12 Delphi Technologies, Inc. Verfahren zur Erkennung von Hindernissen im Fahrweg eines Kraftfahrzeugs
EP1830321A2 (de) * 2006-03-02 2007-09-05 Hitachi, Ltd. Hinderniserkennungssystem

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10250021A1 (de) 2002-10-25 2004-05-13 Donnelly Hohe Gmbh & Co. Kg Verfahren zum Betrieb eines Darstellungssystems in einem Fahrzeug zum Auffinden eines Parkplatzes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985172B1 (en) * 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
EP1646008A1 (de) 2004-10-11 2006-04-12 Delphi Technologies, Inc. Verfahren zur Erkennung von Hindernissen im Fahrweg eines Kraftfahrzeugs
EP1830321A2 (de) * 2006-03-02 2007-09-05 Hitachi, Ltd. Hinderniserkennungssystem

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NIEMANN H ET AL: "INTEGRATED MOTION AND GEOMETRY BASED OBSTACLE DETECTION IN IMAGE SEQUENCES OF TRAFFIC SCENES", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, vol. 2736, 8 April 1996 (1996-04-08), pages 228 - 239, XP008052435, ISSN: 0277-786X *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011055795A1 (de) * 2011-11-29 2013-05-29 Continental Automotive Gmbh Verfahren zur Ermittlung eines drohenden Überschlags eines Fahrzeugs
US9187051B2 (en) 2011-11-29 2015-11-17 Conti Temic Microelectronic Gmbh Method for detecting an imminent rollover of a vehicle
CN111402132A (zh) * 2020-03-11 2020-07-10 黑芝麻智能科技(上海)有限公司 倒车辅助方法及系统、图像处理器及相应的辅助驾驶系统
CN111402132B (zh) * 2020-03-11 2024-02-02 黑芝麻智能科技(上海)有限公司 倒车辅助方法及系统、图像处理器及相应的辅助驾驶系统

Also Published As

Publication number Publication date
EP2129548B1 (de) 2011-04-27
DE502008003354D1 (de) 2011-06-09
EP2129548A1 (de) 2009-12-09
ATE507108T1 (de) 2011-05-15
DE102007033735A1 (de) 2008-08-28

Similar Documents

Publication Publication Date Title
DE102009005505B4 (de) Verfahren und Vorrichtung zur Erzeugung eines Abbildes der Umgebung eines Kraftfahrzeugs
DE112013007129B4 (de) Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren
EP1634243B1 (de) Verfahren und vorrichtung zur objektortung für kraftfahrzeuge
DE102012111846B4 (de) Kollisionsschutzverfahren und Kollisionsschutzsystem
DE102021119920A1 (de) Verfahren zur Vorhersage einer Trajektorie eines Fahrzeugs
WO2004041611A1 (de) Fahrdynamikregelung mit bildsensorsystem
DE102015107675A1 (de) System und Verfahren zur Schätzung einer Fahrzeugdynamik unter Verwendung von Merkmalpunkten in Bildern von mehreren Kameras
DE102004046101B4 (de) Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE10359241B4 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren für ein Fahrzeug
DE112017000342T5 (de) Fahrunterstützungsvorrichtung und fahrunterstützungsverfahren
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
WO2013020872A1 (de) Objekterfassungsvorrichtung für ein fahrzeug, fahrzeug mit einer derartigen objekterfassungsvorrichtung sowie verfahren zur ermittlung einer relativen lagebeziehung von stereokameras zueinander
EP2788968A1 (de) Verfahren und fahrzeugassistenzsystem zur aktiven warnung und/oder zur navigationshilfe zur vermeidung einer kollision eines fahrzeugkarosserieteils und/oder eines fahrzeugrades mit einem objekt
DE102019215399A1 (de) Verfahren und vorrichtung zum analysieren einer fahrtendenz und system zum steuern eines fahrzeugs
DE102019102980A1 (de) Verfahren und vorrichtungen zum vereinfachen einer umgebungssichtverhältnisbestimmung
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
EP2129548B1 (de) Verfahren und vorrichtung zur detektion von nachfolgenden fahrzeugen in einem kraftfahrzeug
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten
DE102011076795A1 (de) Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
DE102011118171A1 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08715687

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008715687

Country of ref document: EP