WO2009049750A2 - Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit - Google Patents

Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit Download PDF

Info

Publication number
WO2009049750A2
WO2009049750A2 PCT/EP2008/008023 EP2008008023W WO2009049750A2 WO 2009049750 A2 WO2009049750 A2 WO 2009049750A2 EP 2008008023 W EP2008008023 W EP 2008008023W WO 2009049750 A2 WO2009049750 A2 WO 2009049750A2
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
camera
omnidirectional
display unit
Prior art date
Application number
PCT/EP2008/008023
Other languages
English (en)
French (fr)
Other versions
WO2009049750A3 (de
Inventor
Tobias Ehlgen
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Priority to JP2010529255A priority Critical patent/JP5077606B2/ja
Priority to US12/681,807 priority patent/US8599258B2/en
Priority to EP08802513A priority patent/EP2198390A2/de
Publication of WO2009049750A2 publication Critical patent/WO2009049750A2/de
Publication of WO2009049750A3 publication Critical patent/WO2009049750A3/de

Links

Classifications

    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • the invention relates to a method for calibrating an arrangement comprising at least one omnidirectional camera arranged on an object, in particular a vehicle, and an optical display unit, in which an image displayed by the display unit reproduces a perspective of a virtual camera imagined above the object, wherein an image of the virtual camera in one
  • Object coordinate system is projected and wherein an image of the omnidirectional camera is projected into the object coordinate system.
  • the invention relates to a method for image processing and image display by means of an arrangement of at least one arranged on an object, in particular a vehicle omnidirectional camera and an optical display unit.
  • Omnidirectional cameras are basically known. They can be used to detect omnidirectional images (also called bird's eye views) whose image information contains data, such as image positions with regard to the position of detected objects or objects, including the distance of the object from the omnidirectional camera.
  • omnidirectional cameras are used to monitor vehicle environments in front of, beside, and / or behind a vehicle. In this case, objects or objects are identified, for example, by means of the omnidirectional camera in the vehicle environment. In order to be able to determine the position and / or the distance of the identified objects with sufficient accuracy, in particular, the exact position and the exact orientation of the omnidirectional camera relative to the vehicle are known.
  • omnidirectional cameras can be used to navigate confusing vehicles, such as trucks, for example when driving backwards, by presenting images taken by the camera to a driver on an optical display unit.
  • the heavily distorted images of the omnidirectional camera are transformed in such a way that the driver gets a bird's-eye view.
  • the problem here is that the proximity to the vehicle so that is very well detectable, but more distant objects are not displayed.
  • US Pat. No. 7,161,616 B1 discloses an image processing technique in which a plurality of cameras record images of an environment of a vehicle. These images are transformed so that the environment of the vehicle is interpreted as being projected onto an inner surface of a hemisphere or bowl, so that more distant pixels are also displayed. The distortion increases from a central region of the hemisphere to the outside. The method requires a high computational effort.
  • the invention is therefore based on the object, an improved method for calibrating an arrangement of at least one omnidirectional camera and an optical display unit and a method for image processing and Represent image representation by means of an arrangement of at least one arranged on an object, in particular a vehicle omnidirectional camera and an optical display unit.
  • the object is achieved by the features specified in claim 1.
  • the object is achieved by the features specified in claim 5.
  • an arrangement of at least one omnidirectional camera arranged on an object, in particular a vehicle, and an optical display unit are calibrated with the method described below.
  • a virtual camera is defined whose image is displayed by the display unit.
  • An image of the virtual camera is projected into an object coordinate system. Resulting points in the object coordinate system are projected into the omnidirectional camera or in its coordinate system.
  • pixels of the image of the virtual camera within a circle or ellipse that is about the object are projected onto an imaginary plane. Pixels of the image outside the circle or the ellipse are transformed by the virtual camera into the object coordinate system so that they point to a imaginary area that increases from the edge of the circle or ellipse, where a height of the pixels on the area in the object coordinate system is proportional to a distance of the pixel to a center of the circle or ellipse.
  • the surface has the shape of a lateral surface of a truncated cone.
  • the lateral surface of the truncated cone in this case has a linear slope, therefore, a projection on this surface can be calculated in a particularly simple manner.
  • a lateral surface of a truncated cone as a projection surface has the advantage that, compared to surfaces with a non-linear gradient, for example in the case of an ellipsoid, significantly less distortion occurs in the image.
  • a lateral surface of a truncated cone results for the driver a particularly intuitive and easily catchy image representation. Distortions occur here at best in the edge region of the lateral surface of the truncated cone, whereas representations in the center of the image takes place in a particularly advantageous manner distortion-free.
  • the omnidirectional camera is preferably calibrated for intrinsic parameters with the aid of a calibration body comprising the entire field of view of the camera
  • the calibration body has in particular the shape of a barrel, the inside of which is provided with circular markings.
  • the markings are in particular by means of a in [T. Luhmann. Nah Kunststoffsphotogrammie, Herbert Wichmann Verlag, 2000. 4] measured with subpixel accuracy.
  • Extrinsic camera parameters such as translation and rotation of the camera with respect to the object coordinate system, are detected on object-mounted omnidirectional cameras. For this rectangular markings can be used.
  • SPIE Photonics Europe Optical Metrology in Production Engineering
  • Intrinsic parameters of the camera are, for example, a focal length, a pixel size (width, height), an image center with respect to the respective coordinate system and distortions.
  • the thus calibrated arrangement is now used in a method of image processing and image display, in which an environment of the object is recorded with the omnidirectional camera and reproduced in the display unit according to the calibration.
  • omnidirectional cameras preferably two omnidirectional cameras are used which, for example, can be arranged on a rear side of a vehicle in the region of a roof edge.
  • a larger number of omnidirectional cameras or only one omnidirectional camera may be provided.
  • an area detected by the omnidirectional cameras with respect to the vehicle is asymmetrically divided among the cameras. This division is described for example in the patent DE 102006003538 B3 of the applicant. This avoids that further objects in the environment of the vehicle disappear from the field of vision due to the assumption of a planar environment which results from the back projection onto the imaginary plane.
  • Each point of the object coordinate system is projected behind the vehicle and to the right into the right-hand omnidirectional camera.
  • Each point to the left of the vehicle is projected into the left omnidirectional camera.
  • a driving movement is predicted as a function of a steering angle and superimposed on the image in the display unit.
  • the driver can estimate whether he can reach with the current steering angle with the vehicle when reversing a desired position.
  • the calculation can be based on a single-track model in which two wheels of an axle are modeled by a virtual wheel in the middle of the axle.
  • Showing: 1 shows a rear side of a vehicle with two omnidirectional cameras
  • FIG. 2 is a schematic representation of a vehicle and its surroundings in standard bird's-eye view, as known from the prior art
  • FIG. 3 shows a schematic illustration of a vehicle and its surroundings in an expanded bird's-eye view, by means of the method according to the invention for image processing and image display,
  • FIG. 4 shows a view of the vehicle and its surroundings in an extended bird's-eye view superimposed on an optical display unit in the vehicle with superimposed predicted driving movement when reversing
  • Fig. 5 is a single track model for predicting the driving movement.
  • FIG. 1 shows a rear side of an object 1 designed as a vehicle with two omnidirectional cameras 2.
  • the reference numeral 1 is also used below for the vehicle.
  • the omnidirectional cameras 2 accommodate an environment of the vehicle 1 beside and behind the vehicle 1 at a very wide angle. An edited image of the cameras is displayed in the vehicle 1 on a display unit, not shown.
  • the cameras 2 are calibrated for this purpose with respect to the vehicle 1. Because of the fixed arrangement of Cameras 2, the calibration must be performed only once.
  • the aim of the calibration is first the generation of a representation of the vehicle 1 and its surroundings in bird's eye view. This will be a virtual camera over the
  • Vehicle 1 defined.
  • X w ⁇ X, + C p
  • ⁇ _ c P -yx r - y X r R p
  • X p R p ⁇ ⁇ p . ⁇ , ⁇ p .y, f ⁇
  • the focal length of the virtual camera, R p and C p are the rotation and translation of the virtual camera with respect to the object coordinate system, whose origin may lie, for example, in the middle of a bumper at the rear of the vehicle 1, wherein the y-axis is perpendicular to above.
  • the backprojected points X w are projected into at least one of the omnidirectional cameras 2, that is to say in the images recorded therewith. This projection is detailed in [C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and is applications. In Omnivs, 2007. 2] described.
  • each point X w of the coordinate system object is projected behind the vehicle 1 and to the right thereof in the right-hand arranged omnidirectional camera 2.
  • Each point X w to the left of the vehicle 1 is projected into the left-side omnidirectional camera 2. This is described in detail in the patent DE 102006003538 B3 of the applicant.
  • FIG. 2 shows a schematic representation of the vehicle 1 and its surroundings in the standard bird's-eye view achieved with a configuration calibrated in such a way from the two omnidirectional cameras 2 and the optical display unit.
  • the rectified representation shown is achieved, as indicated by the checkerboard pattern.
  • the asymmetrical division of the field of view on the two omnidirectional cameras 2 is indicated by the different representation of the checkerboard pattern.
  • a driver of the vehicle 1 can thus determine whether there are obstacles in the vicinity of the vehicle 1.
  • the method is known from the prior art.
  • This inner region 3 lies within an imaginary circle with the radius r around the vehicle 1 or the coordinate origin of the object coordinate system.
  • Each pixel x p in the image of the virtual camera is backprojected onto the imaginary plane and thus overlapped, so that the point X w results in the object coordinate system.
  • An interpolation of the projected point X u gives an intensity value for the pixel x p .
  • Points X w outside the inner region 3 are projected not onto the imaginary plane but onto a surface rising from the edge of the circle. This means that a high X vY depends on a distance of the point X w from a center of the circle:
  • FIG. 4 shows a view of the vehicle 1 and its surroundings, shown on the optical display unit in the vehicle 1, in an expanded bird's eye view with a superimposed predicted driving movement during reversing.
  • the traveling motion is represented as a first corridor 4 for the movement of the rear bumper and a second corridor 5 for the movement of the front bumper, within which the vehicle 1 will move according to a current steering angle ⁇ R unless the steering angle ⁇ R is changed. If the steering angle ⁇ R is changed, the prognosis must be adjusted accordingly.
  • the line 4.1 of the corridor denotes the rear bumper.
  • the line 4.2 indicates a distance of, for example, 1 m from the bumper to the rear, which may for example correspond to the pivoting range of rear corners of the vehicle 1.
  • the line 4.3 denotes a distance of about the length of the vehicle 1.
  • the radius r of the circle, which surrounds the inner region 3, should be at least equal to the distance of the line 4.3 from the rear bumper.
  • a so-called single track model 6 is used, in which each two wheels of an axle of the vehicle 1 are modeled by a virtual wheel 7 in the middle of the axle.
  • the front and rear virtual wheels 7 are connected by a rigid line.
  • the model is sufficient under the constraint that the vehicle 1 does not move about its longitudinal axis and the load on the wheels remains the same. For low speeds, such as when reversing and maneuvering occur these assumptions are justified.
  • one or more corridors can also be represented in the image based on this model assumption, which allows the driver to have a particularly intuitive perception of the situation and enables a particularly simple maneuvering of the vehicle.
  • the other parameters depend on the steering angle ⁇ ⁇ : r h radius of movement of the front virtual wheel 7 r R radius of movement of the rear virtual wheel 7 r o Movement radius of a center of the rear
  • the model is formed by the following equations:
  • the radii of movement of the left and right outside points of the rear bumper can be calculated analogously to r o :
  • the omnidirectional cameras 2 are designed in particular as mirror-lens cameras.
  • the described methods can also be carried out with only one omnidirectional camera 2 or with more than two omnidirectional cameras 2.
  • the cameras 2 may be arranged in the region of a roof edge of the vehicle 1.
  • the inner region 3 can also be described by means of an ellipse instead of a circle.
  • the imaginary plane may correspond to a ground on which the vehicle 1 stands.

Abstract

Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Anordnung aus mindestens einer an einem Fahrzeug (1) angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt (1) gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein Objektkoordinatensystem projiziert wird und wobei dabei sich ergebende Punkte (Xw, Xw.Y) in die omnidirektionale Kamera projiziert werden, wobei bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem Pixel (xp) des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt (1) gedacht ist, auf eine gedachte Ebene projiziert werden, während Pixel (xp) des Bildes außerhalb des Kreises oder der Ellipse von der virtuellen Kamera in das Objektkoordinatensystem so transformiert werden, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt.

Description

Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen
Anzeigeeinheit
Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein
Objektkoordinatensystem projiziert wird und wobei ein Bild der omnidirektionalen Kamera in das Objektkoordinatensystem projiziert wird. Darüber hinaus betrifft die Erfindung ein Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit.
Omnidirektionale Kameras sind grundsätzlich bekannt. Mit ihnen können omnidirektionale Bilder (auch Vogelperspektiv- Bilder oder bird's eye view genannt) erfasst werden, deren Bildinformationen Daten, wie beispielsweise Bildpositionen in Bezug auf die Lage von erfassten Objekten oder Gegenständen, einschließlich des Abstands des Objekts zur omnidirektionalen Kamera enthalten. Omnidirektionale Kameras werden beispielsweise zur Überwachung von Fahrzeugumgebungen vor, neben und/oder hinter einem Fahrzeug eingesetzt. Dabei werden beispielsweise mittels der omnidirektionalen Kamera in der Fahrzeugumgebung Objekte oder Gegenstände identifiziert. Um insbesondere die Position und/oder den Abstand der identifizierten Objekte hinreichend genau bestimmen zu können, sind die genaue Position und die genaue Ausrichtung der omnidirektionalen Kamera relativ zum Fahrzeug bekannt. Insbesondere können omnidirektionale Kameras zum Navigieren unübersichtlicher Fahrzeuge, wie LKW, beispielsweise beim rückwärts Fahren verwendet werden, indem von der Kamera aufgenommene Bilder einem Fahrer auf einer optischen Anzeigeeinheit präsentiert werden. Dabei werden die stark verzerrten Bilder der omnidirektionalen Kamera so transformiert, dass sich für den Fahrer eine Vogelperspektive ergibt. Problematisch ist dabei, dass der Nahbereich um das Fahrzeug damit sehr gut erfassbar ist, jedoch weiter entfernte Objekte nicht dargestellt werden .
Aus der US 7,161,616 Bl ist eine Bildverarbeitungstechnik bekannt, bei der eine Vielzahl von Kameras Bilder einer Umgebung eines Fahrzeugs aufnimmt. Diese Bilder werden so transformiert, dass die Umgebung des Fahrzeugs als auf eine Innenfläche einer Art Halbkugel oder Schüssel projiziert interpretiert wird, so dass auch weiter entfernte Bildpunkte dargestellt werden. Dabei nimmt die Verzerrung von einem zentralen Bereich der Halbkugel aus nach außen zu. Das Verfahren erfordert einen hohen Rechenaufwand.
Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zum Kalibrieren einer Anordnung aus mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit und ein Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit anzugeben .
Hinsichtlich des Verfahrens zum Kalibrieren der Anordnung wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale gelöst. Hinsichtlich des Verfahrens zur Bildverarbeitung und Bilddarstellung wird die Aufgabe erfindungsgemäß durch die im Anspruch 5 angegebenen Merkmale gelöst.
Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
Erfindungsgemäßen wird eine Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit mit dem nachfolgend beschriebenen Verfahren kalibriert. Oberhalb des Objekts wird eine virtuelle Kamera definiert, deren Bild von der Anzeigeeinheit dargestellt wird. Ein Bild der virtuellen Kamera wird in ein Objektkoordinatensystem projiziert. Dabei sich ergebende Punkte im Objektkoordinatensystem werden in die omnidirektionale Kamera, beziehungsweise in deren Koordinatensystem proj iziert .
Bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem werden Pixel des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt gedacht ist, auf eine gedachte Ebene projiziert. Pixel des Bildes außerhalb des Kreises oder der Ellipse werden von der virtuellen Kamera in das Objektkoordinatensystem so transformiert, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt, wobei eine Höhe der Pixel auf der Fläche im Objekt koordinatensystem proportional zu einer Entfernung des Pixels zu einem Mittelpunkt des Kreises oder der Ellipse ist. Mit einem so kalibrierten System ist eine nähere Umgebung des Objekts innerhalb des Kreises oder der Ellipse weitgehend unverzerrt darstellbar, während auch weiter entfernte Bereiche der Umgebung, die bei bekannten Verfahren nicht sichtbar sind, dargestellt werden. Die so erzielte erweiterte Vogelperspektive erzeugt ein weites und intuitives Sichtfeld. Für einen Fahrer eines Fahrzeugs wird das Manövrieren, insbesondere beim rückwärts Fahren, einfacher .
Vorzugsweise weist die Fläche die Form einer Mantelfläche eines Kegelstumpfs auf. Die Mantelfläche des Kegelstumpfes weist dabei eine lineare Steigung auf, daher kann eine Projektion auf diese Fläche auf besonders einfache Weise berechnet werden. Weiterhin bietet eine Mantelfläche eines Kegelstumpfes als Projektionsfläche den Vorteil, dass dabei im Vergleich zu Flächen mit nicht-linearer Steigung, beispielsweise bei einem Ellipsoid, deutlich geringere Verzerrungen im Bild entstehen. Durch die Verwendung einer Mantelfläche eines Kegelstumpfes ergibt sich für den Fahrer eine besonders intuitive und auf einfache Weise eingängige Bilddarstellung. Verzerrungen treten hierbei allenfalls im Randbereich der Mantelfläche des Kegelstumpfes auf, wohingegen Darstellungen in der Bildmitte in besonders vorteilhafter Weise verzerrungsfrei erfolgt.
Die omnidirektionale Kamera wird bevorzugt bezüglich intrinsischer Parameter mit Hilfe eines Kalibrationskörpers kalibriert, der den gesamten Sichtbereich der Kamera umfasst Der Kalibrationskörper weist insbesondere die Form eines Fasses auf, dessen Innenseite mit kreisförmigen Markierungen versehen ist. Zur Kalibrierung der omnidirektionalen Kamera werden die Markierungen insbesondere mittels eines in [T. Luhmann . Nahbereichsphotogrammetrie, Herbert Wichmann Verlag, 2000. 4] beschriebenen Verfahrens mit Subpixel-Genauigkeit vermessen. Extrinsische Kameraparameter, beispielsweise Translation und Rotation der Kamera bezüglich des Objektkoordinatensystems, werden bei am Objekt montierten omnidirektionalen Kameras ermittelt. Hierzu können rechteckige Markierungen verwendet werden. Beispielsweise kommt hierbei ein in [L.E. Krüger, C. Wöhler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe (Optical Metrology in Production Engineering), 5457:126-137, Sep 2004. 4,5] beschriebenes Verfahren zum Einsatz.
Intrinsische Parameter der Kamera sind beispielsweise eine fokale Länge, eine Pixelgröße (Breite, Höhe) , ein Bildmittelpunkt bezüglich des jeweiligen Koordinatensystems und Verzeichnungen.
Die so kalibrierte Anordnung wird nun in einem Verfahren zur Bildverarbeitung und Bilddarstellung benutzt, bei dem eine Umgebung des Objekts mit der omnidirektionalen Kamera aufgenommen und in der Anzeigeeinheit entsprechend der Kalibrierung wiedergegeben wird.
Dabei kommen vorzugsweise zwei omnidirektionale Kameras zum Einsatz, die beispielsweise an einer Rückseite eines Fahrzeugs im Bereich einer Dachkante angeordnet sein können. Es kann jedoch auch eine größere Anzahl omnidirektionaler Kameras oder nur eine omnidirektionale Kamera vorgesehen sein. Insbesondere wird ein von den omnidirektionalen Kameras erfasster Bereich bezüglich des Fahrzeugs asymmetrisch auf die Kameras aufgeteilt. Diese Aufteilung ist beispielsweise in der Patentschrift DE 102006003538 B3 der Anmelderin beschrieben. Dadurch wird vermieden, dass weitere Objekte in der Umgebung des Fahrzeugs infolge der Annahme einer ebenen Umgebung, die sich aus der Rückprojektion auf die gedachte Ebene ergibt, aus dem Sichtbereich verschwinden. Dabei wird jeder Punkt des Objektkoordinatensystems hinter dem Fahrzeug und rechts davon in die rechts angeordnete omnidirektionale Kamera projiziert. Jeder Punkt links vom Fahrzeug wird in die links angeordnete omnidirektionale Kamera projiziert.
Vorzugsweise wird bei rückwärts fahrendem Fahrzeug und/oder eingelegtem Rückwärtsgang abhängig von einem Lenkwinkel eine Fahrbewegung prognostiziert und dem Bild in der Anzeigeeinheit überlagert. Auf diese Weise kann der Fahrer abschätzen, ob er mit dem aktuellen Lenkwinkel mit dem Fahrzeug beim rückwärts Fahren eine gewünschte Position erreichen kann.
Zur Vereinfachung der Prognose kann der Berechnung ein Einzelspurmodell zugrunde gelegt werden, bei dem je zwei Räder einer Achse durch ein virtuelles Rad in der Mitte der Achse modelliert werden.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Zeichnungen näher erläutert.
Dabei zeigen: Fig. 1 eine Rückseite eines Fahrzeugs mit zwei omnidirektionalen Kameras,
Fig. 2 eine schematische Darstellung eines Fahrzeugs und seiner Umgebung in Standard-Vogelperspektive, wie aus dem Stand der Technik bekannt,
Fig. 3 eine schematische Darstellung eines Fahrzeugs und seiner Umgebung in mittels des erfindungsgemäßen Verfahrens zur Bildverarbeitung und Bilddarstellung erweiterter Vogelperspektive,
Fig. 4 ein auf einer optischen Anzeigeeinheit im Fahrzeug gezeigte Ansicht des Fahrzeugs und seiner Umgebung in erweiterter Vogelperspektive mit überlagerter prognostizierter Fahrbewegung beim Rückwärtsfahren, und
Fig. 5 ein Einzelspurmodell zur Prognose der Fahrbewegung.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
In Figur 1 ist eine Rückseite eines als Fahrzeug ausgebildeten Objekts 1 mit zwei omnidirektionalen Kameras 2 gezeigt. Das Bezugszeichen 1 wird im Folgenden auch für das Fahrzeug verwendet.
Die omnidirektionalen Kameras 2 nehmen eine Umgebung des Fahrzeugs 1 neben und hinter dem Fahrzeug 1 in einem sehr weiten Winkel auf. Ein bearbeitetes Bild der Kameras wird im Fahrzeug 1 auf einer nicht gezeigten Anzeigeeinheit dargestellt. Die Kameras 2 werden hierzu bezüglich des Fahrzeugs 1 kalibriert. Wegen der festen Anordnung der Kameras 2 muss die Kalibrierung nur einmal durchgeführt werden.
Ziel der Kalibrierung ist zunächst die Erzeugung einer Darstellung des Fahrzeugs 1 und seiner Umgebung in Vogelperspektive. Hierzu wird eine virtuelle Kamera über dem
Fahrzeug 1 definiert. Jedes der Pixel xp ={xp.x,xp.yf der virtuellen Kamera wird auf eine gedachte Ebene Y=O projiziert (flache Welt Annahme), wobei sich in einem am Fahrzeug 1 ausgerichteten Objektkoordinatensystem Punkte ^ergeben:
Xw = λX, + Cp wobei λ _ c P -y xr - y Xr = RpXp = Rp{χ p.χ,χ p.y,fϊ
Dabei ist /die Brennweite der virtuellen Kamera, Rp und Cp sind die Rotation und Translation der virtuellen Kamera bezüglich des Objektkoordinatensystems, dessen Koordinatenursprung beispielsweise in der Mitte eines Stoßfängers an der Rückseite des Fahrzeugs 1 liegen kann, wobei die y-Achse senkrecht nach oben weist.
Die rückprojizierten Punkte Xw werden in mindestens eine der omnidirektionalen Kameras 2, das heißt in die damit aufgenommenen Bilder, projiziert. Diese Projektion ist detailliert in [C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications . In Omnivs, 2007. 2] beschrieben.
Um zu vermeiden, dass weitere Objekte in der Umgebung des Fahrzeugs 1 infolge der Annahme einer ebenen Umgebung, die sich aus der Rückprojektion auf die gedachte Ebene ergibt, aus dem Sichtbereich verschwinden, wird eine asymmetrische Aufteilung des von den omnidirektionalen Kameras erfassten Bereichs bezüglich des Fahrzeugs gewählt. Dabei wird jeder Punkt Xw des Objekt koordinatensystems hinter dem Fahrzeug 1 und rechts davon in die rechts angeordnete omnidirektionale Kamera 2 projiziert. Jeder Punkt Xw links vom Fahrzeug 1 wird in die links angeordnete omnidirektionale Kamera 2 projiziert. Im Detail ist dies in der Patentschrift DE 102006003538 B3 der Anmelderin beschrieben.
In Figur 2 ist eine schematische Darstellung des Fahrzeugs 1 und seiner Umgebung in der mit einer so kalibrierten Anordnung aus den zwei omnidirektionalen Kameras 2 und der optischen Anzeigeeinheit erzielten Standard-Vogelperspektive gezeigt. Mittels der Kalibrierung wird die gezeigte entzerrte Darstellung erreicht, wie durch das Schachbrettmuster angedeutet ist. Die asymmetrische Aufteilung des Sichtfeldes auf die zwei omnidirektionalen Kameras 2 ist mit der unterschiedlichen Darstellung des Schachbrettmusters angedeutet. Ein Fahrer des Fahrzeugs 1 kann so feststellen, ob sich Hindernisse in der Umgebung des Fahrzeugs 1 befinden. Soweit ist das Verfahren aus dem Stand der Technik bekannt.
Erfindungsgemäß wird die Anordnung aus den zwei omnidirektionalen Kameras 2 und der optischen Anzeigeeinheit so kalibriert, dass eine Rückprojektion auf die gedachte Ebene Y=O nur in einem inneren Bereich 3 der Umgebung des Fahrzeugs 1 erfolgt. Dieser innere Bereich 3 liegt innerhalb eines gedachten Kreises mit dem Radius r um das Fahrzeug 1 bzw. den Koordinatenursprung des Objektkoordinatensystems.
Jedes Pixel xp im Bild der virtuellen Kamera wird auf die gedachte Ebene rückproj iziert und damit überschnitten, so dass sich der Punkt Xw im Objektkoordinatensystem ergibt. Eine Interpolation des projizierten Punktes Xu ergibt eine Intensitatswert für das Pixel xp .
Punkte Xw außerhalb des inneren Bereichs 3 werden nicht auf die gedachte Ebene sondern auf eine vom Rand des Kreises aus ansteigende Flache projiziert. Das bedeutet, dass eine Hohe XvY von einer Entfernung des Punkts Xw von einem Mittelpunkt des Kreises abhangt:
Figure imgf000012_0001
Dabei ist r der Radius des Kreises und m der Anstieg der Flache. Die sich so ergebende erweiterte Vogelperspektive ist in Figur 3 gezeigt. Ein Sichtfeld des Fahrers ist auf diese Weise innerhalb des inneren Bereichs 3 wie bisher unverzerrt. Außerhalb des inneren Bereichs 3 wird die weitere Umgebung des Fahrzeugs 1 dargestellt.
In Figur 4 ist eine auf der optischen Anzeigeeinheit im Fahrzeug 1 gezeigte Ansicht des Fahrzeugs 1 und seiner Umgebung in erweiterter Vogelperspektive mit einer überlagerten prognostizierten Fahrbewegung beim Rückwärtsfahren gezeigt. Die Fahrbewegung wird in der Art eines ersten Korridors 4 für die Bewegung des hinteren Stoßfangers und eines zweiten Korridors 5 für die Bewegung des vorderen Stoßfangers dargestellt, innerhalb dessen das Fahrzeug 1 sich entsprechend einem aktuellen Lenkwinkel δR bewegen wird, sofern der Lenkwinkel δR nicht verändert wird. Wird der Lenkwinkel δR verändert muss die Prognose entsprechend angepasst werden. Die Linie 4.1 des Korridors bezeichnet den hinteren Stoßfanger. Die Linie 4.2 bezeichnet einen Abstand von beispielsweise 1 m vom Stoßfanger aus nach hinten, was beispielsweise dem Schwenkbereich von Heckturen des Fahrzeugs 1 entsprechen kann. Die Linie 4.3 bezeichnet einen Abstand von etwa der Länge des Fahrzeugs 1. Der Radius r des Kreises, der den inneren Bereich 3 umschließt, sollte wenigstens dem Abstand der Linie 4.3 vom hinteren Stoßfänger entsprechen.
Zur Vereinfachung der Prognose wird ein so genanntes Einzelspurmodell 6 zugrunde gelegt, bei dem je zwei Räder einer Achse des Fahrzeugs 1 durch ein virtuelles Rad 7 in der Mitte der Achse modelliert werden. Das vordere und das hintere virtuelle Rad 7 sind durch eine starre Linie verbunden. Das Modell ist unter der Einschränkung ausreichend, dass das Fahrzeug 1 sich nicht um seine Längsachse bewegt und die Last auf den Rädern gleich bleibt. Für kleine Geschwindigkeiten, wie sie beim rückwärts fahren und manövrieren auftreten sind diese Annahmen gerechtfertigt. In diesem Zusammenhang kann/können auch basierend auf dieser Modellannahme ein/mehrere Korridor (e) im Bild dargestellt werden, welche (r) dem Fahrer eine besonders intuitive Wahrnehmung der Situation erlaubt und eine besonders einfache Manövrierung des Fahrzeugs ermöglicht.
Folgende feststehende Parameter werden im Einzelspurmodell 6 berücksichtigt :
tw Breite des Fahrzeugs
£,.κ Abstand von Vorderachse zu Hinterachse
£RO Abstand von der Hinterachse zum hinteren Stoßfänger
Weiter werden folgende veränderliche Parameter verwendet: δR Lenkwinkel
Die weiteren Parameter sind vom Lenkwinkel δκ abhängig: rh Bewegungsradius des vorderen virtuellen Rades 7 rR Bewegungsradius des hinteren virtuellen Rades 7 ro Bewegungsradius eines Mittelpunkts des hinteren
Stoßfängers η, Bewegungsradius eines linken Außenpunkts des hinteren
Stoßfängers rs Bewegungsradius eines rechten Außenpunkts des hinteren
Stoßfängers
Ψo Winkel zwischen dem hinteren virtuellen Rad 7 und dem
Mittelpunkt des hinteren Stoßfängers bezogen auf einen durch den Lenkwinkel δR bestimmten Momentanpol 8
Das Modell wird mittels folgender Gleichungen gebildet:
r,, - sin£, rR = rF cosδR tanΨ0 = ^.
r = rR
Q cos Ψo
Die allgemeine Beziehung : — = l + tan2 α führt zu : cos a
ro-=-coVsΨρ=W^1+tan2ψo" =^JV1+f^—rR Ϊ)
Die Bewegungsradien des linken und des rechten Außenpunkts des hinteren Stoßfängers können analog zu ro berechnet werden:
Figure imgf000014_0001
Figure imgf000015_0001
Die omnidirektionalen Kameras 2 sind insbesondere als Spiegel-Linsen-Kameras ausgebildet .
Die beschriebenen Verfahren sind ebenso mit nur einer omnidirektionalen Kamera 2 oder mit mehr als zwei omnidirektionalen Kameras 2 durchführbar.
Die beschriebenen Verfahren sind prinzipiell an beliebigen Objekten 1 durchführbar.
Die Kameras 2 können im Bereich einer Dachkante des Fahrzeugs 1 angeordnet sein.
Der innere Bereich 3 kann statt mit Hilfe eines Kreises auch mit Hilfe einer Ellipse beschrieben werden.
Die gedachte Ebene kann einem Untergrund entsprechen, auf dem das Fahrzeug 1 steht.
Bezugs zeichenliste
1 Objekt, Fahrzeug
2 omnidirektionale Kamera
3 innerer Bereich
4 erster Korridor 4.1 bis 4.3 Linie
5 zweiter Korridor
6 Einzelspurmodell
7 virtuelles Rad
8 Momentanpol
Cp Translation der virtuellen Kamera δR Steuerwinkel
/ Brennweite der virtuellen Kamera
£w Breite des Fahrzeugs
£,.R Abstand von Vorderachse zu Hinterachse
£RO Abstand von der Hinterachse zum hinteren Stoßfänger
Ψo Winkel zwischen dem hinteren virtuellen Rad und dem
Mittelpunkt des hinteren Stoßfängers r Radius
Y1. Bewegungsradius des vorderen virtuellen Rades
Yp Bewegungsradius eines linken Außenpunkts des hinteren
Stoßfängers rQ Bewegungsradius eines Mittelpunkts des hinteren
Stoßfängers rR Bewegungsradius des hinteren virtuellen Rades 6 rs Bewegungsradius eines rechten Außenpunkts des hinteren
Stoßfängers
Rp Rotation der virtuellen Kamera xp Pixel der virtuellen Kamera
Xw Punkt im Objektkoordinatensystem
Xw.γ Höhe des Punktes im Objektkoordinatensystem

Claims

Patentansprüche
1. Verfahren zum Kalibrieren einer Anordnung mit mindestens einer an einem Objekt (1), insbesondere einem Fahrzeug (1) angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt (1) gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein Objektkoordinatensystem projiziert wird und wobei dabei sich ergebende Punkte {Xw,XwY) in die omnidirektionale
Kamera projiziert werden, dadurch gekennzeichnet, dass bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem Pixel ( xp ) des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt (1) gedacht ist, auf eine gedachte Ebene projiziert werden, während Pixel (xp) des Bildes außerhalb des Kreises oder der Ellipse von der virtuellen Kamera in das Objektkoordinatensystem so transformiert werden, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt, wobei eine Höhe der Punkte (Xw,XwY) auf der Fläche im Objektkoordinatensystem proportional zu einer Entfernung des Punktes {Xw) zu einem Mittelpunkt des Kreises oder der Ellipse ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Fläche die Form einer Mantelfläche eines Kegelstumpfs aufweist.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die omnidirektionale Kamera (2) bezüglich intrinsischer Parameter mit Hilfe eines Kalibrationskörpers kalibriert wird, der den gesamten Sichtbereich der omnidirektionalen Kamera (2) umfasst.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Kalibrationskörper die Form eines Fasses aufweist, dessen Innenseite mit kreisförmigen Markierungen versehen ist.
5. Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung mit mindestens einer an einem Objekt (1), insbesondere einem Fahrzeug (1), angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, dadurch gekennzeichnet, dass die Anordnung mittels eines Verfahrens nach einem der Ansprüche 1 bis 4 kalibriert ist, wobei eine Umgebung des Objekts (1) mit der omnidirektionalen Kamera (2) aufgenommen und in der Anzeigeeinheit entsprechend der Kalibrierung wiedergegeben wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass Bilder zweier omnidirektionaler Kameras (2), die an einer Rückseite des Fahrzeugs (1) angeordnet sind, aufgenommen werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass ein von den omnidirektionalen Kameras (2) erfasster Bereich bezüglich des Fahrzeugs (1) asymmetrisch auf die omnidirektionalen Kameras (2) aufgeteilt ist.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass bei rückwärts fahrendem Fahrzeug (1) und/oder eingelegtem Rückwärtsgang abhängig von einem Lenkwinkel ( δR ) eine Fahrbewegung prognostiziert und dem Bild in der Anzeigeeinheit überlagert wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Prognose ein Einzelspurmodell (6) zugrunde gelegt wird, bei dem je zwei Räder einer Achse durch ein virtuelles Rad (7) in der Mitte der Achse modelliert werden.
PCT/EP2008/008023 2007-10-16 2008-09-23 Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit WO2009049750A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010529255A JP5077606B2 (ja) 2007-10-16 2008-09-23 少なくとも1つの全方位カメラ及び光学的表示ユニットを備えた装置のキャリブレーション方法
US12/681,807 US8599258B2 (en) 2007-10-16 2008-09-23 Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
EP08802513A EP2198390A2 (de) 2007-10-16 2008-09-23 Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007049821A DE102007049821A1 (de) 2007-10-16 2007-10-16 Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
DE102007049821.9 2007-10-16

Publications (2)

Publication Number Publication Date
WO2009049750A2 true WO2009049750A2 (de) 2009-04-23
WO2009049750A3 WO2009049750A3 (de) 2009-09-03

Family

ID=40458801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/008023 WO2009049750A2 (de) 2007-10-16 2008-09-23 Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit

Country Status (5)

Country Link
US (1) US8599258B2 (de)
EP (1) EP2198390A2 (de)
JP (1) JP5077606B2 (de)
DE (1) DE102007049821A1 (de)
WO (1) WO2009049750A2 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858798B2 (en) 2013-05-28 2018-01-02 Aai Corporation Cloud based command and control system integrating services across multiple platforms
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
US9674433B1 (en) * 2014-07-24 2017-06-06 Hoyos Vsn Corp. Image center calibration for a quadric panoramic optical device
CN104089579A (zh) * 2014-08-05 2014-10-08 吉林大学 基于球面坐标的汽车视觉检测系统的摄像机标定靶标
DE102014011915A1 (de) 2014-08-12 2016-02-18 Man Truck & Bus Ag Verfahren zur Warnung von Verkehrsteilnehmern vor möglichen Gefahrenbereichen, die durch ein Fahrzeug entstehen, das ein Fahrmanöver ausführt oder ausführen will
CN106296642A (zh) * 2015-06-09 2017-01-04 汪浩 车载环视系统摄像头内外参数一次性标定的方法
CN107534757B (zh) * 2015-08-10 2020-04-10 Jvc 建伍株式会社 车辆用显示装置以及车辆用显示方法
KR102597435B1 (ko) * 2016-04-20 2023-11-03 엘지이노텍 주식회사 영상 취득 장치 및 그 방법
JP2017220051A (ja) * 2016-06-08 2017-12-14 ソニー株式会社 画像処理装置、画像処理方法、および車両
JP7081265B2 (ja) * 2018-03-29 2022-06-07 株式会社富士通ゼネラル 画像処理装置
EP3561773B1 (de) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online-auswertung für kameraeigene parameter

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1115250A1 (de) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Vorrichtung und verfahren zur bildanzeige

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463363B1 (en) * 1999-03-19 2002-10-08 Yazaki Corporation Back monitoring apparatus for vehicle
EP1179958B1 (de) 1999-04-16 2012-08-08 Panasonic Corporation Bildverarbeitungsgerät und überwachungssystem
JP3624769B2 (ja) * 1999-09-30 2005-03-02 株式会社豊田自動織機 車両後方監視装置用画像変換装置
KR20020033816A (ko) * 2000-07-19 2002-05-07 마츠시타 덴끼 산교 가부시키가이샤 감시시스템
SE522121C2 (sv) * 2000-10-04 2004-01-13 Axis Ab Metod och anordning för digital behandling av frekvent uppdaterade bilder från en kamera
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP3620532B2 (ja) * 2002-11-12 2005-02-16 日産自動車株式会社 車両用報知装置
JP4105146B2 (ja) 2004-11-30 2008-06-25 本田技研工業株式会社 エイミング装置
JP4679293B2 (ja) 2005-08-08 2011-04-27 三洋電機株式会社 車載パノラマカメラシステム
JP5110343B2 (ja) 2005-09-30 2012-12-26 アイシン精機株式会社 運転支援装置
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
JP4742953B2 (ja) * 2006-03-31 2011-08-10 株式会社デンソー 画像処理装置,画像表示システムおよびプログラム
US9240029B2 (en) * 2007-04-30 2016-01-19 Here Global B.V. Street level video simulation display system and method
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1115250A1 (de) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Vorrichtung und verfahren zur bildanzeige

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOBIAS EHLGEN ET AL: "Omnidirectional Cameras as Backing-Up Aid" COMPUTER VISION, 2007. ICCV 2007. IEEE 11TH INTERNATIONAL CONFERENCE O N, IEEE, PI, 16. Oktober 2007 (2007-10-16), Seiten 1-5, XP031194683 ISBN: 978-1-4244-1630-1 *

Also Published As

Publication number Publication date
EP2198390A2 (de) 2010-06-23
JP5077606B2 (ja) 2012-11-21
DE102007049821A1 (de) 2009-04-23
US20100214412A1 (en) 2010-08-26
WO2009049750A3 (de) 2009-09-03
US8599258B2 (en) 2013-12-03
JP2011500407A (ja) 2011-01-06

Similar Documents

Publication Publication Date Title
WO2009049750A2 (de) Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit
EP3328686B1 (de) Verfahren und vorrichtung zum anzeigen einer umgebungsszene eines fahrzeuggespanns
DE102006003538B3 (de) Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
EP2929518A1 (de) Fahrzeugseitiges verfahren und fahrzeugseitige vorrichtung zum erfassen und anzeigen von parklücken für ein fahrzeug
EP1719093A1 (de) Verfahren und warnvorrichtung zum grafischen aufbereiten eines bildes einer kamera
WO2016005232A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102010005638A1 (de) Verfahren zum Anzeigen zumindest eines Bildes einer Fahrzeugumgebung auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzeinrichtung für ein Fahrzeugund Fahrzeug mit einer Fahrerassistenzeinrichtung
DE102009057996A1 (de) Verfahren zur Bestimmung einer Position einer Kamera mit einem zugehörigen Kamera-Koordinatensystem relativ zu einer Position eines Fahrzeuges oder Fahrzeuggespannes mit einem zugehörigen Fahrzeug-Koordinatensystem
DE102019110871A1 (de) Sichtsystem für ein Fahrzeug
DE102008035428B4 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102007016055A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung und Fahrzeugumgebungsüberwachungs-Videoanzeigeverfahren
DE102014201409B4 (de) Parkplatz - trackinggerät und verfahren desselben
EP3556090A1 (de) Dreidimensionales rundumsichtsystem
DE102006037600A1 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
EP1724726A1 (de) Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
EP3268928A1 (de) Verfahren zum zusammensetzen von zwei bildern einer fahrzeugumgebung eines fahrzeuges und entsprechende vorrichtung
DE102011010859B4 (de) Verfahren zum Betreiben eines Kamerasystems in einem Kraftfahrzeug, Kamerasystem und Kraftfahrzeug
DE102014018364A1 (de) Vorrichtung und Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs, insbesondere eines Nutzfahrzeugs
EP3833576B1 (de) Kameraüberwachungssystem
DE102007024752B4 (de) Verfahren zur Fahrerinformation in einem Kraftfahrzeug
DE102018209366B4 (de) Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung
EP3978295B1 (de) Fahrspurbezogene visuelle assistenzfunktion einer head-up-displayeinrichtung für ein kraftfahrzeug
DE102015202743A1 (de) Stirnflächenneutrale Positionierung einer Kamera an einem Fahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08802513

Country of ref document: EP

Kind code of ref document: A2

REEP Request for entry into the european phase

Ref document number: 2008802513

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008802513

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12681807

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010529255

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE