DE102007049821A1 - Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit - Google Patents

Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit Download PDF

Info

Publication number
DE102007049821A1
DE102007049821A1 DE102007049821A DE102007049821A DE102007049821A1 DE 102007049821 A1 DE102007049821 A1 DE 102007049821A1 DE 102007049821 A DE102007049821 A DE 102007049821A DE 102007049821 A DE102007049821 A DE 102007049821A DE 102007049821 A1 DE102007049821 A1 DE 102007049821A1
Authority
DE
Germany
Prior art keywords
vehicle
image
camera
omnidirectional
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007049821A
Other languages
English (en)
Inventor
Tobias Dipl.-Inform. Ehlgen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102007049821A priority Critical patent/DE102007049821A1/de
Priority to US12/681,807 priority patent/US8599258B2/en
Priority to JP2010529255A priority patent/JP5077606B2/ja
Priority to PCT/EP2008/008023 priority patent/WO2009049750A2/de
Priority to EP08802513A priority patent/EP2198390A2/de
Publication of DE102007049821A1 publication Critical patent/DE102007049821A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Anordnung aus mindestens einer an einem Fahrzeug (1) angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt (1) gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein Objektkoordinatensystem projiziert wird und wobei dabei sich ergebende Punkte (Xw, Xw.Y) in die omnidirektionale Kamera projiziert werden, wobei bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem Pixel (xp) des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt (1) gedacht ist, auf eine gedachte Ebene projiziert werden, während Pixel (xp) des Bildes außerhalb des Kreises oder der Ellipse von der virtuellen Kamera in das Objektkoordinatensystem so transformiert werden, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt.

Description

  • Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein Objektkoordinatensystem projiziert wird und wobei ein Bild der omnidirektionalen Kamera in das Objektkoordinatensystem projiziert wird. Darüber hinaus betrifft die Erfindung ein Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit.
  • Omnidirektionale Kameras sind grundsätzlich bekannt. Mit ihnen können omnidirektionale Bilder (auch Vogelperspektiv-Bilder oder bird's eye view genannt) erfasst werden, deren Bildinformationen Daten, wie beispielsweise Bildpositionen in Bezug auf die Lage von erfassten Objekten oder Gegenständen, einschließlich des Abstands des Objekts zur omnidirektionalen Kamera enthalten.
  • Omnidirektionale Kameras werden beispielsweise zur Überwachung von Fahrzeugumgebungen vor, neben und/oder hinter einem Fahrzeug eingesetzt. Dabei werden beispielsweise mittels der omnidirektionalen Kamera in der Fahrzeugumgebung Objekte oder Gegenstände identifiziert. Um insbesondere die Position und/oder den Abstand der identifizierten Objekte hinreichend genau bestimmen zu können, sind die genaue Position und die genaue Ausrichtung der omnidirektionalen Kamera relativ zum Fahrzeug bekannt. Insbesondere können omnidirektionale Kameras zum Navigieren unübersichtlicher Fahrzeuge, wie LKW, beispielsweise beim rückwärts Fahren verwendet werden, indem von der Kamera aufgenommene Bilder einem Fahrer auf einer optischen Anzeigeeinheit präsentiert werden. Dabei werden die stark verzerrten Bilder der omnidirektionalen Kamera so transformiert, dass sich für den Fahrer eine Vogelperspektive ergibt. Problematisch ist dabei, dass der Nahbereich um das Fahrzeug damit sehr gut erfassbar ist, jedoch weiter entfernte Objekte nicht dargestellt werden.
  • Aus der US 7,161,616 B1 ist eine Bildverarbeitungstechnik bekannt, bei der eine Vielzahl von Kameras Bilder einer Umgebung eines Fahrzeugs aufnimmt. Diese Bilder werden so transformiert, dass die Umgebung des Fahrzeugs als auf eine Innenfläche einer Art Halbkugel oder Schüssel projiziert interpretiert wird, so dass auch weiter entfernte Bildpunkte dargestellt werden. Dabei nimmt die Verzerrung von einem zentralen Bereich der Halbkugel aus nach außen zu. Das Verfahren erfordert einen hohen Rechenaufwand.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zum Kalibrieren einer Anordnung aus mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit und ein Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit anzugeben.
  • Hinsichtlich des Verfahrens zum Kalibrieren der Anordnung wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale gelöst. Hinsichtlich des Verfahrens zur Bildverarbeitung und Bilddarstellung wird die Aufgabe erfindungsgemäß durch die im Anspruch 5 angegebenen Merkmale gelöst.
  • Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Erfindungsgemäßen wird eine Anordnung aus mindestens einer an einem Objekt, insbesondere einem Fahrzeug angeordneten omnidirektionalen Kamera und einer optischen Anzeigeeinheit mit dem nachfolgend beschriebenen Verfahren kalibriert. Oberhalb des Objekts wird eine virtuelle Kamera definiert, deren Bild von der Anzeigeeinheit dargestellt wird. Ein Bild der virtuellen Kamera wird in ein Objektkoordinatensystem projiziert. Dabei sich ergebende Punkte im Objektkoordinatensystem werden in die omnidirektionale Kamera, beziehungsweise in deren Koordinatensystem projiziert.
  • Bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem werden Pixel des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt gedacht ist, auf eine gedachte Ebene projiziert. Pixel des Bildes außerhalb des Kreises oder der Ellipse werden von der virtuellen Kamera in das Objektkoordinatensystem so transformiert, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt, wobei eine Höhe der Pixel auf der Fläche im Objektkoordinatensystem proportional zu einer Entfernung des Pixels zu einem Mittelpunkt des Kreises oder der Ellipse ist. Mit einem so kalibrierten System ist eine nähere Umgebung des Objekts innerhalb des Kreises oder der Ellipse weitgehend unverzerrt darstellbar, während auch weiter entfernte Bereiche der Umgebung, die bei bekannten Verfahren nicht sichtbar sind, dargestellt werden. Die so erzielte erweiterte Vogelperspektive erzeugt ein weites und intuitives Sichtfeld. Für einen Fahrer eines Fahrzeugs wird das Manövrieren, insbesondere beim rückwärts Fahren, einfacher.
  • Vorzugsweise weist die Fläche die Form einer Mantelfläche eines Kegelstumpfs auf. Die Mantelfläche des Kegelstumpfes weist dabei eine lineare Steigung auf, daher kann eine Projektion auf diese Fläche auf besonders einfache Weise berechnet werden. Weiterhin bietet eine Mantelfläche eines Kegelstumpfes als Projektionsfläche den Vorteil, dass dabei im Vergleich zu Flächen mit nicht-linearer Steigung, beispielsweise bei einem Ellipsoid, deutlich geringere Verzerrungen im Bild entstehen. Durch die Verwendung einer Mantelfläche eines Kegelstumpfes ergibt sich für den Fahrer eine besonders intuitive und auf einfache Weise eingängige Bilddarstellung. Verzerrungen treten hierbei allenfalls im Randbereich der Mantelfläche des Kegelstumpfes auf, wohingegen Darstellungen in der Bildmitte in besonders vorteilhafter Weise verzerrungsfrei erfolgt.
  • Die omnidirektionale Kamera wird bevorzugt bezüglich intrinsischer Parameter mit Hilfe eines Kalibrationskörpers kalibriert, der den gesamten Sichtbereich der Kamera umfasst.
  • Der Kalibrationskörper weist insbesondere die Form eines Fasses auf, dessen Innenseite mit kreisförmigen Markierungen versehen ist. Zur Kalibrierung der omnidirektionalen Kamera werden die Markierungen insbesondere mittels eines in [T. Luhmann. Nahbereichsphotogrammetrie, Herbert Wichmann Verlag, 2000. 4] beschriebenen Verfahrens mit Subpixel-Genauigkeit vermessen. Extrinsische Kameraparameter, beispielsweise Translation und Rotation der Kamera bezüglich des Objektkoordinatensystems, werden bei am Objekt montierten omnidirektionalen Kameras ermittelt. Hierzu können rechteckige Markierungen verwendet werden. Beispielsweise kommt hierbei ein in [L. E. Krüger, C. Wähler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe (Optical Metrology in Production Engineering), 5457: 126–137, Sep 2004. 4,5] beschriebenes Verfahren zum Einsatz.
  • Intrinsische Parameter der Kamera sind beispielsweise eine fokale Länge, eine Pixelgröße (Breite, Höhe), ein Bildmittelpunkt bezüglich des jeweiligen Koordinatensystems und Verzeichnungen.
  • Die so kalibrierte Anordnung wird nun in einem Verfahren zur Bildverarbeitung und Bilddarstellung benutzt, bei dem eine Umgebung des Objekts mit der omnidirektionalen Kamera aufgenommen und in der Anzeigeeinheit entsprechend der Kalibrierung wiedergegeben wird.
  • Dabei kommen vorzugsweise zwei omnidirektionale Kameras zum Einsatz, die beispielsweise an einer Rückseite eines Fahrzeugs im Bereich einer Dachkante angeordnet sein können. Es kann jedoch auch eine größere Anzahl omnidirektionaler Kameras oder nur eine omnidirektionale Kamera vorgesehen sein.
  • Insbesondere wird ein von den omnidirektionalen Kameras erfasster Bereich bezüglich des Fahrzeugs asymmetrisch auf die Kameras aufgeteilt. Diese Aufteilung ist beispielsweise in der Patentschrift DE 10 2006 003 538 B3 der Anmelderin beschrieben. Dadurch wird vermieden, dass weitere Objekte in der Umgebung des Fahrzeugs infolge der Annahme einer ebenen Umgebung, die sich aus der Rückprojektion auf die gedachte Ebene ergibt, aus dem Sichtbereich verschwinden. Dabei wird jeder Punkt des Objektkoordinatensystems hinter dem Fahrzeug und rechts davon in die rechts angeordnete omnidirektionale Kamera projiziert. Jeder Punkt links vom Fahrzeug wird in die links angeordnete omnidirektionale Kamera projiziert.
  • Vorzugsweise wird bei rückwärts fahrendem Fahrzeug und/oder eingelegtem Rückwärtsgang abhängig von einem Lenkwinkel eine Fahrbewegung prognostiziert und dem Bild in der Anzeigeeinheit überlagert. Auf diese Weise kann der Fahrer abschätzen, ob er mit dem aktuellen Lenkwinkel mit dem Fahrzeug beim rückwärts Fahren eine gewünschte Position erreichen kann.
  • Zur Vereinfachung der Prognose kann der Berechnung ein Einzelspurmodell zugrunde gelegt werden, bei dem je zwei Räder einer Achse durch ein virtuelles Rad in der Mitte der Achse modelliert werden.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 eine Rückseite eines Fahrzeugs mit zwei omnidirektionalen Kameras,
  • 2 eine schematische Darstellung eines Fahrzeugs und seiner Umgebung in Standard-Vogelperspektive, wie aus dem Stand der Technik bekannt,
  • 3 eine schematische Darstellung eines Fahrzeugs und seiner Umgebung in mittels des erfindungsgemäßen Verfahrens zur Bildverarbeitung und Bilddarstellung erweiterter Vogelperspektive,
  • 4 ein auf einer optischen Anzeigeeinheit im Fahrzeug gezeigte Ansicht des Fahrzeugs und seiner Umgebung in erweiterter Vogelperspektive mit überlagerter prognostizierter Fahrbewegung beim Rückwärtsfahren, und
  • 5 ein Einzelspurmodell zur Prognose der Fahrbewegung.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist eine Rückseite eines als Fahrzeug ausgebildeten Objekts 1 mit zwei omnidirektionalen Kameras 2 gezeigt. Das Bezugszeichen 1 wird im Folgenden auch für das Fahrzeug verwendet.
  • Die omnidirektionalen Kameras 2 nehmen eine Umgebung des Fahrzeugs 1 neben und hinter dem Fahrzeug 1 in einem sehr weiten Winkel auf. Ein bearbeitetes Bild der Kameras wird im Fahrzeug 1 auf einer nicht gezeigten Anzeigeeinheit dargestellt. Die Kameras 2 werden hierzu bezüglich des Fahrzeugs 1 kalibriert. Wegen der festen Anordnung der Kameras 2 muss die Kalibrierung nur einmal durchgeführt werden.
  • Ziel der Kalibrierung ist zunächst die Erzeugung einer Darstellung des Fahrzeugs 1 und seiner Umgebung in Vogelperspektive. Hierzu wird eine virtuelle Kamera über dem Fahrzeug 1 definiert. Jedes der Pixel xp = (xp·x, xp·y)T der virtuellen Kamera wird auf eine gedachte Ebene Y = 0 projiziert (flache Welt Annahme), wobei sich in einem am Fahrzeug 1 ausgerichteten Objektkoordinatensystem Punkte Xw ergeben: Xw = λXr + Cp wobei
    Figure 00080001
  • Dabei ist f die Brennweite der virtuellen Kamera, Rp und Cp sind die Rotation und Translation der virtuellen Kamera bezüglich des Objektkoordinatensystems, dessen Koordinatenursprung beispielsweise in der Mitte eines Stoßfängers an der Rückseite des Fahrzeugs 1 liegen kann, wobei die y-Achse senkrecht nach oben weist.
  • Die rückprojizierten Punkte Xw werden in mindestens eine der omnidirektionalen Kameras 2, das heißt in die damit aufgenommenen Bilder, projiziert. Diese Projektion ist detailliert in [C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications. In Omnivs, 2007. 2] beschrieben.
  • Um zu vermeiden, dass weitere Objekte in der Umgebung des Fahrzeugs 1 infolge der Annahme einer ebenen Umgebung, die sich aus der Rückprojektion auf die gedachte Ebene ergibt, aus dem Sichtbereich verschwinden, wird eine asymmetrische Aufteilung des von den omnidirektionalen Kameras erfassten Bereichs bezüglich des Fahrzeugs gewählt. Dabei wird jeder Punkt Xw des Objektkoordinatensystems hinter dem Fahrzeug 1 und rechts davon in die rechts angeordnete omnidirektionale Kamera 2 projiziert. Jeder Punkt Xw links vom Fahrzeug 1 wird in die links angeordnete omnidirektionale Kamera 2 projiziert. Im Detail ist dies in der Patentschrift DE 10 2006 003 538 B3 der Anmelderin beschrieben.
  • In 2 ist eine schematische Darstellung des Fahrzeugs 1 und seiner Umgebung in der mit einer so kalibrierten Anordnung aus den zwei omnidirektionalen Kameras 2 und der optischen Anzeigeeinheit erzielten Standard-Vogelperspektive gezeigt. Mittels der Kalibrierung wird die gezeigte entzerrte Darstellung erreicht, wie durch das Schachbrettmuster angedeutet ist. Die asymmetrische Aufteilung des Sichtfeldes auf die zwei omnidirektionalen Kameras 2 ist mit der unterschiedlichen Darstellung des Schachbrettmusters angedeutet. Ein Fahrer des Fahrzeugs 1 kann so feststellen, ob sich Hindernisse in der Umgebung des Fahrzeugs 1 befinden. Soweit ist das Verfahren aus dem Stand der Technik bekannt.
  • Erfindungsgemäß wird die Anordnung aus den zwei omnidirektionalen Kameras 2 und der optischen Anzeigeeinheit so kalibriert, dass eine Rückprojektion auf die gedachte Ebene Y = 0 nur in einem inneren Bereich 3 der Umgebung des Fahrzeugs 1 erfolgt. Dieser innere Bereich 3 liegt innerhalb eines gedachten Kreises mit dem Radius r um das Fahrzeug 1 bzw. den Koordinatenursprung des Objektkoordinatensystems. Jedes Pixel xp im Bild der virtuellen Kamera wird auf die gedachte Ebene rückprojiziert und damit überschnitten, so dass sich der Punkt Xw im Objektkoordinatensystem ergibt.
  • Eine Interpolation des projizierten Punktes Xw ergibt eine Intensitätswert für das Pixel xp.
  • Punkte Xw außerhalb des inneren Bereichs 3 werden nicht auf die gedachte Ebene sondern auf eine vom Rand des Kreises aus ansteigende Fläche projiziert. Das bedeutet, dass eine Höhe Xw·Y von einer Entfernung des Punkts Xw von einem Mittelpunkt des Kreises abhängt: Xw·Y = m·(||Xw|| – r)
  • Dabei ist r der Radius des Kreises und m der Anstieg der Fläche. Die sich so ergebende erweiterte Vogelperspektive ist in 3 gezeigt. Ein Sichtfeld des Fahrers ist auf diese Weise innerhalb des inneren Bereichs 3 wie bisher unverzerrt. Außerhalb des inneren Bereichs 3 wird die weitere Umgebung des Fahrzeugs 1 dargestellt.
  • In 4 ist eine auf der optischen Anzeigeeinheit im Fahrzeug 1 gezeigte Ansicht des Fahrzeugs 1 und seiner Umgebung in erweiterter Vogelperspektive mit einer überlagerten prognostizierten Fahrbewegung beim Rückwärtsfahren gezeigt. Die Fahrbewegung wird in der Art eines ersten Korridors 4 für die Bewegung des hinteren Stoßfängers und eines zweiten Korridors 5 für die Bewegung des vorderen Stoßfängers dargestellt, innerhalb dessen das Fahrzeug 1 sich entsprechend einem aktuellen Lenkwinkel δR bewegen wird, sofern der Lenkwinkel δR nicht verändert wird. Wird der Lenkwinkel δR verändert muss die Prognose entsprechend angepasst werden. Die Linie 4.1 des Korridors bezeichnet den hinteren Stoßfänger. Die Linie 4.2 bezeichnet einen Abstand von beispielsweise 1 m vom Stoßfänger aus nach hinten, was beispielsweise dem Schwenkbereich von Hecktüren des Fahrzeugs 1 entsprechen kann. Die Linie 4.3 bezeichnet einen Abstand von etwa der Länge des Fahrzeugs 1. Der Radius r des Kreises, der den inneren Bereich 3 umschließt, sollte wenigstens dem Abstand der Linie 4.3 vom hinteren Stoßfänger entsprechen.
  • Zur Vereinfachung der Prognose wird ein so genanntes Einzelspurmodell 6 zugrunde gelegt, bei dem je zwei Räder einer Achse des Fahrzeugs 1 durch ein virtuelles Rad 7 in der Mitte der Achse modelliert werden. Das vordere und das hintere virtuelle Rad 7 sind durch eine starre Linie verbunden. Das Modell ist unter der Einschränkung ausreichend, dass das Fahrzeug 1 sich nicht um seine Längsachse bewegt und die Last auf den Rädern gleich bleibt. Für kleine Geschwindigkeiten, wie sie beim rückwärts fahren und manövrieren auftreten sind diese Annahmen gerechtfertigt. In diesem Zusammenhang kann/können auch basierend auf dieser Modellannahme ein/mehrere Korridor(e) im Bild dargestellt werden, welche(r) dem Fahrer eine besonders intuitive Wahrnehmung der Situation erlaubt und eine besonders einfache Manövrierung des Fahrzeugs ermöglicht.
  • Folgende feststehende Parameter werden im Einzelspurmodell 6 berücksichtigt:
  • lW
    Breite des Fahrzeugs
    lFR
    Abstand von Vorderachse zu Hinterachse
    lRQ
    Abstand von der Hinterachse zum hinteren Stoßfänger
  • Weiter werden folgende veränderliche Parameter verwendet:
  • δR
    Lenkwinkel
  • Die weiteren Parameter sind vom Lenkwinkel δR abhängig:
  • rF
    Bewegungsradius des vorderen virtuellen Rades 7
    rR
    Bewegungsradius des hinteren virtuellen Rades 7
    rQ
    Bewegungsradius eines Mittelpunkts des hinteren Stoßfängers
    rP
    Bewegungsradius eines linken Außenpunkts des hinteren Stoßfängers
    rS
    Bewegungsradius eines rechten Außenpunkts des hinteren Stoßfängers
    ΨQ
    Winkel zwischen dem hinteren virtuellen Rad 7 und dem Mittelpunkt des hinteren Stoßfängers bezogen auf einen durch den Lenkwinkel δR bestimmten Momentanpol 8
  • Das Modell wird mittels folgender Gleichungen gebildet:
    Figure 00120001
  • Die allgemeine Beziehung
    Figure 00120002
    führt zu:
    Figure 00120003
  • Die Bewegungsradien des linken und des rechten Außenpunkts des hinteren Stoßfängers können analog zu rQ berechnet werden:
    Figure 00120004
    Figure 00130001
  • Die omnidirektionalen Kameras 2 sind insbesondere als Spiegel-Linsen-Kameras ausgebildet.
  • Die beschriebenen Verfahren sind ebenso mit nur einer omnidirektionalen Kamera 2 oder mit mehr als zwei omnidirektionalen Kameras 2 durchführbar.
  • Die beschriebenen Verfahren sind prinzipiell an beliebigen Objekten 1 durchführbar.
  • Die Kameras 2 können im Bereich einer Dachkante des Fahrzeugs 1 angeordnet sein.
  • Der innere Bereich 3 kann statt mit Hilfe eines Kreises auch mit Hilfe einer Ellipse beschrieben werden.
  • Die gedachte Ebene kann einem Untergrund entsprechen, auf dem das Fahrzeug 1 steht.
  • 1
    Objekt, Fahrzeug
    2
    omnidirektionale Kamera
    3
    innerer Bereich
    4
    erster Korridor
    4.1 bis 4.3
    Linie
    5
    zweiter Korridor
    6
    Einzelspurmodell
    7
    virtuelles Rad
    8
    Momentanpol
    CP
    Translation der virtuellen Kamera
    δR
    Steuerwinkel
    f
    Brennweite der virtuellen Kamera
    lW
    Breite des Fahrzeugs
    lFR
    Abstand von Vorderachse zu Hinterachse
    lRQ
    Abstand von der Hinterachse zum hinteren Stoßfänger
    ΨQ
    Winkel zwischen dem hinteren virtuellen Rad und dem Mittelpunkt des hinteren Stoßfängers
    r
    Radius
    rF
    Bewegungsradius des vorderen virtuellen Rades
    rP
    Bewegungsradius eines linken Außenpunkts des hinteren Stoßfängers
    rQ
    Bewegungsradius eines Mittelpunkts des hinteren Stoßfängers
    rR
    Bewegungsradius des hinteren virtuellen Rades 6
    rS
    Bewegungsradius eines rechten Außenpunkts des hinteren Stoßfängers
    Rp
    Rotation der virtuellen Kamera
    xp
    Pixel der virtuellen Kamera
    Xw
    Punkt im Objektkoordinatensystem
    Xw·Y
    Höhe des Punktes im Objektkoordinatensystem
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 7161616 B1 [0004]
    • - DE 102006003538 B3 [0016, 0032]
  • Zitierte Nicht-Patentliteratur
    • - T. Luhmann. Nahbereichsphotogrammetrie, Herbert Wichmann Verlag, 2000. 4 [0012]
    • - L. E. Krüger, C. Wähler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe (Optical Metrology in Production Engineering), 5457: 126–137, Sep 2004. 4,5 [0012]
    • - C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications. In Omnivs, 2007. 2 [0031]

Claims (9)

  1. Verfahren zum Kalibrieren einer Anordnung mit mindestens einer an einem Objekt (1), insbesondere einem Fahrzeug (1) angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, bei dem ein von der Anzeigeeinheit dargestelltes Bild eine Perspektive einer oberhalb vom Objekt (1) gedachten virtuellen Kamera wiedergibt, wobei ein Bild der virtuellen Kamera in ein Objektkoordinatensystem projiziert wird und wobei dabei sich ergebende Punkte (Xw, Xw·Y) in die omnidirektionale Kamera projiziert werden, dadurch gekennzeichnet, dass bei der Projektion des Bildes der virtuellen Kamera in das Objektkoordinatensystem Pixel (xp) des Bildes der virtuellen Kamera innerhalb eines Kreises oder einer Ellipse, der oder die um das Objekt (1) gedacht ist, auf eine gedachte Ebene projiziert werden, während Pixel (xp) des Bildes außerhalb des Kreises oder der Ellipse von der virtuellen Kamera in das Objektkoordinatensystem so transformiert werden, dass sie auf eine gedachte Fläche projiziert werden, die vom Rand des Kreises oder der Ellipse aus ansteigt, wobei eine Höhe der Punkte (Xw, Xw·Y) auf der Fläche im Objektkoordinatensystem proportional zu einer Entfernung des Punktes (Xw) zu einem Mittelpunkt des Kreises oder der Ellipse ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Fläche die Form einer Mantelfläche eines Kegelstumpfs aufweist.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die omnidirektionale Kamera (2) bezüglich intrinsischer Parameter mit Hilfe eines Kalibrationskörpers kalibriert wird, der den gesamten Sichtbereich der omnidirektionalen Kamera (2) umfasst.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Kalibrationskörper die Form eines Fasses aufweist, dessen Innenseite mit kreisförmigen Markierungen versehen ist.
  5. Verfahren zur Bildverarbeitung und Bilddarstellung mittels einer Anordnung mit mindestens einer an einem Objekt (1), insbesondere einem Fahrzeug (1), angeordneten omnidirektionalen Kamera (2) und einer optischen Anzeigeeinheit, dadurch gekennzeichnet, dass die Anordnung mittels eines Verfahrens nach einem der Ansprüche 1 bis 4 kalibriert ist, wobei eine Umgebung des Objekts (1) mit der omnidirektionalen Kamera (2) aufgenommen und in der Anzeigeeinheit entsprechend der Kalibrierung wiedergegeben wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass Bilder zweier omnidirektionaler Kameras (2), die an einer Rückseite des Fahrzeugs (1) angeordnet sind, aufgenommen werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass ein von den omnidirektionalen Kameras (2) erfasster Bereich bezüglich des Fahrzeugs (1) asymmetrisch auf die omnidirektionalen Kameras (2) aufgeteilt ist.
  8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass bei rückwärts fahrendem Fahrzeug (1) und/oder eingelegtem Rückwärtsgang abhängig von einem Lenkwinkel (δR) eine Fahrbewegung prognostiziert und dem Bild in der Anzeigeeinheit überlagert wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Prognose ein Einzelspurmodell (6) zugrunde gelegt wird, bei dem je zwei Räder einer Achse durch ein virtuelles Rad (7) in der Mitte der Achse modelliert werden.
DE102007049821A 2007-10-16 2007-10-16 Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit Withdrawn DE102007049821A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102007049821A DE102007049821A1 (de) 2007-10-16 2007-10-16 Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
US12/681,807 US8599258B2 (en) 2007-10-16 2008-09-23 Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
JP2010529255A JP5077606B2 (ja) 2007-10-16 2008-09-23 少なくとも1つの全方位カメラ及び光学的表示ユニットを備えた装置のキャリブレーション方法
PCT/EP2008/008023 WO2009049750A2 (de) 2007-10-16 2008-09-23 Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit
EP08802513A EP2198390A2 (de) 2007-10-16 2008-09-23 Verfahren zum kalibrieren einer anordnung mit mindestens einer omnidirektionalen kamera und einer optischen anzeigeeinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007049821A DE102007049821A1 (de) 2007-10-16 2007-10-16 Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit

Publications (1)

Publication Number Publication Date
DE102007049821A1 true DE102007049821A1 (de) 2009-04-23

Family

ID=40458801

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007049821A Withdrawn DE102007049821A1 (de) 2007-10-16 2007-10-16 Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit

Country Status (5)

Country Link
US (1) US8599258B2 (de)
EP (1) EP2198390A2 (de)
JP (1) JP5077606B2 (de)
DE (1) DE102007049821A1 (de)
WO (1) WO2009049750A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104089579A (zh) * 2014-08-05 2014-10-08 吉林大学 基于球面坐标的汽车视觉检测系统的摄像机标定靶标
EP2985182A2 (de) 2014-08-12 2016-02-17 MAN Truck & Bus AG Verfahren zur warnung von verkehrsteilnehmern vor möglichen gefahrenbereichen, die durch ein fahrzeug entstehen, das ein fahrmanöver ausführt oder ausführen will
US9674433B1 (en) * 2014-07-24 2017-06-06 Hoyos Vsn Corp. Image center calibration for a quadric panoramic optical device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858798B2 (en) 2013-05-28 2018-01-02 Aai Corporation Cloud based command and control system integrating services across multiple platforms
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
CN106296642A (zh) * 2015-06-09 2017-01-04 汪浩 车载环视系统摄像头内外参数一次性标定的方法
CN107534757B (zh) * 2015-08-10 2020-04-10 Jvc 建伍株式会社 车辆用显示装置以及车辆用显示方法
KR102597435B1 (ko) * 2016-04-20 2023-11-03 엘지이노텍 주식회사 영상 취득 장치 및 그 방법
JP2017220051A (ja) * 2016-06-08 2017-12-14 ソニー株式会社 画像処理装置、画像処理方法、および車両
JP7081265B2 (ja) * 2018-03-29 2022-06-07 株式会社富士通ゼネラル 画像処理装置
EP3561773B1 (de) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online-auswertung für kameraeigene parameter

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1303140A1 (de) * 2000-07-19 2003-04-16 Matsushita Electric Industrial Co., Ltd. Überwachungssystem
US20040028292A1 (en) * 2000-10-04 2004-02-12 Carl-Axel Alm Method and apparatus for digitally processing frequently updated images from a camera
EP1513101A1 (de) * 2002-06-12 2005-03-09 Matsushita Electric Industrial Co., Ltd. Fahrhilfesystem
DE10083445B4 (de) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Fahrzeug-Rückwärts-Überwachungsvorrichtung mit einer Anzeigesteuereinrichtung zur Transformation eines Eingabebildes
US7161616B1 (en) 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
DE102006003538B3 (de) 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102007015498A1 (de) * 2006-03-31 2007-10-04 Denso Corp., Kariya System, Programm und Vorrichtung zur Bildverarbeitung

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2309453A3 (de) 1998-07-31 2012-09-26 Panasonic Corporation Bildanzeigevorrichtung und Bildanzeigeverfahren
EP1043191B1 (de) * 1999-03-19 2003-07-30 Yazaki Corporation Rückblickeinrichtung für ein Fahrzeug
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP3620532B2 (ja) * 2002-11-12 2005-02-16 日産自動車株式会社 車両用報知装置
JP4105146B2 (ja) * 2004-11-30 2008-06-25 本田技研工業株式会社 エイミング装置
JP4679293B2 (ja) * 2005-08-08 2011-04-27 三洋電機株式会社 車載パノラマカメラシステム
JP5110343B2 (ja) * 2005-09-30 2012-12-26 アイシン精機株式会社 運転支援装置
US9240029B2 (en) * 2007-04-30 2016-01-19 Here Global B.V. Street level video simulation display system and method
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161616B1 (en) 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
DE10083445B4 (de) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Fahrzeug-Rückwärts-Überwachungsvorrichtung mit einer Anzeigesteuereinrichtung zur Transformation eines Eingabebildes
EP1303140A1 (de) * 2000-07-19 2003-04-16 Matsushita Electric Industrial Co., Ltd. Überwachungssystem
US20040028292A1 (en) * 2000-10-04 2004-02-12 Carl-Axel Alm Method and apparatus for digitally processing frequently updated images from a camera
EP1513101A1 (de) * 2002-06-12 2005-03-09 Matsushita Electric Industrial Co., Ltd. Fahrhilfesystem
DE102006003538B3 (de) 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102007015498A1 (de) * 2006-03-31 2007-10-04 Denso Corp., Kariya System, Programm und Vorrichtung zur Bildverarbeitung

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. Toepfer, T. Ehlgen. A unifying omnidirectional camera model and ist applications. In Omnivs, 2007. 2
L. E. Krüger, C. Wähler, A. Wurz-Wessel, F. Stein. In-factory calibration of multiocular camera Systems. SPIE Photonics Europe (Optical Metrology in Production Engineering), 5457: 126-137, Sep 2004. 4,5
T. Luhmann. Nahbereichsphotogrammetrie, Herbert Wichmann Verlag, 2000. 4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674433B1 (en) * 2014-07-24 2017-06-06 Hoyos Vsn Corp. Image center calibration for a quadric panoramic optical device
CN104089579A (zh) * 2014-08-05 2014-10-08 吉林大学 基于球面坐标的汽车视觉检测系统的摄像机标定靶标
EP2985182A2 (de) 2014-08-12 2016-02-17 MAN Truck & Bus AG Verfahren zur warnung von verkehrsteilnehmern vor möglichen gefahrenbereichen, die durch ein fahrzeug entstehen, das ein fahrmanöver ausführt oder ausführen will
DE102014011915A1 (de) 2014-08-12 2016-02-18 Man Truck & Bus Ag Verfahren zur Warnung von Verkehrsteilnehmern vor möglichen Gefahrenbereichen, die durch ein Fahrzeug entstehen, das ein Fahrmanöver ausführt oder ausführen will

Also Published As

Publication number Publication date
WO2009049750A2 (de) 2009-04-23
WO2009049750A3 (de) 2009-09-03
EP2198390A2 (de) 2010-06-23
JP2011500407A (ja) 2011-01-06
US8599258B2 (en) 2013-12-03
JP5077606B2 (ja) 2012-11-21
US20100214412A1 (en) 2010-08-26

Similar Documents

Publication Publication Date Title
DE102007049821A1 (de) Verfahren zum Kalibrieren einer Anordnung mit mindestens einer omnidirektionalen Kamera und einer optischen Anzeigeeinheit
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE102016217488A1 (de) Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
EP3730346B1 (de) Sichtsystem für ein fahrzeug
WO2010025792A1 (de) Verfahren und vorrichtung zur überwachung einer umgebung eines fahrzeuges
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102012018325A1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
DE102008061760A1 (de) Vorrichtung zur Überwachung einer Umgebung eines Fahrzeugs
DE102012107153A1 (de) Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
EP2500216B1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem
DE102015000794A1 (de) Verfahren zum Anzeigen einer Umgebung eines Fahrzeugs und Rundumsicht-Anzeigevorrichtung für ein Fahrzeug
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102016122756A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Abstellen des Kraftfahrzeugs auf einer Parkfläche, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016211227A1 (de) Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102013220022B4 (de) Fahrzeugkamera zur Erfassung von Bildern aus einem Umgebungsbereich eines Fahrzeugs und Fahrzeug
EP3833576B1 (de) Kameraüberwachungssystem
DE102015217717A1 (de) Fahrzeugkamerasystem und Verfahren zum Anzeigen von Bildern auf einem Fahrzeugdisplay eines Fahrzeugs
WO2016096195A1 (de) Kamerasystem und verfahren zum visualisieren mindestens eines fahrzeugumfeldbereiches eines fahrzeugumfeldes eines fahrzeuges
WO2020043461A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
DE102015208345A1 (de) Fortbewegungsmittel, Fahrerassistenzsystem und Verfahren zur Anzeige eines aus einem ersten und einem zweiten Sensorsignal eines Fahrerassistenzsystems gefügten Bildes
DE102021206608A1 (de) Kamerasystem sowie Verfahren für ein Kamerasystem
DE102021211710A1 (de) Verfahren zum Ausgeben eines Steuersignals an eine fahrzeugseitige Anzeigeeinheit eines zumindest eine erste und eine zweite Kameraeinheit umfassenden Fahrzeugs
DE102013012216A1 (de) Optische Sensoranordnung für ein Kraftfahrzeug und Kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R120 Application withdrawn or ip right abandoned