DE112013004851T5 - Kalibrierungsverfahren und Kalibrierunggsvorrichtung - Google Patents

Kalibrierungsverfahren und Kalibrierunggsvorrichtung Download PDF

Info

Publication number
DE112013004851T5
DE112013004851T5 DE112013004851.5T DE112013004851T DE112013004851T5 DE 112013004851 T5 DE112013004851 T5 DE 112013004851T5 DE 112013004851 T DE112013004851 T DE 112013004851T DE 112013004851 T5 DE112013004851 T5 DE 112013004851T5
Authority
DE
Germany
Prior art keywords
camera
markers
image
bird
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112013004851.5T
Other languages
English (en)
Other versions
DE112013004851B4 (de
Inventor
Hitoshi Tanaka
Masayuki Imanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112013004851T5 publication Critical patent/DE112013004851T5/de
Application granted granted Critical
Publication of DE112013004851B4 publication Critical patent/DE112013004851B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Mechanical Engineering (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Kalibrierungsverfahren, das die Lage von Kameras, die an einem Fahrzeug montiert sind, unter Verwendung von Markern derart kalibriert, dass mehrere in derselben vertikalen Richtung aufgereiht sind, und die Höhe jedes Markers gegenüber einer Straßenoberfläche ist bekannt. Das Kalibrierungsverfahren weist erste bis dritte Schritte auf. In dem ersten Schritt (S205) werden die Marker unter Verwendung einer Kamera aufgenommen und es wird ein 2D-Bild erhalten. In dem zweiten Schritt (S215) werden die Marker in dem 2D-Bild, das in dem ersten Schritt erhalten wurde, einer Vogelperspektiventransformation auf die Straßenoberfläche oder eine Oberfläche parallel zu der Straßenoberfläche unterzogen, wobei die Höhe jedes Markers reflektiert wird. In dem dritten Schritt (S240, S245) wird ein Kameraparameterwert auf der Grundlage der Verschiebung zwischen dem Abstand zwischen den Markern auf der Oberfläche, die in dem zweiten Schritt erhalten wurde, und dem Abstand zwischen den Markern, die aus einer bekannten Positionsbeziehung erhalten wurden, berechnet.

Description

  • QUERVERWEIS AUF BETREFFENDE ANMELDUNG
  • Diese Anmeldung basiert auf der am 2. Oktober 2012 eingereichten japanischen Patentanmeldung Nr. 2012-220622 , deren Inhalte hiermit durch Bezugnahme darauf enthalten sind.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Technik zum Durchführen einer Messung, die ein Montieren einer Kamera an einem Fahrzeug betrifft.
  • STAND DER TECHNIK
  • Bekannte Techniken zum Durchführen einer Messung (sogenannte Kalibrierung), die ein Montieren einer Kamera an einem Fahrzeug betrifft, beinhalten die folgenden.
  • In dem Verfahren, das in der unten angegebenen Patentliteratur 1 beschrieben ist, werden beispielsweise mehrere Kalibrierungsmuster (Ziele) auf der Straßenoberfläche in einer vorbestimmten Positionsbeziehung zueinander angeordnet, ein Fahrzeug wird in der Nähe der Kalibrierungsmuster angeordnet, und es wird eine Messung durchgeführt.
  • In dem Verfahren, das in der unten angegebenen Patentliteratur 2 beschrieben ist, wird eine Messung mit einem Fahrzeug und einer Zielvorrichtung, die in einer festen Positionsbeziehung zueinander angeordnet sind, unter Verwendung einer Positionierungseinrichtung wie Anschlussstücken und eines Rahmens durchgeführt.
  • DOKUMENTE DES STANDS DER TECHNIK PATENTLITERATUR
    • Patentliteratur 1: JP 2008-142665 A
    • Patentliteratur 2: JP 2009-288152 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In dem Verfahren, das in der Patentliteratur 1 beschrieben ist, ist es, um eine hohe Messgenauigkeit zu erzielen, notwendig, die Abstände von Kameras zu Zielen und die Winkel, die durch die Kameras in Bezug auf die Ziele ausgebildet werden, geeignet einzustellen. Dieses bedingt, dass die Ziele über einen breiten Bereich auf der Straßenoberfläche angeordnet werden. Als Ergebnis wird ein Messraum (flacher Raum zum Anordnen der Ziele, die für die Messung verwendet werden), der ein Mehrfaches von dem Raum beträgt, der von dem Fahrzeug belegt wird, benötigt.
  • In dem Fall der Technik, die in der Patentliteratur 2 beschrieben ist, wird ein Ziel, das eine Höhe gegenüber der Straßenoberfläche aufweist, verwendet, so dass der Raum, der für die Messung verwendet wird, gewährleistet werden kann. Um die Messung durchzuführen, werden jedoch Informationen über die Positionsbeziehung zwischen dem Fahrzeug und dem Ziel benötigt. Es ist daher notwendig, das Fahrzeug und das Ziel unter Verwendung von Anschlussstücken in einer vorbestimmten Positionsbeziehung zu fixieren oder die Position des Ziels unter Verwendung einer Rahmeneinrichtung anzupassen, um das Fahrzeug und das Ziel in eine vorbestimmte Positionsbeziehung zu bringen. Dieses macht eine Messung umständlich.
  • Die vorliegende Erfindung entstand im Hinblick auf das obige Problem, und es ist eine Aufgabe der vorliegenden Erfindung, eine Technik zu schaffen, die eine Messung erleichtert, während der Raum, der für die Messung benötigt wird, gewährleistet wird.
  • Gemäß einem ersten Beispiel der vorliegenden Erfindung dient ein Kalibrierungsverfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe in Bezug auf eine Straßenoberfläche angeordnet sind. Das Kalibrierungsverfahren weist auf: einen ersten Prozess, der ein Aufnehmen eines Bilds der Markierungen mit der Kamera enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess, der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe der jeweiligen Marker reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess, der ein Berechnen eines Parameters der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern in der speziellen Ebene, die in dem zweiten Prozess erhalten wurde, enthält.
  • Gemäß dem Kalibrierungsverfahren, das die obigen Prozesse enthält, werden die Marker (Ziele) derart angeordnet, dass sie eine Höhe oberhalb der Straßenoberfläche aufweisen. Dieses kann den Raum, der für die Messung benötigt wird, im Vergleich zu Fällen gewährleisten, in denen die Marker auf der Straßenoberfläche angeordnet werden. Außerdem ist es gemäß dem Kalibrierungsverfahren weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu fixieren, um diese in einer vorbestimmten Positionsbeziehung zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Wenn das Kalibrierungsverfahren verwendet wird, ist somit die Messarbeit, die durchzuführen ist, einfacher als in Fällen, in denen eine bekannte Technik verwendet wird.
  • Gemäß einem zweiten Beispiel der vorliegenden Erfindung ist ein Kalibrierungsverfahren ein Verfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die horizontal in einer vorbestimmten Positionsbeziehung zueinander beabstandet sind, wobei jeder Marker in einem vorbestimmten Abstand zu einer Straßenoberfläche angeordnet ist. Das Kalibrierungsverfahren weist auf: einen ersten Prozess, der ein Aufnehmen eines Bilds der Marker enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess, der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe der jeweiligen Marker reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess, der ein Berechnen eines Parameters der Kamera auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild auf der speziellen Ebene repräsentiert werden, die in dem zweiten Prozess erzeugt wurde, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt wurden, enthält.
  • Die obige Kalibrierungsvorrichtung kann ähnliche Wirkungen wie diejenigen, die durch das Kalibrierungsverfahren des ersten Beispiels erzielt werden, erzielen.
  • Gemäß einem dritten Beispiel der vorliegenden Erfindung ist eine Kalibrierungsvorrichtung eine Vorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe gegenüber einer Straßenoberfläche angeordnet sind. Die Kalibrierungsvorrichtung weist auf: eine Bilderlangungseinheit, die ein zweidimensionales Bild erlangt, das die Marker repräsentiert, die von der Kamera aufgenommen werden; eine Umwandlungseinheit, die das zweidimensionale Bild, das von der Bilderlangungseinheit erlangt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene umwandelt, so dass das Vogelperspektivenbild die Höhe der jeweiligen Marker reflektiert, wobei die spezielle Ebene die Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit, die einen Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern, die in der speziellen Ebene, die von der Umwandlungseinheit erlangt wurde, repräsentiert werden, berechnet.
  • Gemäß dem Kalibrierungsverfahren, das die obigen Prozesse enthält, werden die Marker (Ziele) derart positioniert, dass sie eine Höhe oberhalb der Straßenoberfläche aufweisen. Dieses kann den Raum, der für die Messung benötigt wird, im Vergleich zu Fällen gewährleisten, in denen die Marker auf der Straßenoberfläche angeordnet werden. Außerdem ist es gemäß dem Kalibrierungsverfahren weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu fixieren, um diese in einer vorbestimmten Positionsbeziehung zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Wenn das Kalibrierungsverfahren verwendet wird, ist somit die Messarbeit, die durchgeführt wird, einfacher als in Fällen, in denen eine bekannte Technik verwendet wird.
  • Gemäß einem vierten Beispiel der vorliegenden Erfindung ist eine Kalibrierungsvorrichtung eine Vorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die horizontal in einer im Voraus bestimmten Positionsbeziehung zueinander beabstandet sind, wobei jeder Marker einen im Voraus bestimmten Abstand zu einer Straßenoberfläche aufweist. Die Kalibrierungsvorrichtung weist auf: eine Bilderlangungseinheit, die ein zweidimensionales Bild erlangt, das die Marker repräsentiert, die von der Kamera aufgenommen werden; eine Umwandlungseinheit, die das zweidimensionale Bild, das von der Bilderlangungseinheit erlangt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene umwandelt, so dass das Vogelperspektivenbild die Höhe der jeweiligen Marker reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit, die einen Parameter der Kamera auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild auf der speziellen Ebene, die von der Umwandlungseinheit erlangt wurde, repräsentiert werden, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, berechnet.
  • Die obige Kalibrierungsvorrichtung kann ähnliche Wirkungen wie diejenigen erzielen, die durch das Kalibrierungsverfahren des dritten Beispiels erzielt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden anhand der folgenden detaillierten Beschreibung mit Bezug auf die zugehörigen Zeichnungen deutlich. Es zeigen:
  • 1 ein Blockdiagramm, das schematisch eine Konfiguration eines Bildverarbeitungssystems gemäß den Ausführungsformen zeigt;
  • 2A ein Diagramm, das Kamerapositionen und eine Positionsbeziehung zwischen einem Fahrzeug und Markern gemäß einer ersten Ausführungsform zeigt;
  • 2B ein Diagramm, das Kamerapositionen und eine Positionsbeziehung zwischen einem Fahrzeug und Markern gemäß einer zweiten Ausführungsform zeigt;
  • 3 ein Flussdiagramm einer Lageparameterbestimmungsverarbeitung 1;
  • 4A ein Diagramm, das ein Beispiel eines Kameraaufnahmebilds zeigt;
  • 4B ein Diagramm, das eine Berechnung eines Abstands zwischen Markern, die in einem Vogelperspektivenbild repräsentiert werden, das aus einem Kameraaufnahmebild umgewandelt wurde, darstellt;
  • 4C ein Diagramm zur Erläuterung eines tatsächlichen Abstands zwischen Markern;
  • 4D ein Diagramm, das eine Weise darstellt, wie ein Liniensegment, das auf der Grundlage von gemessenen Markerpositionen definiert wird, zur Ausrichtung mit einem Liniensegment, das auf der Grundlage von tatsächlichen Markerpositionen definiert wird, verschoben und gedreht wird;
  • 4E ein Diagramm, das die Liniensegmente, die durch Verschiebung und Drehung ausgerichtet wurden, zeigt;
  • 5A ein Diagramm, das konzeptionell Kamerapositionen, die durch Messung bestimmt werden (Markerkoordinatensystem), zeigt;
  • 5B ein Diagramm, das konzeptionell ein Koordinatensystem zeigt, das auf einem Fahrzeug basiert, das ideal positionierte Kameras enthält;
  • 5C ein Diagramm, das eine Weise darstellt, wie ein Liniensegment, das auf der Grundlage von gemessenen Kamerapositionen definiert wird, zur Ausrichtung mit einem Liniensegment, das auf der Grundlage von idealen Kamerapositionen definiert wird, verschoben und gedreht wird;
  • 5D ein Diagramm, das konzeptionell Ergebnisse einer Umwandlung der horizontalen Komponenten der Position jeder Kamera und des Gierwinkels der Aufnahmerichtung jeder Kamera von einem Markerkoordinatensystem in ein Fahrzeugkoordinatensystem zeigt;
  • 6 ein Flussdiagramm einer Lageparameterbestimmungsverarbeitung 2;
  • 7A ein Diagramm, das ein Beispiel eines Kameraaufnahmebilds zeigt;
  • 7B ein Diagramm, das eine Berechnung einer Positionsdifferenz zwischen Markern an einem jeweiligen Pfosten, der in einem Vogelperspektivenbild repräsentiert wird, das von einem Kameraaufnahmebild umgewandelt wird, darstellt;
  • 7C ein Diagramm, das ein Synthetisieren von Vogelperspektivenbildern in ein Bild unter Verwendung eines Kamerakoordinatensystems von einem der Vogelperspektivenbilder und ein Identifizieren der horizontalen Komponenten der Position jeder Kamera und des Gierwinkels der Aufnahmerichtung jeder Kamera darstellt;
  • 8A ein Diagramm, das konzeptionell die Position jeder Kamera, die durch Messung bestimmt wird (Kamerakoordinatensystem), zeigt;
  • 8B ein Diagramm, das konzeptionell ein Koordinatensystem zeigt, das auf einem Fahrzeug basiert, das ideal positionierte Kameras enthält;
  • 8C ein Diagramm, das eine Weise darstellt, wie ein Liniensegment, das auf der Grundlage von gemessenen Kamerapositionen definiert wird, zur Ausrichtung mit einem Liniensegment, das auf der Grundlage von idealen Kamerapositionen definiert wird, verschoben und gedreht wird; und
  • 8D ein Diagramm, das konzeptionell Ergebnisse einer Umwandlung der horizontalen Komponenten der Position jeder Kamera und des Gierwinkels der Aufnahmerichtung jeder Kamera von einem Kamerakoordinatensystem in ein Fahrzeugkoordinatensystem zeigt.
  • AUSFÜHRUNGSFORMEN ZUM AUSFÜHREN DER ERFINDUNG
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung mit Bezug auf die Zeichnungen beschrieben. Die im Folgenden beschriebenen Ausführungsformen sind jedoch nur beispielhaft und beschränken andere alternative Ausführungsformen der vorliegenden Erfindung nicht. Die Ausführungsformen der vorliegenden Erfindung enthalten Ausführungsformen, bei denen ein Teil der Konfiguration irgendeiner der folgenden Ausführungsformen weggelassen ist, solange die Aufgaben der vorliegenden Erfindung gelöst werden. Die Ausführungsformen der vorliegenden Erfindung enthalten außerdem Ausführungsformen, die durch geeignetes Kombinieren der folgenden Ausführungsformen gebildet werden.
  • <Beschreibung der Konfiguration>
  • Wie es in 1 gezeigt ist, enthält ein Bildverarbeitungssystem 5 gemäß den Ausführungsformen Kameras 11a bis 11d, eine Bildverarbeitungsvorrichtung 21 und eine Anzeigevorrichtung 31.
  • Die Kameras 11a bis 11d sind jeweilige Weitwinkelkameras, die einen Bildsensor wie beispielsweise eine CCD oder einen CMOS enthalten. Sie nehmen jeweils einen Bereich um ein Fahrzeug auf und geben ein Bild, das durch das Aufnehmen erzeugt wird, an die Bildverarbeitungsvorrichtung 21 mit einer vorbestimmten Frequenz (beispielsweise mit einer Frequenz von 60 Rahmen je Sekunde) aus. In der vorliegenden Ausführungsform, die in 2A gezeigt ist, ist die Kamera 11a an einem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert, um eine vordere Umgebung des Fahrzeugs aufzunehmen, die Kamera 11b ist an einer rechten Seitenfläche des Fahrzeugs (insbesondere an dem rechten Türspiegel) montiert, um eine rechtsseitige Umgebung des Fahrzeugs aufzunehmen, die Kamera 11c ist an einem mittleren Abschnitt des hinteren Endes des Fahrzeugs montiert, um eine hintere Umgebung des Fahrzeugs aufzunehmen, und die Kamera 11d ist an einer linken Seitenfläche des Fahrzeugs (insbesondere an dem linken Türspiegel) montiert, um eine linksseitige Umgebung des Fahrzeugs aufzunehmen. In der folgenden Beschreibung, wenn die Kameras nicht unterschieden werden müssen, können diese gemeinsam einfach als „Kamera 11“ bezeichnet werden.
  • Gemäß 1 enthält die Bildverarbeitungsvorrichtung 21 Bildspeichereinheiten 22a bis 22d, eine Betriebseinheit 23, eine Lageparameterspeichereinheit 24 und eine Steuereinheit 25.
  • Die Bildspeichereinheiten 22a bis 22d enthalten Speichervorrichtungen wie beispielsweise DRAMs und speichern die Bilder, die von den Kameras 11 aufgenommen und aufeinanderfolgend ausgegeben werden, wobei die Bilder in jeder der Bildspeichereinheiten 22a bis 22d für eine vorbestimmte Zeitdauer (beispielsweise die letzten zehn Sekunden) gespeichert werden. Dafür speichern die Bildspeichereinheiten 22a bis 22d die Bilder, die jeweils von den Kameras 11a bis 11d ausgegeben werden. In der folgenden Beschreibung, wenn die Bildspeichereinheiten nicht voneinander unterschieden werden müssen, können diese auch gemeinsam einfach als „Bildspeichereinheit 22“ bezeichnet werden.
  • Die Betriebseinheit 23 enthält eine berührungsempfindliche Fläche, die auf einem Anzeigebildschirm der Anzeigevorrichtung 31 angeordnet ist, und mechanische Tasten, die beispielsweise um die Anzeigevorrichtung 31 herum angeordnet sind. Die Betriebseinheit 23 ermöglicht es beispielsweise einem Fahrer des Fahrzeugs, verschiedene Betriebsanweisungen über die Betriebseinheit 23 einzugeben.
  • Die Lageparameterspeichereinheit 24 enthält eine nichtflüchtige Speichervorrichtung, beispielsweise einen Flash-Speicher. Die Lageparameterspeichereinheit 24 speichert beispielsweise Lageparameterwerte von jeder Kamera 11 (horizontale und vertikale Komponenten der Position jeder Kamera 11 und außerdem den Nickwinkel, den Rollwinkel bzw. Wankwinkel und den Gierwinkel der Aufnahmerichtung jeder Kamera 11) und Programme zum Ausführen durch die Steuereinheit 25. Die Bilder, die von jeder Kamera 11 aufgenommen werden, werden unter Verwendung der entsprechenden Lageparameter, die in der Lageparameterspeichereinheit 24 gespeichert sind, verarbeitet (beispielsweise zur Umwandlung in Vogelperspektivenbilder). Die Lageparameter werden auch bei der Bestimmung verwendet, ob irgendeine Kamera 11 vorhanden ist, deren Montageposition oder Montagewinkel abnorm geworden ist, beispielsweise aufgrund einer Vibration des Fahrzeugs, was es notwendig macht, eine Warnung auszugeben.
  • Die Steuereinheit 25 enthält einen Mikrocomputer, der eine CPU, einen RAM, einen ROM und eine I/O-Vorrichtung (Eingangs/Ausgangs-Vorrichtung) enthält, und führt verschiedene Verarbeitungsbetriebe durch Lesen von Programmen, die in der Lageparameterspeichereinheit 24 gespeichert sind, durch.
  • Die Anzeigevorrichtung 31 enthält beispielsweise eine Flüssigkristallanzeige oder eine organische EL-Anzeige (organische Elektrolumineszenzanzeige) und kann Bilder, die von den Kameras 11 aufgenommen werden und von der Bildverarbeitungsvorrichtung 21 verarbeitet werden, anzeigen.
  • <Beschreibung des Betriebs der ersten Ausführungsform>
  • Im Folgenden wird der Betrieb einer Bildverarbeitungsvorrichtung 21 einer ersten Ausführungsform beschrieben. Im Folgenden fokussiert sich die Beschreibung auf die Verarbeitung gemäß der vorliegenden Erfindung, und die Beschreibung einer bekannten Verarbeitung, die durchgeführt wird, um Bilder, die von in einem Fahrzeug montierten Kameras des Typs, die hier diskutiert sind, aufgenommen werden, anzuzeigen, wird weggelassen (beispielsweise eine Verarbeitung, die durchgeführt wird, um Bilder, die von Kameras aufgenommen werden, in Vogelperspektivenbilder umzuwandeln und vorhergesagte Spuren von Rädern zu synthetisieren und auf einer Anzeigevorrichtung anzuzeigen, um beispielsweise beim Einparken eines Fahrzeugs in eine Garage zu unterstützen).
  • In der ersten Ausführungsform wird das Fahrzeug in einem Bereich angeordnet, der von vier Markerpfosten 41a bis 41d umgeben ist, wie es in 2A gezeigt ist, um Kameras, die an einem Fahrzeug montiert sind, zu kalibrieren. Die vier Markerpfosten 41a bis 41d sind Säulenpfosten, die derart befestigt sind, dass sie sich vertikal von einer Straßenoberfläche erstrecken. Die Markerpfosten 41a bis 41d enthalten jeweilige Marker 42a bis 42d. Die Marker 42a bis 42d sind an mittleren Positionen der Länge bzw. Längsrichtung der Markerpfosten 41a bis 41d jeweils derart angeordnet, dass sie in derselben Höhe gegenüber der Straßenoberfläche zu dem Fahrzeug zeigen. Das heißt, die Marker 42a bis 42d sind in einer Ebene parallel zu der Straßenoberfläche angeordnet. Die Positionen in der Ebene der Marker 42a bis 42d werden im Voraus bestimmt. Daher werden die tatsächlichen Positionen der Marker 42a bis 42d durch Koordinaten in einem Koordinatensystem (Markerkoordinatensystem) auf der Grundlage einer vorbestimmten Position identifiziert. Die Marker 42a bis 42d können beliebige Objekte sein, solange sie von den Kameras 11, die an dem Fahrzeug montiert sind, aufgenommen werden können und ihre Bilder, die von den Kameras 11 aufgenommen werden, von der Bildverarbeitungsvorrichtung 21 erkannt werden können. Es können beispielsweise Marker, die eine andere Farbe als die Markerpfosten 41a bis 41d aufweisen, oder lichtemittierende Vorrichtungen wie beispielsweise LEDs geeignet als Markerpfosten 41a bis 41d verwendet werden.
  • Wenn in der folgenden Beschreibung die Markerpfosten nicht voneinander unterschieden werden müssen, können diese gemeinsam auch einfach als „Markerpfosten 41“ bezeichnet werden. Wenn die Marker nicht voneinander unterschieden werden müssen, können diese auch einfach als „Marker 42“ bezeichnet werden.
  • Im Folgenden wird mit Bezug auf das Flussdiagramm der 3 eine Lageparameterbestimmungsverarbeitung 1, die von der Bildverarbeitungsvorrichtung 21 zur Kamerakalibrierung durchgeführt wird, beschrieben. Wenn eine für die Messung zuständige Person über die Betriebseinheit 23 eine Anweisung zum Aktualisieren der Lageparameter eingibt, wird die Lageparameterbestimmungsverarbeitung 1 von der Lageparameterspeichereinheit 24 in die Programmsteuereinheit 25 eingelesen, und deren Durchführung wird gestartet. Eine Anweisung zum Aktualisieren der Lageparameter wird nur ausgegeben, nachdem das Fahrzeug wie in 2A gezeigt angeordnet wurde, was es jeder Kamera 11 ermöglicht, zwei der Markerpfosten 41 (zwei der Marker 42) aufzunehmen. Die Steuereinheit 25 führt die Schritte S105 bis S140, die im Folgenden beschrieben werden, separat für jede der Kameras 11a bis 11d durch, und nach Beendigung der Schritte S105 bis S140 für jede Kamera führt sie die Schritte S145 und S150 einmal für sämtliche Kameras durch.
  • Beim Starten der Lageparameterbestimmungsverarbeitung 1 erhält die Steuereinheit 25 das zuletzt aufgenommene Kamerabild von einer ausgewählten Bildspeichereinheit 22 (S105). Das heißt, die Steuereinheit 25 liest Bilddaten von einer der Bildspeichereinheiten 22a bis 22d aus und legt diese in einem RAM, der nicht gezeigt und in der Steuereinheit 25 enthalten ist, ab.
  • Die Steuereinheit 25 erfasst dann anhand des erhaltenen Kameraaufnahmebilds Koordinaten der Marker 42 (S110). Das heißt, die Steuereinheit 25 identifiziert in einem Bildkoordinatensystem die Mitten der Marker 42a und 42b, die in dem Kameraaufnahmebild gezeigt sind, wie es in 4A gezeigt ist. Die Position jedes Markers 42 kann beispielsweise durch Bestimmen eines Flecks, der eine große Farbdifferenz oder große Luminanzdifferenz in dem entsprechenden Bild repräsentiert, oder in Fällen, in denen jeder Marker 42 eine lichtemittierende Vorrichtung enthält, durch Bewirken, dass die lichtemittierende Vorrichtung leuchtet bzw. blitzt, und Messen der Differenz zwischen einem Bild, das vor dem Leuchten der lichtemittierenden Vorrichtung aufgenommen wurde, und einem Bild, das nach dem Leuchten der lichtemittierenden Vorrichtung aufgenommen wurde, identifiziert werden.
  • Gemäß 3 wandelt die Steuereinheit 25 anschließend das Kameraaufnahmebild unter Berücksichtigung der Höhen der Marker 42 in ein Vogelperspektivenbild um (S115). Das Verfahren der Vogelperspektivenumwandlung ist bekannt, so dass dieses hier nicht beschrieben wird. Das Verfahren ist in der JP H10-211849 A genauer beschrieben. Wenn S115 das erste Mal nach dem Starten der Ausführung der Lageparameterbestimmungsverarbeitung 1 ausgeführt wird (wenn ein Kameraaufnahmebild in ein Vogelperspektivenbild umgewandelt wird), können die Lageparameterwerte jeder Kamera 11, die zu verwenden sind, Anfangsparameterwerte sein, die beispielsweise bereitgestellt werden, wenn das Fahrzeug von dem Werk ausgeliefert wird, oder können Parameterwerte sein, die in der Lageparameterspeichereinheit 24 gespeichert sind (Parameterwerte, die gespeichert wurden, als die Lageparameterbestimmungsverarbeitung 1 das letzte Mal ausgeführt wurde). Wenn ein Kameraaufnahmebild in ein Vogelperspektivenbild umgewandelt wird, kann das gesamte Kameraaufnahmebild umgewandelt werden oder es kann nur ein Teil des Kameraaufnahmebilds (beispielsweise nur ein Abschnitt, der die Marker 42 zeigt) umgewandelt werden. Es ist möglich, ein Bild der Marker 42 in ein Vogelperspektivenbild auf einer horizontalen Ebene in derselben Höhe wie die Marker 42 umzuwandeln, ein Bild anderer Objekte als die Marker 42 in ein Vogelperspektivenbild auf der Straßenoberfläche umzuwandeln und die Vogelperspektivenbilder miteinander zu synthetisieren.
  • Anschließend berechnet die Steuereinheit 25 einen Abstand D zwischen den Markern, die in dem somit erzeugten Vogelperspektivenbild gezeigt sind (S120). Das heißt, wie es in 4B gezeigt ist, der Abstand D zwischen den Markern 42a und 42b wird auf der Grundlage der Koordinaten des Markers 42a und der Koordinaten des Markers 42b in dem Koordinatensystem für die Zielkamera 11 (Kamerakoordinatensystem) berechnet.
  • Gemäß 3 bestimmt die Steuereinheit 25, ob der Abstand D zwischen den Markern, der in S120 berechnet wurde, als nahe genug bei einem vorgeschriebenen Wert ausgewertet werden kann (S125). Der „vorgeschriebene Wert“ repräsentiert den tatsächlichen Abstand zwischen Markern, d. h. den Abstand zwischen den beiden vorbestimmten Markern 42, der auf der Grundlage ihrer Koordinaten in dem Markerkoordinatensystem berechnet wird (siehe 4C). Der Abstand D kann beispielsweise als „nahe genug“ an einem vorgeschriebenen Wert ausgewertet werden, wenn das Verhältnis der Differenz zwischen dem Abstand D zwischen den Markern, der in S120 berechnet wurde, zu dem vorgeschriebenen Wert gleich oder kleiner als ein vorgeschriebenes Verhältnis ist.
  • Wenn die Steuereinheit 25 in S125 bestimmt, dass der Abstand D zwischen den Markern, der in S120 berechnet wurde, als nahe genug bei dem vorgeschriebenen Wert ausgewertet werden kann, schreitet sie zur Verarbeitung in S135. Wenn andererseits die Steuereinheit 25 bestimmt, dass der Abstand D, der in S120 berechnet wurde, nicht als nahe genug bei dem vorgeschriebenen Wert ausgewertet werden kann, schreitet sie zur Verarbeitung in S130.
  • In S130, zu dem übergegangen wird, nachdem der Abstand D zwischen den Markern, der in S120 berechnet wurde, als nicht nahe genug bei dem vorgeschriebenen Wert ausgewertet wurde, wählt die Steuereinheit 25 Kandidatenwerte als nächste Werte der vertikalen Komponente (z) der Position der Kamera 11 und des Nickwinkels und Rollwinkels der Aufnahmerichtung der Kamera 11 aus. Diese Parameter werden unter den Lageparametern verwendet, um ein Vogelperspektivenbild in S115 zu erzeugen. Die Kandidatenwerte für die nächste Verwendung werden aus Werten der obigen Elemente eingestellt, wobei mindestens einer dieser um eine geringe Größe aktualisiert bzw. geändert wird (beispielsweise um eine Größe äquivalent zu 0,1 % der Größe vor der Aktualisierung).
  • Nach der Auswahl der Kandidatenwerte für die nächste Verwendung in S130 kehrt die Steuereinheit 25 zur Verarbeitung in S115, der oben beschrieben wurde, zurück und wandelt erneut das Kameraaufnahmebild in ein Vogelperspektivenbild unter Verwendung der Lageparameterwerte, die wie oben beschrieben ausgewählt wurden, um.
  • Wenn andererseits die Verarbeitung zu S135 fortschreitet, nachdem der Abstand D zwischen den Markern, der in S120 berechnet wurde, als nahe genug bei dem vorgeschriebenen Wert ausgewertet wurde, speichert die Steuereinheit 25 die vertikale Komponente (z) der Position der Kamera 11 und den Nickwinkel und den Rollwinkel der Aufnahmerichtung der Kamera 11, die das letzte Mal verwendet wurden, um ein Vogelperspektivenbild in S115 zu erzeugen, in der Lageparameterspeichereinheit 24.
  • Anschließend bewegt und dreht die Steuereinheit 25 das Vogelperspektivenbild (Bild, das in dem Kamerakoordinatensystem repräsentiert wird), das durch die Vogelperspektivenumwandlung, die zuletzt in S115 durchgeführt wurde, erhalten wurde, bis das Liniensegment, das die Marker 42 verbindet, die in dem Vogelperspektivenbild gezeigt sind, zu dem Liniensegment ausgerichtet ist, das die Marker 42 an ihren tatsächlichen Positionen verbindet (tatsächliche Markerpositionen, die in dem Markerkoordinatensystem repräsentiert werden). Gleichzeitig bewegt und dreht die Steuereinheit 25 den Ursprung und die Koordinatenachsen des Kamerakoordinatensystems in dem Vogelperspektivenbild, das in S115 erhalten wurde. Auf der Grundlage des Ursprungs und der Koordinatenachsen des bewegten und gedrehten Kamerakoordinatensystems berechnet die Steuereinheit 25 in dem Markerkoordinatensystem die horizontalen Komponenten (x, y) der Position der Kamera 11 und den Gierwinkel der Aufnahmerichtung der Kamera 11 (S140). Mit anderen Worten, in S140 werden die Kameraposition (x, y) und der Gierwinkel mit dem Liniensegment identifiziert, das die Marker verbindet, die entsprechend der vorgeschriebenen Markeranordnung bewegt und gedreht wurden. Wenn ein Liniensegment zur Ausrichtung an einem anderen Liniensegment bewegt wird, kann das Liniensegment derart bewegt werden, dass die Mittelpunkte der beiden Liniensegmente aneinander ausgerichtet werden, aber es kann auch eine andere Bewegung erfolgen.
  • Die Verarbeitung, die in S140 durchgeführt wird, wird nun genauer mit Bezug auf die 4B bis 4E beschrieben.
  • 4B zeigt ein Bild, das selektiv auf der Grundlage eines Vogelperspektivenbilds, das aus einem Kameraaufnahmebild umgewandelt wurde, die Marker 42a und 42b und Pfosten 41a und 41b zeigt, und in dem Bild ist ein Liniensegment 44 definiert, das die Marker 42a und 42b verbindet. Die Position der Kamera 11, die verwendet wird, um das Bild aufzunehmen, entspricht dem Ursprung Oc des Kamerakoordinatensystems, und die Aufnahmerichtung der Kamera ist auf einer Yc-Zc-Ebene vorhanden.
  • 4C zeigt die Marker 42a und 42b in der tatsächlichen Anordnung (tatsächliche Markerpositionen). In 4C ist ein Liniensegment 45 definiert, das die Marker 42a und 42b verbindet. Der Ursprung Om des Koordinatensystems für die Marker 42 (Markerkoordinatensystem) ist in 4C gezeigt, aber der Ort des Ursprungs Om ist nicht auf denjenigen begrenzt, der in 4C gezeigt ist.
  • Die Weise, wie das Liniensegment 44, das in 4B gezeigt ist, zur Ausrichtung an dem Liniensegment 45, das in 4C gezeigt ist, verschoben und gedreht wird, ist in 4D dargestellt. Wenn das Liniensegment 44 wie in 4D gezeigt verschoben und gedreht wird, werden der Ursprung Oc und die Koordinatenachsen des Kamerakoordinatensystems ebenfalls bewegt (die Weise, wie sie bewegt werden, ist nicht gezeigt).
  • 4E zeigt das Liniensegment 44, das in 4B gezeigt ist, nachdem es zur Ausrichtung an dem Liniensegment 45, das in 4C gezeigt ist, verschoben und gedreht wurde. In 4E können die Position des Ursprungs Oc und die Koordinatenachsen des Kamerakoordinatensystems, die in dem Markerkoordinatensystem repräsentiert werden, überprüft werden. Die horizontalen Komponenten (x- und y-Komponenten) der Koordinatenposition des Ursprungs Oc, der in 4E gezeigt ist, repräsentieren die horizontalen Komponenten der Position der Kamera 11 in dem Markerkoordinatensystem. Der Winkel, der zwischen der Yc-Zc-Ebene des Kamerakoordinatensystems und der Ym-Zm-Ebene ausgebildet wird, repräsentiert den Gierwinkel der Aufnahmerichtung der Kamera 11, der in dem Markerkoordinatensystem repräsentiert wird.
  • Gemäß 3 wandelt die Steuereinheit 25 anschließend die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Markerkoordinatensystem, die in S140 berechnet wurden, in die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Fahrzeugkoordinatensystem um (S145). Diese Umwandlungsverarbeitung wird im Folgenden mit Bezug auf die 5A bis 5D beschrieben.
  • 5A zeigt konzeptionell die Positionen der Kameras 11a bis 11d in dem Markerkoordinatensystem auf der Grundlage der Ergebnisse der Durchführung der Schritte S105 bis S140 für jede der Kameras 11a bis 11d. In dem Beispiel, das in 5A gezeigt ist, sind die Kamera 11a, die an einem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, und die Kamera 11c, die an einem mittleren Abschnitt des hinteren Endes des Fahrzeugs montiert ist, ausgewählt, und es wird ein Liniensegment 51, das die Positionen der beiden Kameras verbindet, definiert. Die auszuwählenden Kameras sind nicht auf die obigen beiden Kameras beschränkt. Es kann eine andere Kombination von Kameras ausgewählt werden.
  • 5B zeigt konzeptionell ein Koordinatensystem (Fahrzeugkoordinatensystem) auf der Grundlage eines mittleren Abschnitts eines vorderen Endes eines Fahrzeugs einschließlich Kameras in einer idealen Anordnung. Das Fahrzeugkoordinatensystem weist einen Ursprung an der Position der Kamera 11a, die an dem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, eine Y-Achse, die sich horizontal nach vorne des Fahrzeugs erstreckt, eine X-Achse, die sich horizontal nach rechts des Fahrzeugs erstreckt, und eine Z-Achse, die sich aufwärts (vertikal) von dem Fahrzeug erstreckt, auf. In diesem Beispiel werden ebenfalls die Kamera 11a, die in dem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, und die Kamera 11c, die in dem mittleren Abschnitt des hinteren Endes des Fahrzeugs montiert ist, ausgewählt, und es wird ein Liniensegment 52, das die beiden Kameras verbindet, definiert.
  • Gemäß dem obigen Fahrzeugkoordinatensystem wird das Liniensegment 51, das in 5A gezeigt ist, gedreht und verschoben, bis das Liniensegment 51 an dem Liniensegment 52, das in 5B definiert ist, ausgerichtet ist. Zu diesem Zeitpunkt werden die horizontalen Komponenten der Position jeder Kamera 11 und der Gierwinkel der Aufnahmerichtung jeder Kamera 11 ebenfalls gedreht und verschoben. Dieses wandelt die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Markerkoordinatensystem in diejenigen in dem Fahrzeugkoordinatensystem um.
  • 5C zeigt die Weise, wie das Liniensegment 51, das in 5A gezeigt ist, zur Ausrichtung an dem Liniensegment 52, das in 5B gezeigt ist, gedreht und verschoben wird. Es ist denkbar, das Liniensegment 51 derart zu bewegen, dass der Mittelpunkt des Liniensegments 51 an dem Mittelpunkt des Liniensegments 52 ausgerichtet wird, aber das Liniensegment 51 kann auf eine andere Weise bewegt werden.
  • 5D zeigt konzeptionell die Ergebnisse der Umwandlung der horizontalen Komponenten der Position jeder Kamera 11 und des Gierwinkels der Aufnahmerichtung jeder Kamera 11 in dem Markerkoordinatensystem in diejenigen in dem Fahrzeugkoordinatensystem. Ein Vergleich der 5D und 5B zeigt, dass jede Kamera, die in 5D gezeigt ist, unterschiedlich zu der 5B ausgerichtet ist. Somit wird bestätigt, dass die Position jeder Kamera 11, die in 5A gezeigt ist, in dem Fahrzeugkoordinatensystem identifiziert werden kann.
  • Gemäß 3 speichert die Steuereinheit 25 anschließend die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Fahrzeugkoordinatensystem, wie sie durch die Umwandlung in S145 bestimmt wurden, in der Lageparameterspeichereinheit 24 (S150). Die Steuereinheit 25 beendet dann die Verarbeitung (Lageparameterbestimmungsverarbeitung 1).
  • <Wirkungen der ersten Ausführungsform>
  • Oben wurde der Betrieb der Bildverarbeitungsvorrichtung 21 gemäß der ersten Ausführungsform beschrieben. Gemäß der ersten Ausführungsform werden die Marker 42 in einer Höhe oberhalb der Straßenoberfläche positioniert. Dieses kann im Vergleich zu Fällen, in denen Marker auf der Straßenoberfläche angeordnet werden, den Raum gewährleisten, der zur Messung benötigt wird. Außerdem ist es gemäß der ersten Ausführungsform weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu befestigen, um diese in einer vorbestimmten Positionsbeziehung zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Somit ist die Messarbeit, die durchzuführen ist, gemäß der ersten Ausführungsform einfach im Vergleich zu Fällen, in denen eine bekannte Technik verwendet wird.
  • Außerdem kann die Bildverarbeitungsvorrichtung 21 gemäß der ersten Ausführungsform die Werte sämtlicher Parameter (Positionen, Nickwinkel, Rollwinkel und Gierwinkel) sämtlicher Kameras 11, die in dem Fahrzeug montiert sind, berechnen.
  • <Beschreibung des Betriebs der zweiten Ausführungsform>
  • Im Folgenden wird der Betrieb einer Bildverarbeitungsvorrichtung 21 gemäß einer zweiten Ausführungsform beschrieben. Die folgende Beschreibung der zweiten Ausführungsform fokussiert sich auf Aspekte der zweiten Ausführungsform, die sich von denjenigen der ersten Ausführungsform unterscheiden, und die Beschreibung von identischen Betrieben der ersten und zweiten Ausführungsformen wird weggelassen.
  • In der zweiten Ausführungsform wird ebenfalls, um Kameras, die an einem Fahrzeug montiert sind, zu kalibrieren, das Fahrzeug in einem Bereich angeordnet, der von vier Markerpfosten 41a bis 41d umgeben ist, wie es in 2B gezeigt ist. Die vier Markerpfosten 41a bis 41d enthalten jeweilige Marker 42a bis 42d. Die Marker 42a bis 42d (im Folgenden auch als „untere Marker“ bezeichnet) sind an mittleren Positionen der Länge bzw. Längsrichtung der Markerpfosten 41a bis 41d jeweils derart angeordnet, dass sie in derselben Höhe gegenüber der Straßenoberfläche zu dem Fahrzeug zeigen. Die vier Markerpfosten 41a bis 41d enthalten außerdem jeweilige Marker 43a bis 43d. Die Marker 43a bis 43d (im Folgenden auch als „obere Marker“ bezeichnet) sind an Positionen in der Nähe der oberen Enden der Markerpfosten 41a bis 41d jeweils derart angeordnet, dass sie in derselben Höhe gegenüber der Straßenoberfläche zu dem Fahrzeug zeigen. Diese Marker 42a bis 42d und 43a bis 43d sind an den jeweiligen Markerpfosten in der vertikalen Richtung ausgerichtet. Im Vergleich zu der ersten Ausführungsform müssen jedoch die Positionen der Marker 42a bis 42d und 43a bis 43d nicht im Voraus in einem speziellen Koordinatensystem identifiziert werden, sondern ihre Höhe gegenüber der Straßenoberfläche ist vorbestimmt.
  • In der folgenden Beschreibung können, wenn die Marker 42a bis 42d nicht voneinander unterschieden werden müssen, diese gemeinsam auch einfach als „Marker 42“ (oder als „untere Marker 42“) bezeichnet werden. Auf ähnliche Weise können, wenn die Marker 43a bis 43d nicht voneinander unterschieden werden müssen, diese gemeinsam auch einfach als „Marker 43“ (oder als „obere Marker 43“) bezeichnet werden.
  • Im Folgenden wird mit Bezug auf das Flussdiagramm der 6 eine Lageparameterbestimmungsverarbeitung 2, die von der Bildverarbeitungsvorrichtung 21 zur Kamerakalibrierung durchgeführt wird, beschrieben. Wenn eine für die Messung zuständige Person über die Betriebseinheit 23 eine Anweisung zum Aktualisieren der Lageparameter eingibt, wird die Lageparameterbestimmungsverarbeitung 2 von der Lageparameterspeichereinheit 24 in die Programmsteuereinheit 50 eingelesen, und deren Durchführung wird gestartet. Eine derartige Anweisung zum Aktualisieren der Lageparameter wird nur ausgegeben, nachdem das Fahrzeug wie in 2B gezeigt angeordnet wurde, was es jeder Kamera 11 ermöglicht, die Marker, die an zwei der Markerpfosten 41 angeordnet sind, aufzunehmen. Die Steuereinheit 25 führt die Schritte S205 bis S235, die im Folgenden beschrieben werden, separat für jede der Kameras 11a bis 11d durch, und nach Beendigung der Schritte S205 bis S235 für jede Kamera führt sie die Schritte S240 bis S250 einmal für sämtliche Kameras durch.
  • Beim Starten der Lageparameterbestimmungsverarbeitung 2 erhält die Steuereinheit 25 das zuletzt aufgenommene Kamerabild von einer ausgewählten Bildspeichereinheit 22 (S205).
  • Die Steuereinheit 25 erfasst dann aus dem erhaltenen Kameraaufnahmebild die Koordinaten der unteren Marker 42 und der oberen Marker 43 (S210). Das heißt, wie es in 7A gezeigt ist, identifiziert die Steuereinheit 25 in einem Bildverarbeitungssystem die Mitten der Marker 42a, 42b, 43a und 43b, die in dem Kameraaufnahmebild gezeigt sind.
  • Gemäß 6 wandelt die Steuereinheit 25 anschließend das Kameraaufnahmebild in ein Vogelperspektivenbild um (S215). Dieses erfolgt unter Berücksichtigung der Höhen der unteren Marker 42 und der oberen Marker 43.
  • Anschließend berechnet die Steuereinheit 25 die Positionsdifferenz in dem Vogelperspektivenbild zwischen dem unteren Marker 42 und dem oberen Marker 43 an jedem Pfosten (S220). Wie es in 7B gezeigt ist, werden beispielsweise der Abstand d1 zwischen den Positionen des unteren Markers 42a und des oberen Markers 43a und der Abstand d2 zwischen den Positionen des unteren Markers 42b und des oberen Markers 43b in einem Koordinatensystem (Kamerakoordinatensystem) basierend auf der Kamera 11a, die zum Aufnehmen des Bilds verwendet wurde, berechnet.
  • Gemäß 6 bestimmt dann die Steuereinheit 25, ob der Abstand zwischen den Positionen des unteren Markers 42 und des oberen Markers 43 an jedem Pfosten als minimal ausgewertet werden kann (S225). Das „minimal“ ist idealerweise vorzugsweise 0, kann aber einen Wert von näherungsweise 0 unter Berücksichtigung eines Fehlers annehmen.
  • Wenn in S225 bestimmt wird, dass der Abstand zwischen den Positionen des unteren Markers 42 und des oberen Markers 43 an jedem Pfosten, die in S220 gemessen wurden, als minimal ausgewertet werden kann, schreitet die Steuereinheit 25 zur Verarbeitung in S235. Wenn andererseits in S225 bestimmt wird, dass der Abstand zwischen den Positionen des unteren Markers 42 und des oberen Markers 43 an jedem Pfosten, die in S220 gemessen wurden, nicht als minimal ausgewertet werden kann, schreitet die Steuereinheit 25 zur Verarbeitung in S230.
  • In S230, zu dem übergegangen wird, nachdem in S225 bestimmt wurde, dass der Abstand zwischen den Positionen des unteren Markers 42 und des oberen Markers 43 an jedem Pfosten, die in S220 gemessen wurden, nicht als minimal ausgewertet werden kann, wählt die Steuereinheit 25 Kandidatenwerte als nächste Werte der vertikalen Komponente (z) der Position der Kamera 11 und des Nickwinkels und Rollwinkels der Aufnahmerichtung der Kamera 11 aus. Diese Elemente werden unter den Lageparametern verwendet, um ein Vogelperspektivenbild in S215 zu erzeugen. Die Kandidatenwerte für die nächste Verwendung werden aus Werten der obigen Elemente eingestellt, wobei mindestens einer dieser um eine geringe Größe aktualisiert bzw. geändert wird (beispielsweise um eine Größe äquivalent zu 0,1 % der Größe vor der Erneuerung).
  • Nach der Auswahl der Kandidatenwerte für die nächste Verwendung in S230 kehrt die Steuereinheit 25 zur Verarbeitung in dem oben beschriebenen Schritt S215 zurück und wandelt erneut das Kameraaufnahmebild unter Verwendung der Lageparameterwerte, die wie oben beschrieben ausgewählt werden, in ein Vogelperspektivenbild um.
  • In S235, zu dem übergegangen wird, nachdem in S225 bestimmt wurde, dass der Abstand zwischen den Positionen des unteren Markers 42 und des oberen Markers 43 an jedem Pfosten, die in S220 gemessen wurden, als minimal ausgewertet werden kann, speichert die Steuereinheit 25 die vertikale Komponente (z) der Position der Kamera 11 und den Nickwinkel und Rollwinkel der Aufnahmerichtung der Kamera 11, die das letzte Mal in S215 verwendet wurden, um das Vogelperspektivenbild zu erzeugen, in der Lageparameterspeichereinheit 24.
  • Die Steuereinheit 25 führt die obige Verarbeitung (S205 bis S235) für jede der Kameras 11a bis 11d durch und startet die Verarbeitung des S240 nach dem Erhalten der Vogelperspektivenbilder (letzte Vogelperspektivenbilder, die durch die in S215 durchgeführte Vogelperspektivenumwandlung erzeugt wurden) entsprechend sämtlichen Kameras 11.
  • Die Steuereinheit 25 synthetisiert die Vogelperspektivenbilder (Bilder in den jeweiligen Kamerakoordinatensystemen) sämtlicher Kameras 11 in ein einziges (S240). Dieses erfolgt durch Verschieben und Drehen der unterschiedlichen Bilder zur Ausrichtung derart, dass dieselben Marker, die in den unterschiedlichen Bildern gezeigt sind, jeweils aneinander ausgerichtet werden. Zu diesem Zeitpunkt werden ebenfalls die Ursprünge und Koordinatenachsen der Kamerakoordinatensysteme der Kameras 11 mit der Ausnahme des einen, das als Bezugskamerakoordinatensystem ausgewählt wird, verschoben und gedreht. Mit anderen Worten, in dem Kamerakoordinatensystem einer der Kameras 11 werden die Vogelperspektivenbilder der anderen Kameras 11 synthetisiert, und die Position (x, y) und der Gierwinkel jeder Kamera werden identifiziert.
  • Im Folgenden wird die Bildsynthetisierung mit Bezug auf 7C beschrieben. Ein Vogelperspektivenbild 61a des vorderen Bereichs ist ein Vogelperspektivenbild, das auf der Grundlage eines Bilds erzeugt wird, das von der Kamera 11a aufgenommen wird, die an einem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist; ein Vogelperspektivenbild 61b des rechten Bereichs ist ein Vogelperspektivenbild, das auf der Grundlage eines Bilds erzeugt wird, das von der Kamera 11b aufgenommen wird, die an einem rechten Seitenabschnitt des Fahrzeugs montiert ist; ein Vogelperspektivenbild 61c des hinteren Bereichs ist Vogelperspektivenbild, das auf der Grundlage eines Bilds erzeugt wird, das von der Kamera 11c aufgenommen wird, die an einem mittleren Abschnitt des hinteren Endes des Fahrzeugs montiert ist; und ein Vogelperspektivenbild 61d des linken Bereichs ist ein Vogelperspektivenbild, das auf der Grundlage eines Bilds erzeugt wird, das von der Kamera 11d aufgenommen wird, die an einem linken Seitenabschnitt des Fahrzeugs montiert ist. In dem Beispiel, das in Beispiel 7C gezeigt ist, werden unter Verwendung des Kamerakoordinatensystems des Vogelperspektivenbilds 61a des vorderen Bereichs als Bezugskamerakoordinatensystem die unterschiedlichen Bilder durch Verschieben und Drehen der Vogelperspektivenbilder zur Ausrichtung in ein einziges Bild derart synthetisiert, dass dieselben Marker, die in den unterschiedlichen Bildern gezeigt sind, jeweils aneinander ausgerichtet sind. Zu diesem Zeitpunkt werden auch die horizontalen Komponenten der Position jeder Kamera 11 und der Gierwinkel der Aufnahmerichtung jeder Kamera 11 entsprechend den jeweiligen Vogelperspektivenbildern verschoben und gedreht. Dieses macht es möglich, die horizontalen Komponenten der Aufnahmeposition jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Kamerakoordinatensystem des Vogelperspektivenbilds 61a des vorderen Bereichs zu berechnen.
  • Gemäß 6 wandelt die Steuereinheit 25 anschließend die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Kamerakoordinatensystem, die in S240 berechnet wurden, in die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Fahrzeugkoordinatensystem um (S245). Diese Umwandlung wird mit Bezug auf die 8A bis 8D beschrieben.
  • 8A zeigt konzeptionell die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Kamerakoordinatensystem. In dem Beispiel, das in 8A gezeigt ist, werden die Kamera 11a, die an einem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, und die Kamera 11c, die an einem mittleren Abschnitt des hinteren Endes des Fahrzeugs montiert ist, ausgewählt, und es wird ein Liniensegment 71, das die Positionen der beiden Kameras verbindet, definiert. Die auszuwählenden Kameras sind nicht auf die obigen beiden Kameras beschränkt. Es kann eine andere Kombination von Kameras ausgewählt werden.
  • 8B zeigt konzeptionell ein Koordinatensystem (Fahrzeugkoordinatensystem) auf der Grundlage eines mittleren Abschnitts des vorderen Endes des Fahrzeugs einschließlich Kameras in einer idealen Anordnung. Das Fahrzeugkoordinatensystem weist einen Ursprung an der Position der Kamera 11a, die an dem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, eine Y-Achse, die sich horizontal nach vorne des Fahrzeugs erstreckt, eine X-Achse, die sich horizontal nach rechts des Fahrzeugs erstreckt, und eine Z-Achse, die sich aufwärts (vertikal) von dem Fahrzeug erstreckt, auf. In diesem Beispiel werden ebenfalls die Kamera 11a, die an dem mittleren Abschnitt des vorderen Endes des Fahrzeugs montiert ist, und die Kamera 11c, die an dem mittleren Abschnitt des hinteren Endes des Fahrzeugs ist, ausgewählt, und es wird ein Liniensegment 72, das die Positionen der beiden Kameras verbindet, definiert.
  • Gemäß dem obigen Fahrzeugkoordinatensystem wird das Liniensegment 71, das in 8A gezeigt ist, gedreht und verschoben, bis das Liniensegment 71 an dem Liniensegment 72, das in 8B definiert ist, ausgerichtet ist, was bewirkt, dass die horizontalen Komponenten der Position jeder Kamera 11 und der Gierwinkel der Aufnahmerichtung jeder Kamera 11 entsprechend gedreht und verschoben werden. Dadurch werden die horizontalen Komponenten der Position jeder Kamera 11 und der Gierwinkel der Aufnahmerichtung jeder Kamera 11 in diejenigen in dem Fahrzeugkoordinatensystem umgewandelt.
  • 8C zeigt die Weise, wie das Liniensegment 71, das in 8A gezeigt ist, zur Ausrichtung an dem Liniensegment 72, das in 8B gezeigt ist, gedreht und verschoben wird. Es ist denkbar, das Liniensegment 71 derart zu bewegen, dass der Mittelpunkt des Liniensegments 71 an dem Mittelpunkt des Liniensegments 72 ausgerichtet wird, aber das Liniensegment 71 kann auch anders bewegt werden.
  • 8D zeigt konzeptionell die Ergebnisse der Umwandlung der horizontalen Komponenten der Position jeder Kamera 11 und des Gierwinkels der Aufnahmerichtung jeder Kamera 11 in dem Kamerakoordinatensystem in diejenigen in dem Fahrzeugkoordinatensystem. Ein Vergleich der 8D und 8B zeigt, dass jede Kamera, die in 8D gezeigt ist, unterschiedlich zu der 8B ausgerichtet ist. Somit wird bestätigt, dass die Position jeder Kamera 11, die in 8A gezeigt ist, in dem Fahrzeugkoordinatensystem identifiziert werden kann.
  • Gemäß 6 speichert die Steuereinheit 25 anschließend die horizontalen Komponenten der Position jeder Kamera 11 und den Gierwinkel der Aufnahmerichtung jeder Kamera 11 in dem Fahrzeugkoordinatensystem, wie sie durch die Bildumwandlung in S245 bestimmt wurden, in der Lageparameterspeichereinheit 24 (S250). Die Steuereinheit 25 beendet dann die Verarbeitung (Lageparameterbestimmungsverarbeitung 2).
  • <Wirkungen der zweiten Ausführungsform>
  • Oben wurde der Betrieb der Bildverarbeitungsvorrichtung 21 gemäß der zweiten Ausführungsform beschrieben. Gemäß der zweiten Ausführungsform werden die Marker 42 und 43 derart positioniert, dass sie eine Höhe oberhalb der Straßenoberfläche aufweisen. Dieses kann im Vergleich zu Fällen, in denen Marker auf der Straßenoberfläche angeordnet werden, den Raum gewährleisten, der zur Messung benötigt wird. Außerdem ist es gemäß der zweiten Ausführungsform weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu befestigen, um diese in einer vorbestimmten Positionsbeziehung zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Somit ist die Messarbeit, die durchzuführen ist, gemäß der zweiten Ausführungsform einfacher als in Fällen, in denen eine bekannte Technik verwendet wird.
  • Außerdem kann die Bildverarbeitungsvorrichtung 21 gemäß der zweiten Ausführungsform die Werte sämtlicher Parameter (Positionen, Nickwinkel, Rollwinkel und Gierwinkel) sämtlicher Kameras 11, die an dem Fahrzeug montiert sind, berechnen.
  • Außerdem müssen gemäß der zweiten Ausführungsform im Vergleich zu der ersten Ausführungsform die Positionen der Markerpfosten 41 nicht im Voraus bestimmt werden (müssen nicht streng an vorbestimmten Positionen sein). Es ist daher möglich, die Markerpfosten 41 vor der Messung aufzustellen, ohne diese an Stelle zu halten. Somit kann die Messung noch einfacher als in der ersten Ausführungsform durchgeführt werden.
  • <Weitere Ausführungsformen>
    • (1) Auch wenn in den obigen Ausführungsformen sämtliche Lageparameter der Kameras 11 berechnet werden, ist es nicht unbedingt notwendig, sämtliche Lageparameter zu berechnen. Bei einem alternativen Ansatz können beispielsweise nur der Nickwinkel und der Gierwinkel der Aufnahmerichtung jeder Kamera 11 berechnet werden.
    • (2) Die Werte der Lageparameter, die in der Lageparameterspeichereinheit 24 zu speichern sind, müssen nicht notwendigerweise diejenigen sein, die auf den Koordinatensystemen basieren, die in Verbindung mit den obigen Ausführungsformen beschrieben wurden. Die Lageparameter, die in diejenigen eines alternativen Koordinatensystems umgewandelt werden, können ebenfalls in der Lageparameterspeichereinheit 24 gespeichert werden.
    • (3) Auch wenn in den obigen Ausführungsformen die Lageparameterbestimmungsverarbeitung vollständig von der Steuereinheit 25 der Bildverarbeitungsvorrichtung 21, die in dem Fahrzeug montiert ist, durchgeführt wird, kann die Lageparameterbestimmungsverarbeitung teilweise von einer anderen Vorrichtung anstelle der Bildverarbeitungsvorrichtung 21 durchgeführt werden. In einem derartigen Fall kann die andere Vorrichtung an einem Ort (außerhalb des Fahrzeugs) montiert sein, der sich von demjenigen unterscheidet, an dem die Bildverarbeitungsvorrichtung 21 montiert ist, wobei es der Bildverarbeitungsvorrichtung 21 möglich ist, die Lageparameterbestimmungsverarbeitung durchzuführen, während sie mit der anderen Vorrichtung über eine Kommunikationsleitung kommuniziert.
  • In den obigen Ausführungsformen entsprechen S105 und S205, die von der Steuereinheit 25 durchgeführt werden, einem Beispiel eines ersten Prozesses und einer Bilderlangungseinheit (oder Bilderlangungseinrichtung). S115 und S215, die von der Steuereinheit 25 durchgeführt werden, entsprechen einem Beispiel eines zweiten Prozesses und einer Umwandlungseinheit (oder Umwandlungseinrichtung). S140, S145, S240 und S245, die von der Steuereinheit 25 durchgeführt werden, entsprechen einem Beispiel eines dritten Prozesses und einer Berechnungseinheit (oder Berechnungseinrichtung).
  • Gemäß der vorliegenden Erfindung können verschiedene Formen von Kalibrierungsverfahren und Kalibrierungsvorrichtungen geschaffen werden.
  • Ein Kalibrierungsverfahren gemäß dem ersten Beispiel der vorliegenden Erfindung ist beispielsweise ein Verfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe gegenüber einer Straßenoberfläche angeordnet sind. Das Kalibrierungsverfahren weist auf: einen ersten Prozess, der ein Aufnehmen eines Bilds der Marker mit der Kamera enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess, der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe der jeweiligen Marker reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess, der ein Berechnen eines Parameters der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern in der speziellen Ebene, die in dem zweiten Prozess erhalten wird, enthält.
  • Gemäß dem Kalibrierungsverfahren, das die oben beschriebenen Prozesse enthält, werden die Marker (Ziele) derart positioniert, dass sie eine Höhe oberhalb der Straßenoberfläche aufweisen. Dieses kann im Vergleich zu Fällen, in denen Marker auf der Straßenoberfläche angeordnet werden, den Raum gewährleisten, der für die Messung benötigt wird. Außerdem ist es gemäß dem Kalibrierungsverfahren weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu befestigen, um diese in einer vorbestimmten Positionsbeziehung zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Wenn das Kalibrierungsverfahren verwendet wird, ist somit die Messarbeit, die durchzuführen ist, einfacher als in Fällen, in denen eine bekannte Technik verwendet wird.
  • In dem dritten Prozess enthält der Parameter mindestens eine vertikale Komponente einer Position der Kamera, einen Nickwinkel der Kamera oder einen Rollwinkel der Kamera. Ein derartiger Parameter kann in dem dritten Prozess genau berechnet werden.
  • An dem Fahrzeug kann entweder eine einzige Kamera montiert sein oder es können mehrere Kameras montiert sein. Wenn mehrere Kameras montiert sind, können die drei Prozesse wie folgt durchgeführt werden (drittes Beispiel). In dem ersten Prozess werden die Marker von jeder Kamera aufgenommen, und das zweidimensionale Bild wird für jede Kamera erzeugt. In dem zweiten Prozess wird jedes der zweidimensionalen Bilder, die in dem ersten Prozess erzeugt wurden, in ein Vogelperspektivenbild umgewandelt. In dem dritten Prozess wird mindestens ein Gierwinkel jeder Kamera oder eine horizontale Komponente der Position jeder Kamera außerdem als Parameter jeder Kamera berechnet, so dass ein spezieller Marker, der von einer Kamera aufgenommen wurde, dieselbe Position in dem umgewandelten Vogelperspektivenbild wie der spezielle Marker, der von einer anderen Kamera aufgenommen wurde, aufweist.
  • Das Kalibrierungsverfahren, das die obigen Prozesse enthält, macht es möglich, den Gierwinkel der Position jeder der Kameras, die an einem Fahrzeug montiert sind, und/oder die horizontalen Komponenten der Position jeder Kamera in demselben Koordinatensystem zu berechnen, während der Raum, der zur Messung benötigt wird, gewährleistet wird und die Messverarbeitung vereinfacht wird.
  • Ein Kalibrierungsverfahren eines vierten Beispiels der vorliegenden Erfindung ist ein Verfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die horizontal in einer im Voraus bestimmten Positionsbeziehung zueinander beabstandet sind, wobei jeder Marker in einem im Voraus bestimmten Abstand zu einer Straßenoberfläche angeordnet ist. Das Kalibrierungsverfahren weist auf: einen ersten Prozess, der ein Aufnehmen eines Bilds der Marker enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess, der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe jedes der Marker reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess, der ein Berechnen eines Parameters der Kamera auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild in der speziellen Ebene, die in dem zweiten Prozess erzeugt wurde, repräsentiert werden, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, enthält.
  • Gemäß dem Kalibrierungsverfahren, das die oben beschriebenen Prozesse enthält, werden die Marker (Ziele) derart positioniert, dass sie eine Höhe oberhalb der Straßenoberfläche aufweisen. Dieses kann den Raum, der zur Messung benötigt wird, im Vergleich zu Fällen, in denen Marker auf der Straßenoberfläche angeordnet werden, gewährleisten. Außerdem ist es gemäß dem Kalibrierungsverfahren weder notwendig, das Fahrzeug und die Marker unter Verwendung von Anschlussstücken physikalisch zu befestigen, um diese in einer vorbestimmten Positionsbeziehung zueinander zu halten, noch ist es notwendig, die Markerpositionen unter Verwendung einer Rahmeneinrichtung anzupassen, um die Marker in eine vorbestimmte Positionsbeziehung zu dem Fahrzeug zu bringen. Wenn das Kalibrierungsverfahren verwendet wird, ist somit die Messarbeit, die durchzuführen ist, einfacher als in Fällen, in denen eine bekannte Technik verwendet wird.
  • In dem dritten Prozess kann der Parameter mindestens eine vertikale Komponente einer Position der Kamera, einen Nickwinkel der Kamera oder einen Rollwinkel der Kamera enthalten (fünftes Beispiel). Ein derartiger Parameter kann in dem dritten Prozess genau berechnet werden.
  • Auch wenn der Parameterwert, der in dem dritten Prozess berechnet wird, ein Wert von nur einem aus der vertikalen Komponente, dem Nickwinkel und dem Rollwinkel der Position jeder Kamera sein kann, können andere Parameterwerte ebenfalls wie folgt berechnet werden. Das heißt, mindestens ein Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera wird außerdem als Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen einem Liniensegment, das die Marker, die in der speziellen Ebene repräsentiert werden, verbindet, und einem Liniensegment, das die Marker verbindet, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, berechnet (sechstes Beispiel). Diese Berechnung erfolgt auf der Grundlage der Positionsdifferenz zwischen einem Liniensegment, das mehrere Marker verbindet, die in dem zweiten Prozess in der Straßenoberfläche oder Ebene repräsentiert werden, und einem Liniensegment, das die Marker auf der Grundlage einer im Voraus bestimmten Positionsbeziehung verbindet.
  • Das Kalibrierungsverfahren, das die obigen Prozesse enthält, macht es möglich, zumindest den Gierwinkel der Position jeder Kamera, die an einem Fahrzeug montiert ist, oder die horizontalen Komponenten der Position jeder Kamera in demselben Koordinatensystem zu berechnen, während der Raum, der zur Messung benötigt wird, gewährleistet wird und die Messverarbeitung vereinfacht wird.
  • An dem Fahrzeug kann entweder eine einzige Kamera montiert sein oder es können mehrere Kameras montiert sein. Wenn mehrere Kameras montiert sind, können die ersten bis dritten Prozesse für jede Kamera durchgeführt werden (siebtes Beispiel).
  • Das Kalibrierungsverfahren, das die obigen Prozesse enthält, macht es möglich, Parameterwerte jeder Kamera, die an einem Fahrzeug montiert ist, zu berechnen, während der Raum, der zur Messung benötigt wird, gewährleistet wird und die Messverarbeitung vereinfacht wird.
  • Gemäß einem achten Beispiel der vorliegenden Erfindung weist eine Kalibrierungsvorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe gegenüber einer Straßenoberfläche angeordnet sind, auf: eine Bilderlangungseinheit, die ein zweidimensionales Bild erlangt, das die Marker repräsentiert, die von der Kamera aufgenommen werden; eine Umwandlungseinheit, die das zweidimensionale Bild, das von der Bilderlangungseinheit erlangt wird, umwandelt und die Marker in einem Vogelperspektivenbild auf bzw. in einer speziellen Ebene repräsentiert, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene die Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit, die einen Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern, die in der speziellen Ebene repräsentiert werden, die von der Umwandlungseinheit erlangt wird, berechnet.
  • Der Parameter, der von der Berechnungseinheit berechnet wird, kann mindestens eines aus einer vertikalen Komponente einer Position der Kamera, eines Nickwinkels der Kamera und eines Rollwinkels der Kamera enthalten (neuntes Beispiel).
  • Außerdem kann die Kalibrierungsvorrichtung mehrere Kameras enthalten, die an dem Fahrzeug montiert sind, und kann wie folgt ausgelegt sein (zehntes Beispiel). Die Bilderlangungseinheit erlangt mehrere zweidimensionale Bilder, die von den jeweiligen Kameras aufgenommen werden, wobei jedes zweidimensionale Bild die Marker repräsentiert. Die Umwandlungseinheit wandelt jedes zweidimensionale Bild, das von der Bilderlangungseinheit erlangt wird, in ein Vogelperspektivenbild um. Die Berechnungseinheit berechnet einen Parameter von jeder Kamera, so dass ein spezieller Marker, der von einer Kamera aufgenommen wurde, dieselbe Position in dem umgewandelten Vogelperspektivenbild wie derjenige aufweist, der von einer anderen Kamera aufgenommen wurde, wobei der Parameter jeder Kamera mindestens einen Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera enthält.
  • Die obige Kalibrierungsvorrichtung kann dieselben Wirkungen wie die obigen ersten bis dritten Beispiele erzielen.
  • Gemäß einem elften Beispiel der vorliegenden Erfindung weist eine Kalibrierungsvorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die horizontal in einer im Voraus bestimmten Positionsbeziehung zueinander beabstandet sind, wobei jeder Marker einen im Voraus bestimmten Abstand zu einer Straßenoberfläche aufweist, auf: eine Bilderlangungseinheit, die ein zweidimensionales Bild erlangt, das die Marker, die von der Kamera aufgenommen werden, repräsentiert; eine Umwandlungseinheit, die das zweidimensionale Bild, das von der Bilderlangungseinheit erlangt wird und die Marker repräsentiert, in ein Vogelperspektivenbild auf einer speziellen Ebene umwandelt, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit, die einen Parameter der Kamera auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild auf der speziellen Ebene repräsentiert werden, die von der Umwandlungseinheit erlangt wird, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, berechnet.
  • Der Parameter, der von der Berechnungseinheit berechnet wird, enthält mindestens eines aus einer vertikalen Komponente einer Position der Kamera, eines Nickwinkels der Kamera und eines Rollwinkels der Kamera.
  • Außerdem kann die Berechnungseinheit (25, S140, S145) in der Kalibrierungsvorrichtung mindestens einen Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera als Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen einem Liniensegment, das die Marker, die in der speziellen Ebene repräsentiert werden, verbindet, und einem Liniensegment, das die Marker verbindet, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, berechnen (dreizehntes Beispiel).
  • Außerdem kann die Kalibrierungsvorrichtung mehrere Kameras enthalten, die an dem Fahrzeug montiert sind, und kann derart ausgelegt sein, dass die Einheiten ihre Operationen für jede Kamera durchführen (vierzehntes Beispiel).
  • Die obige Kalibrierungsvorrichtung kann dieselben Wirkungen wie in den obigen vierten bis siebten Beispielen erzielen.
  • Es wurden beispielhafte Ausführungsformen und Konfigurationen gemäß der vorliegenden Erfindung beschrieben, aber die Ausführungsformen und Konfigurationen der vorliegenden Erfindung sind nicht auf die obigen beispielhaften Ausführungsformen und Konfigurationen beschränkt. Ausführungsformen und Konfigurationen, die durch geeignetes Kombinieren von technischen Elementen, die in den unterschiedlichen Ausführungsformen und Konfigurationen beschrieben sind, realisiert werden, liegen ebenfalls innerhalb des Bereichs der Ausführungsformen und Konfigurationen gemäß der vorliegenden Erfindung.

Claims (14)

  1. Kalibrierungsverfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe gegenüber einer Straßenoberfläche angeordnet sind, wobei das Kalibrierungsverfahren aufweist: einen ersten Prozess (S205), der ein Aufnehmen eines Bilds der Marker mit der Kamera enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess (S215), der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess (S205) erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild in einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess (S240, S245), der ein Berechnen eines Parameters der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern in der speziellen Ebene, die in dem zweiten Prozess (S215) erhalten wurde, enthält.
  2. Kalibrierungsverfahren nach Anspruch 1, wobei der Parameter, der in dem dritten Prozess (S240, S245) berechnet wird, mindestens eines aus einer vertikalen Komponente einer Position der Kamera, einem Nickwinkel der Kamera und einem Rollwinkel der Kamera enthält
  3. Kalibrierungsverfahren nach Anspruch 2, wobei an dem Fahrzeug mehrere der Kameras montiert sind; in dem ersten Prozess (S205) die Marker von jeder Kamera aufgenommen werden und das zweidimensionale Bild für jede Kamera erzeugt wird; in dem zweiten Prozess (S215) jedes zweidimensionale Bild, das in dem ersten Prozess (S205) erzeugt wurde, in das Vogelperspektivenbild umgewandelt wird; und in dem dritten Prozess (S240, S245) mindestens ein Gierwinkel jeder Kamera oder eine horizontale Komponente der Position jeder Kamera außerdem als der Parameter jeder Kamera berechnet wird, so dass ein spezieller Marker, der von einer Kamera aufgenommen wurde, dieselbe Position in dem umgewandelten Vogelperspektivenbild aufweist wie der spezielle Marker, der von einer anderen Kamera aufgenommen wurde.
  4. Kalibrierungsverfahren zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die in einer im Voraus bestimmten Positionsbeziehung horizontal beabstandet sind, wobei jeder Marker in einem im Voraus bestimmten Abstand zu einer Straßenoberfläche angeordnet ist, wobei das Kalibrierungsverfahren aufweist: einen ersten Prozess (S105), der ein Aufnehmen eines Bilds der Marker enthält, wodurch ein zweidimensionales Bild erzeugt wird; einen zweiten Prozess (S115), der ein Umwandeln des zweidimensionalen Bilds, das in dem ersten Prozess (S105) erzeugt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild in einer speziellen Ebene enthält, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und einen dritten Prozess (S140, S145), der enthält: ein Berechnen eines Parameters der Kamera auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild auf der speziellen Ebene, die in dem zweiten Prozess (S115) erzeugt wurde, repräsentiert werden, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden.
  5. Kalibrierungsverfahren nach Anspruch 4, wobei der Parameter, der in dem dritten Prozess (S140, S145) berechnet wird, mindestens eines aus einer vertikalen Komponente einer Position der Kamera, einem Nickwinkel der Kamera und einem Rollwinkel der Kamera enthält.
  6. Kalibrierungsverfahren nach Anspruch 5, wobei in dem dritten Prozess (S140, S145) mindestens ein Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera außerdem als der Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen einem Liniensegment, das die Marker, die in der speziellen Ebene repräsentiert werden, verbindet, und einem Liniensegment, das die Marker, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden, verbindet, berechnet wird.
  7. Kalibrierungsverfahren nach einem der Ansprüche 4 bis 6, wobei an dem Fahrzeug mehrere der Kameras montiert sind; und der erste Prozess (S105) bis zu dem dritten Prozess (S140, S145) für jede Kamera durchgeführt werden.
  8. Kalibrierungsvorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die jeweils vertikal angeordnet sind und jeweils in einer im Voraus bestimmten Höhe gegenüber einer Straßenoberfläche angeordnet sind, wobei die Kalibrierungsvorrichtung aufweist: eine Bilderlangungseinheit (25, S205), die ein zweidimensionales Bild erlangt, das die Marker, die von der Kamera aufgenommen werden, repräsentiert; eine Umwandlungseinheit (25, S215), die das zweidimensionale Bild, das von der Bilderlangungseinheit (25, S205) erlangt wird und die Marker repräsentiert, in ein Vogelperspektivenbild in einer speziellen Ebene umwandelt, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene die Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit (25, S240, S245), die einen Parameter der Kamera auf der Grundlage einer Positionsdifferenz zwischen den Markern, die in der speziellen Ebene repräsentiert werden, die von der Umwandlungseinheit (25, S215) erlangt wird, berechnet.
  9. Kalibrierungsvorrichtung nach Anspruch 8, wobei der Parameter, der von der Berechnungseinheit (25, S240, S245) berechnet wird, mindestens eines aus einer vertikalen Komponente einer Position der Kamera, einem Nickwinkel der Kamera und einem Rollwinkel der Kamera enthält.
  10. Kalibrierungsvorrichtung nach Anspruch 9, wobei an dem Fahrzeug mehrere der Kameras montiert sind; die Bilderlangungseinheit (25, S205) mehrere zweidimensionale Bilder, die von den jeweiligen Kameras aufgenommen werden, erlangt, wobei jedes zweidimensionale Bild die Marker repräsentiert; die Umwandlungseinheit (25, S215) jedes zweidimensionale Bild, das von der Bilderlangungseinheit (25, S205) erlangt wird, in ein Vogelperspektivenbild umwandelt; und die Berechnungseinheit (25, S240, S245) einen Parameter jeder Kamera berechnet, so dass ein spezieller Marker, der von einer Kamera aufgenommen wurde, dieselbe Position in dem umgewandelten Vogelperspektivenbild wie derjenige aufweist, der von einer anderen Kamera aufgenommen wurde, wobei der Parameter jeder Kamera mindestens einen Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera enthält.
  11. Kalibrierungsvorrichtung zum Kalibrieren einer Lage einer Kamera, die an einem Fahrzeug montiert ist, unter Verwendung von mehreren Markern, die in einer im Voraus bestimmten Positionsbeziehung horizontal beabstandet sind, wobei jeder Marker einen im Voraus bestimmten Abstand zu einer Straßenoberfläche aufweist, wobei die Kalibrierungsvorrichtung aufweist: eine Bilderlangungseinheit (25, S105), die ein zweidimensionales Bild, das die Marker repräsentiert, die von der Kamera aufgenommen werden, erlangt; eine Umwandlungseinheit (25, S115), die das zweidimensionale Bild, das von der Bilderlangungseinheit (25, S105) erlangt wurde und die Marker repräsentiert, in ein Vogelperspektivenbild in einer speziellen Ebene umwandelt, so dass das Vogelperspektivenbild die Höhe jedes Markers reflektiert, wobei die spezielle Ebene eine Straßenoberfläche oder eine Ebene parallel zu der Straßenoberfläche ist; und eine Berechnungseinheit (25, S140, S145), die einen Parameter der Kamera berechnet auf der Grundlage einer Differenz zwischen einem Abstand zwischen den Markern, die in dem Vogelperspektivenbild in der speziellen Ebene repräsentiert werden, die von der Umwandlungseinheit (25, S115) erlangt wurde, und einem Abstand zwischen den Markern, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden.
  12. Kalibrierungsvorrichtung nach Anspruch 11, wobei der Parameter, der von der Berechnungseinheit (25, S140, S145) berechnet wird, mindestens eines aus einer vertikalen Komponente einer Position der Kamera, einem Nickwinkel der Kamera und einem Rollwinkel der Kamera enthält.
  13. Kalibrierungsvorrichtung nach Anspruch 12, wobei die Berechnungseinheit (25, S140, S145) außerdem mindestens einen Gierwinkel der Kamera oder eine horizontale Komponente der Position der Kamera als den Parameter der Kamera berechnet auf der Grundlage einer Positionsdifferenz zwischen einem Liniensegment, das die Marker, die in der speziellen Ebene repräsentiert werden, verbindet, und einem Liniensegment, das die Marker verbindet, die auf der Grundlage der im Voraus bestimmten Positionsbeziehung bestimmt werden.
  14. Kalibrierungsvorrichtung nach einem der Ansprüche 11 bis 13, wobei an dem Fahrzeug mehrere der Kameras montiert sind, und die jeweilige Einheit eine Verarbeitung für jede Kamera durchführt.
DE112013004851.5T 2012-10-02 2013-09-05 Kalibrierungsverfahren und Kalibrierungsvorrichtung Active DE112013004851B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-220622 2012-10-02
JP2012220622A JP6009894B2 (ja) 2012-10-02 2012-10-02 キャリブレーション方法、及びキャリブレーション装置
PCT/JP2013/005276 WO2014054223A1 (ja) 2012-10-02 2013-09-05 キャリブレーション方法、及びキャリブレーション装置

Publications (2)

Publication Number Publication Date
DE112013004851T5 true DE112013004851T5 (de) 2015-06-18
DE112013004851B4 DE112013004851B4 (de) 2019-05-09

Family

ID=50434569

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013004851.5T Active DE112013004851B4 (de) 2012-10-02 2013-09-05 Kalibrierungsverfahren und Kalibrierungsvorrichtung

Country Status (5)

Country Link
US (1) US10171802B2 (de)
JP (1) JP6009894B2 (de)
CN (1) CN104718750B (de)
DE (1) DE112013004851B4 (de)
WO (1) WO2014054223A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019206699A1 (de) * 2018-04-23 2019-10-31 Robert Bosch Gmbh VERFAHREN ZUR DETEKTION EINER ANORDNUNG VON ZUMINDEST ZWEI KAMERAS EINES MULTI-KAMERASYSTEMS EINER MOBILEN TRÄGERPLATTFORM ZUEINANDER UND VERFAHREN ZUR DETEKTION EINER ANORDNUNG DER KAMERA ZU EINEM OBJEKT AUßERHALB DER MOBILEN TRÄGERPLATTFORM

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034775B2 (ja) * 2013-11-29 2016-11-30 クラリオン株式会社 カメラ校正装置
CN105934774A (zh) * 2014-03-24 2016-09-07 株式会社日立制作所 物体检测装置、物体检测方法以及移动机器人
US9953420B2 (en) 2014-03-25 2018-04-24 Ford Global Technologies, Llc Camera calibration
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
CN104008548B (zh) * 2014-06-04 2017-04-19 无锡维森智能传感技术有限公司 一种用于车载环视系统摄像头参数标定的特征点抽取方法
JP6450530B2 (ja) 2014-06-11 2019-01-09 株式会社Soken 車載カメラの取付角度調整処理、取付角度検出装置
JP6371185B2 (ja) 2014-09-30 2018-08-08 クラリオン株式会社 カメラキャリブレーション装置及びカメラキャリブレーションシステム
CN104240262B (zh) * 2014-10-16 2017-02-15 中国科学院光电技术研究所 一种用于摄影测量的相机外参数标定装置及标定方法
JP6413974B2 (ja) * 2015-08-05 2018-10-31 株式会社デンソー キャリブレーション装置、キャリブレーション方法、及びプログラム
KR101740566B1 (ko) * 2015-10-12 2017-05-31 아진산업(주) 스테레오 카메라의 차량 설치 장비
JP6603094B2 (ja) * 2015-10-20 2019-11-06 クラリオン株式会社 キャリブレーション装置、キャリブレーション方法、及び、キャリブレーションプログラム
JP6565769B2 (ja) * 2016-04-03 2019-08-28 株式会社デンソー 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム
GB2549259B (en) * 2016-04-05 2019-10-23 Continental Automotive Gmbh Determining mounting positions and/or orientations of multiple cameras of a camera system of a vehicle
WO2017190092A1 (en) * 2016-04-29 2017-11-02 Faraday&Future Inc. System for providing color balance in automotive display
JP2017211200A (ja) * 2016-05-23 2017-11-30 株式会社デンソー カメラ校正装置及びカメラ校正方法
JP6614042B2 (ja) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
US20180033124A1 (en) * 2016-07-28 2018-02-01 The Texas A&M University System Method and apparatus for radiometric calibration and mosaicking of aerial images
JP6536529B2 (ja) * 2016-10-17 2019-07-03 株式会社デンソー 車載カメラのキャリブレーション装置及び車載カメラのキャリブレーション方法
US10466027B2 (en) 2017-06-21 2019-11-05 Fujitsu Ten Corp. Of America System and method for marker placement
US10089753B1 (en) * 2017-07-05 2018-10-02 Almotive Kft. Method, system and computer-readable medium for camera calibration
CN107621278B (zh) * 2017-08-04 2021-01-29 驭势科技(北京)有限公司 自主校准方法及装置
CN107481292B (zh) * 2017-09-05 2020-07-28 百度在线网络技术(北京)有限公司 车载摄像头的姿态误差估计方法和装置
US11115623B2 (en) * 2018-05-07 2021-09-07 Maxim Integrated Products, Inc. Systems and methods for asymmetric image splitter with line mark memory
KR102071418B1 (ko) * 2018-05-17 2020-01-30 에스케이텔레콤 주식회사 차량용 카메라 캘리브레이션 장치 및 방법
JP2020016920A (ja) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 画像補正装置、カウント装置、画像補正方法、カウント方法、プログラム及び記録媒体
JP2020034344A (ja) * 2018-08-28 2020-03-05 株式会社Screenホールディングス 可動部位置検出方法、基板処理方法、基板処理装置および基板処理システム
US10769813B2 (en) * 2018-08-28 2020-09-08 Bendix Commercial Vehicle Systems, Llc Apparatus and method for calibrating surround-view camera systems
CN109353276B (zh) * 2018-09-21 2022-02-11 上海豫兴电子科技有限公司 一种车载摄像头角度标定方法和标定装置
CN109353275B (zh) * 2018-09-21 2022-03-25 上海豫兴电子科技有限公司 一种车载摄像头角度标定贴膜及标定方法
KR20200050612A (ko) * 2018-11-02 2020-05-12 현대자동차주식회사 차량용 레이더의 영점 조절 장치 및 그 방법
US11423527B2 (en) 2018-11-20 2022-08-23 Bnsf Railway Company System and method for minimizing lost vehicle axel motion and filtering erroneous electrical signals
US11508055B2 (en) * 2018-11-20 2022-11-22 Bnsf Railway Company Systems and methods for calibrating image capturing modules
US10984521B2 (en) 2018-11-20 2021-04-20 Bnsf Railway Company Systems and methods for determining defects in physical objects
CN111508027B (zh) * 2019-01-31 2023-10-20 杭州海康威视数字技术股份有限公司 摄像机外参标定的方法和装置
JP6781291B2 (ja) * 2019-03-20 2020-11-04 東芝エレベータ株式会社 画像処理装置
JP6772324B2 (ja) * 2019-03-20 2020-10-21 東芝エレベータ株式会社 画像処理装置
US10723281B1 (en) * 2019-03-21 2020-07-28 Lyft, Inc. Calibration of vehicle sensor array alignment
CN110108203B (zh) * 2019-04-11 2020-12-15 东莞中子科学中心 一种基于摄影测量技术的丝线位置测量方法及系统
CN110211176A (zh) * 2019-05-31 2019-09-06 驭势科技(北京)有限公司 一种相机外参数校正系统与方法
EP3983756A4 (de) * 2019-06-14 2023-02-08 Bayerische Motoren Werke Aktiengesellschaft Strassenmodell für 2d-wegplaner
KR102297683B1 (ko) * 2019-07-01 2021-09-07 (주)베이다스 복수의 카메라들을 캘리브레이션하는 방법 및 장치
KR102277828B1 (ko) * 2019-08-13 2021-07-16 (주)베이다스 복수의 카메라들을 캘리브레이션하는 방법 및 장치
JP7067574B2 (ja) * 2020-01-30 2022-05-16 トヨタ自動車株式会社 距離推定装置及び距離推定用コンピュータプログラム
US11270466B2 (en) * 2020-03-12 2022-03-08 Bnsf Railway Company Systems and methods for calibrating image capturing modules
CN113327293B (zh) * 2021-06-18 2022-07-12 东莞理工学院 一种用于工业机器人抓取领域的深度相机标定装置
CN114993266B (zh) * 2022-06-14 2024-03-22 深圳市道通科技股份有限公司 定位装置及定位系统
CN116381632B (zh) * 2023-06-05 2023-08-18 南京隼眼电子科技有限公司 雷达横滚角的自标定方法、装置及存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3663801B2 (ja) 1997-01-30 2005-06-22 いすゞ自動車株式会社 車両後方視界支援装置
JP3387911B2 (ja) 2000-01-27 2003-03-17 松下電器産業株式会社 キャリブレーションシステムおよびキャリブレーション方法
US6542840B2 (en) 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
US6561202B1 (en) * 2000-11-09 2003-05-13 Steven Amadio Extendible side guide poles for car wash
KR100866450B1 (ko) 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP2004280728A (ja) 2003-03-18 2004-10-07 Lab:Kk 画像合成装置及びカメラパラメータキャリブレーション用マーカー設定装置
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
JP2008187564A (ja) 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP2008209354A (ja) * 2007-02-28 2008-09-11 Toyota Motor Corp キャリブレーション方法及び装置、並びに自動検知装置
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
JP2009129001A (ja) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
JP4555876B2 (ja) * 2008-05-30 2010-10-06 株式会社日本自動車部品総合研究所 車載カメラのキャリブレーション方法
JP2010076527A (ja) * 2008-09-25 2010-04-08 Sanyo Electric Co Ltd 操縦支援装置
JP5221765B2 (ja) * 2008-10-01 2013-06-26 ハイ キー リミテッド 画像取込装置の較正方法および較正システム
JP2010103730A (ja) * 2008-10-23 2010-05-06 Clarion Co Ltd 車載カメラのキャリブレーション装置およびキャリブレーション方法
JP2010121987A (ja) 2008-11-18 2010-06-03 Panasonic Corp 車載カメラ用のキャリブレーションターゲット及びキャリブレーションシステム
JP4876118B2 (ja) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
US8872920B2 (en) * 2009-03-26 2014-10-28 Aisin Seiki Kabushiki Kaisha Camera calibration apparatus
JP5091902B2 (ja) * 2009-03-31 2012-12-05 アイシン精機株式会社 車載カメラの校正に用いられる校正指標と、当該校正指標を用いた車載カメラの校正方法と、システムと、当該システムのためのプログラム
JP5369873B2 (ja) * 2009-04-27 2013-12-18 富士通株式会社 判定プログラムおよびキャリブレーション装置
JP5471038B2 (ja) * 2009-05-27 2014-04-16 アイシン精機株式会社 校正目標検出装置と、校正目標を検出する校正目標検出方法と、校正目標検出装置のためのプログラム
JP5299231B2 (ja) * 2009-11-17 2013-09-25 富士通株式会社 キャリブレーション装置
JP5444139B2 (ja) 2010-06-29 2014-03-19 クラリオン株式会社 画像のキャリブレーション方法および装置
WO2012145822A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019206699A1 (de) * 2018-04-23 2019-10-31 Robert Bosch Gmbh VERFAHREN ZUR DETEKTION EINER ANORDNUNG VON ZUMINDEST ZWEI KAMERAS EINES MULTI-KAMERASYSTEMS EINER MOBILEN TRÄGERPLATTFORM ZUEINANDER UND VERFAHREN ZUR DETEKTION EINER ANORDNUNG DER KAMERA ZU EINEM OBJEKT AUßERHALB DER MOBILEN TRÄGERPLATTFORM
US11430153B2 (en) 2018-04-23 2022-08-30 Robert Bosch Gmbh Method for detecting an arrangement of at least two cameras of a multi-camera system of a mobile carrier platform relative to one another and method for detecting an arrangement of the camera with respect to an object outside the mobile carrier platform

Also Published As

Publication number Publication date
JP6009894B2 (ja) 2016-10-19
CN104718750B (zh) 2018-03-16
CN104718750A (zh) 2015-06-17
US10171802B2 (en) 2019-01-01
DE112013004851B4 (de) 2019-05-09
JP2014074591A (ja) 2014-04-24
US20150254853A1 (en) 2015-09-10
WO2014054223A1 (ja) 2014-04-10

Similar Documents

Publication Publication Date Title
DE112013004851B4 (de) Kalibrierungsverfahren und Kalibrierungsvorrichtung
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE60301026T2 (de) System zur Untersuchung von stereoskopischen Bildmerkmalen
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
EP3166312B1 (de) Vorrichtung und verfahren zum justieren und/oder kalibrieren eines multi-kamera moduls sowie verwendung einer solchen vorrichtung
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE112014004506B4 (de) Fahrzeugumgebungsbildanzeigevorrichtung und Kameraeinstellverfahren
AT518895B1 (de) Biegemaschine mit einer Arbeitsbereich-Bilderfassungsvorrichtung
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102013108070A1 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE102006055758A1 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102011075703A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Projektionseinrichtung eines Fahrzeugs
DE102010039246A1 (de) Verfahren zum Kalibrieren eines Messsystems und Vorrichtung zum Durchführen des Verfahrens
DE102017121694A1 (de) Vorrichtung und Verfahren zum Erzeugen dreidimensionaler Daten und Überwachungssystem mit Vorrichtung zur Erzeugung dreidimensionaler Daten
DE102007043905A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer an einem Objekt angeordneten omnidirektionalen Kamera
DE112019004853T5 (de) Kalibrierungsverfahren für ein Bildverarbeitungssystem mit mehreren Freiheitsgraden
EP3900330B1 (de) Aufbau und vermessung eines aufbaus zur kalibrierung einer kamera
EP2691735B1 (de) System und verfahren zum kalibrieren eines referenzsystems zur fahrzeugvermessung
WO2005031647A1 (de) Verfahren und vorrichtung zur berührungslosen optischen 3d-lagebestimmung eines objekts
EP3707569B1 (de) Kalibrierung eines stationären kamerasystems zur positionserfassung eines mobilen roboters
DE102009035840B4 (de) Verfahren zum Positionieren und/oder Einstellen von Hochgeschwindigkeitskameras
DE102020215420A1 (de) Verfahren zum Kalibrieren mindestens einer Kamera
DE102018116245B4 (de) Programmiervorrichtung, die ein Betriebsprogramm erstellt, sowie Verfahren zur Programmerstellung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final