DE112015005317B4 - IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD - Google Patents

IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD Download PDF

Info

Publication number
DE112015005317B4
DE112015005317B4 DE112015005317.4T DE112015005317T DE112015005317B4 DE 112015005317 B4 DE112015005317 B4 DE 112015005317B4 DE 112015005317 T DE112015005317 T DE 112015005317T DE 112015005317 B4 DE112015005317 B4 DE 112015005317B4
Authority
DE
Germany
Prior art keywords
image
angle
vehicle
bird
vehicle camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112015005317.4T
Other languages
German (de)
Other versions
DE112015005317T5 (en
Inventor
Hitoshi Tanaka
Youji Morishita
Muneaki Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112015005317T5 publication Critical patent/DE112015005317T5/en
Application granted granted Critical
Publication of DE112015005317B4 publication Critical patent/DE112015005317B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Bildumwandlungsvorrichtung (10), welche ein aufgenommenes Bild von einer Fahrzeugkamera (2) erlangt, die die Umgebung eines Fahrzeugs (1) abbildet, das aufgenommene Bild in ein Bild aus Vogelperspektive umwandelt, welches eine Draufsicht von oben auf das Fahrzeug zeigt und das Bild aus Vogelperspektive auf einem fahrzeugseitigen Monitor (3) ausgibt, wobei die Bildumwandlungsvorrichtung aufweist:eine Bildumwandlungs-Einheit (12), welche das aufgenommene Bild auf Basis einer Position und eines Winkels der Fahrzeugkamera durch Bezugnahme auf eine Umwandlungstabelle in das Bild aus Vogelperspektive umwandelt, wobei die Umwandlungstabelle durch Berechnung, basierend auf der Position und dem Winkel der Fahrzeugkamera, von Pixelpositionen im aufgenommenen Bild erhalten wird, welche Pixelpositionen im Bild aus Vogelperspektive entsprechen;eine Merkmalspunkt-Extraktionseinheit (15), welche eine Vielzahl an Merkmalspunkten aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert;eine Berechnungsbestimmungs-Einheit (16), welche auf Basis einer Verteilung der Merkmalspunkte, die aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert werden, bestimmt, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind oder nicht;eine Berechnungs-Einheit (17), welche die Position und den Winkel der Fahrzeugkamera auf Basis der Merkmalspunkte berechnet, wenn die Berechnungsbestimmungs-Einheit bestimmt, dass die Position und der Winkel der Fahrzeugkamera zu berechnen sind;eine Veränderungsbetrag-Erlangungseinheit (18), welche durch Vergleichen der Position und des Winkels der Fahrzeugkamera, die durch die Berechnungs-Einheit neu berechnet werden, mit der vorherigen Position und dem vorherigen Winkel einen Veränderungsbetrag erlangt; undeine Umwandlungstabellen-Aktualisierungs-Einheit (19), welche, wenn der Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, die Umwandlungstabelle auf Basis der neu kalkulierten Position und dem neu kalkulierten Winkel der Fahrzeugkamera aktualisiert.An image converting device (10) which obtains a captured image from an in-vehicle camera (2) imaging the surroundings of a vehicle (1), converts the captured image into a bird's-eye view image showing a top view of the vehicle, and the image off outputs a bird's eye view on an on-vehicle monitor (3), the image converting device comprising:an image converting unit (12) which converts the captured image into the bird's eye view image based on a position and an angle of the vehicle camera by referring to a conversion table, wherein the conversion table obtained by calculating, based on the position and the angle of the vehicle camera, pixel positions in the captured image which correspond to pixel positions in the bird's-eye view image;a feature point extracting unit (15) extracting a plurality of feature points from the bird's-eye view image or from extrahi to the captured image ert;a calculation determination unit (16) which determines whether or not to calculate the position and the angle of the in-vehicle camera based on a distribution of the feature points extracted from the bird's-eye view image or the captured image;a calculation - a unit (17) which calculates the position and the angle of the in-vehicle camera based on the feature points when the calculation determination unit determines that the position and the angle of the in-vehicle camera are to be calculated;a change amount obtaining unit (18) which, by comparing the position and angle of the in-vehicle camera recalculated by the calculation unit with the previous position and angle acquires a change amount; anda conversion table updating unit (19) which, when the amount of change is equal to or smaller than a predetermined threshold amount of change, updates the conversion table based on the recalculated position and angle of the in-vehicle camera.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Erfindung bezieht sich auf eine Technologie zur Anpassung von Einstellungen, welche auf ein Fahrzeug angewandt wird, das eine Fahrzeugkamera aufweist, um ein von der Fahrzeugkamera erlangtes aufgenommenes Bild in ein Bild aus Vogelperspektive umzuwandeln.The present invention relates to a setting adjustment technology applied to a vehicle having an in-vehicle camera to convert a picked-up image obtained by the in-vehicle camera into a bird's-eye view image.

STAND DER TECHNIKSTATE OF THE ART

Verschiedene kommerzialisierte Technologien ermöglichen es einem Fahrer eines Fahrzeugs, die Umgebung des Fahrzeugs durch die Aufnahme eines Bildes von der Umgebung des Fahrzeugs mit einer Fahrzeugkamera und Anzeige des erhaltenen aufgenommenen Bildes auf einem fahrzeugseitigen Monitor zu betrachten. Weiterhin wandeln weit verbreitete Technologien das durch die Fahrzeugkamera erlangte aufgenommene Bild in ein Bild aus Vogelperspektive um und zeigen das Bild aus Vogelperspektive auf dem fahrzeugseitigen Monitor an, anstatt einfach das durch die Fahrzeugkamera erlangte aufgenommene Bild auf dem fahrzeugseitigen Monitor anzuzeigen. Das Bild aus Vogelperspektive bezieht sich auf ein Bild, welches durch Umwandlung des aufgenommenen Bildes in einer solchen Weise erhalten wird, dass es eine Draufsicht der Umgebung des Fahrzeugs zeigt. Wenn die Vogelperspektive durch akkurate Umwandlung erhalten wird, zeigt sie die aktuelle Positionsbeziehung zwischen dem Fahrzeug und beispielsweise einem Fremdfahrzeug oder einem Fußgänger. Folglich ermöglicht das Betrachten des erhaltenen Bildes aus Vogelperspektive dem Fahrer, die Umgebung des Fahrzeugs einfach und akkurat zu erfassen. Um das aufgenommene Bild in ein akkurates Bild aus Vogelperspektive umzuwandeln ist, es notwendig, die Position und den Winkel der Fahrzeugkamera akkurat zu erlangen.Various commercialized technologies enable a driver of a vehicle to view the surroundings of the vehicle by capturing an image of the surroundings of the vehicle with an in-vehicle camera and displaying the obtained captured image on an on-vehicle monitor. Furthermore, widespread technologies convert the picked-up image acquired by the in-vehicle camera into a bird's-eye view image and display the bird's-eye view image on the in-vehicle monitor instead of simply displaying the picked-up image acquired by the in-vehicle camera on the in-vehicle monitor. The bird's-eye view image refers to an image obtained by converting the captured image in such a manner as to show a plan view of the surroundings of the vehicle. When the bird's-eye view is obtained through accurate conversion, it shows the current positional relationship between the vehicle and, for example, another vehicle or a pedestrian. Consequently, viewing the obtained bird's-eye view image enables the driver to easily and accurately grasp the surroundings of the vehicle. In order to convert the captured image into an accurate bird's-eye view image, it is necessary to acquire the position and angle of the vehicle camera accurately.

Dementsprechend werden die Position und der Winkel der Fahrzeugkamera vor der werksseitigen Auslieferung des Fahrzeugs individuell gemessen, um die Fahrzeugkamera auf Basis der Konstruktionsanforderungen zu positionieren und auszurichten und den Einfluss von Montagefehlern zu reduzieren. Die Position und der Winkel der Fahrzeugkamera kann in nachfolgend beschriebener Weise berechnet werden. Zuerst wird eine Vielzahl an Merkmalspunkten aus dem von der Fahrzeugkamera erlangten aufgenommenen Bild extrahiert. Zweitens werden Koordinaten auf dem aufgenommenen Bild, auf welchem sich die Merkmalspunkte befinden, mit Koordinaten in einem aktuell erfassten Raum assoziiert. Drittens werden die Positionen der assoziierten Merkmalspunkte in einer relationalen Formel mit Variablen ersetzt, welche die Position und den Winkel der Fahrzeugkamera abbilden. Schließlich wird die resultierende relationale Formel gelöst, um die Position und den Winkel der Fahrzeugkamera zu berechnen.Accordingly, before the vehicle is shipped from the factory, the position and angle of the in-vehicle camera are individually measured to position and align the in-vehicle camera based on the design requirements and reduce the influence of assembly errors. The position and angle of the vehicle camera can be calculated in a manner described below. First, a plurality of feature points are extracted from the captured image obtained by the vehicle camera. Second, coordinates on the captured image on which the feature points are located are associated with coordinates in a currently captured space. Third, the positions of the associated feature points are replaced in a relational formula with variables that represent the position and angle of the vehicle's camera. Finally, the resulting relational formula is solved to calculate the position and angle of the vehicle camera.

Die Position und der Winkel der an dem Fahrzeug befestigten Fahrzeugkamera können nachträglich variieren, beispielsweise durch nach der werksseitigen Auslieferung gelockerte Befestigungselemente. Im Falle einer solchen unbeabsichtigten Variation unterscheiden sich die Position und der Winkel der Fahrzeugkamera von denen, die vor dem werksseitigen Versand eingestellt wurden. Eine Technologie, welche unter solchen Umständen vorgeschlagen wird, extrahiert Merkmalspunkte von einem während der Fahrt des Fahrzeugs aufgenommenen Bild und berechnet die Position und den Winkel der Fahrzeugkamera neu (siehe JP 2013 - 222 302 A ).The position and angle of the vehicle camera attached to the vehicle can subsequently vary, for example due to fastening elements that have become loose after delivery from the factory. In the event of such unintentional variation, the position and angle of the vehicle camera will be different from those set before factory shipment. A technology proposed under such circumstances extracts feature points from an image captured while the vehicle is running, and recalculates the position and angle of the vehicle camera (see JP 2013 - 222 302 A ).

Aus der US 2008 / 0 181 591 A1 sind eine Vorrichtung zum Schätzen einer Kamerahaltung und ein entsprechendes Verfahren bekannt. Die aus der US 2008 / 0 181 591 A1 bekannte Kamerahaltungsschätzvorrichtung weist auf: einen Generator, der konfiguriert ist, um Vogelperspektivansichtbilddaten zu erzeugen, indem er einen Standpunkt von erfassten Bilddaten, die von der Kamera erhalten wurden, auf der Grundlage eines Haltungsparameters transformiert, der die Haltung der Kamera anzeigt; einen Rechner, der konfiguriert ist, um eine Parallelität zwischen Linien in einem Vogelperspektivansichtbild zu berechnen, das durch die vom Generator erzeugten Vogelperspektivansichtbilddaten angezeigt wird; und einen Haltungsschätzer, der konfiguriert ist, um den Haltungsparameter aus der vom Rechner berechneten Parallelität zu schätzen.From the U.S. 2008/0 181 591 A1 a device for estimating a camera pose and a corresponding method are known. The ones from the U.S. 2008/0 181 591 A1 A known camera pose estimation apparatus comprises: a generator configured to generate bird's-eye view image data by transforming a viewpoint of captured image data obtained from the camera based on a pose parameter indicative of the pose of the camera; a calculator configured to calculate parallelism between lines in a bird's-eye view image indicated by the bird's-eye view image data generated by the generator; and a posture estimator configured to estimate the posture parameter from the parallelism calculated by the computer.

Die JP 2008 - 131 250 A bezieht sich auf eine Korrekturvorrichtung für eine Fahrzeugkamera, die US 2013 / 0 135 474 A1 lehrt ein Fahrzeugkamerasystem mit eigenem Kalibrierverfahren, und die US 2008 / 0 007 619 A1 betrifft eine Kalibriervorrichtung für eine Fahrzeugkamera, ein entsprechendes Programm sowie ein Fahrzeugnavigationssystem.the JP 2008 - 131 250 A relates to a correction device for a vehicle camera that U.S. 2013/0 135 474 A1 teaches a vehicle camera system with its own calibration method, and the U.S. 2008/0007619A1 relates to a calibration device for a vehicle camera, a corresponding program and a vehicle navigation system.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Dennoch erreicht die oben vorgeschlagene Technologie nicht immer eine ausreichende Genauigkeit, obwohl die Merkmalspunkte aus einem aufgenommenen Bild extrahiert werden, um die Position und den Winkel der Fahrzeugkamera in der gleichen Weise wie in einer Autowerkstatt zu berechnen.However, although the feature points are extracted from a captured image to calculate the position and angle of the vehicle camera in the same manner as in a car repair shop, the technology proposed above does not always achieve sufficient accuracy.

Es ist Aufgabe der vorliegenden Erfindung, eine Technologie bereitzustellen, um die Position und den Winkel einer Fahrzeugkamera akkurat zu berechnen und ein aufgenommenes Bild in ein akkurates Bild aus Vogelperspektive umzuwandeln, ohne ein Fahrzeug in eine Autowerkstatt bringen zu müssen.It is an object of the present invention to provide a technology for accurately calculating the position and angle of a vehicle camera and storing a captured image in a battery rates to convert a bird's-eye view image without having to take a vehicle to an auto repair shop.

Die Aufgabe wird jeweils durch eine Bildumwandlungsvorrichtung nach den Ansprüchen 1 und 3 sowie ein Bildumwandlungsverfahren nach dem Anspruch 6 gelöst. Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.The object is achieved by an image conversion device according to claims 1 and 3 and an image conversion method according to claim 6, respectively. Advantageous developments are the subject of the subclaims.

Die Merkmalspunkte können künstlich angeordnet werden, zum Beispiel in einer Autowerkstatt. Die Position und der Winkel der Fahrzeugkamera können durch Verwendung der Merkmalspunkte berechnet werden, welche eine zur Kalkulation der Position und des Winkels der Fahrzeugkamera geeignete Verteilung aufweisen. Wenn das Fahrzeug fährt, werden die Merkmalspunkte aus der aktuellen Umgebung innerhalb eines Bildgebungsbereichs extrahiert. Als Ergebnis sind Merkmalspunkte mit verschiedenen Verteilungen extrahiert. Während das Fahrzeug fährt, werden die für die Kalkulation der Position und des Winkels der Fahrzeugkamera geeigneten Merkmalspunkte nicht unbedingt extrahiert. Daher wird die Position und der Winkel der Fahrzeugkamera auch während der Fahrt des Fahrzeugs akkurat berechnet, solange die Position und der Winkel der Fahrzeugkamera berechnet sind, wobei die extrahierten Merkmalspunkte eine zur Kalkulation der Position und des Winkels der Fahrzeugkamera geeignete Verteilung aufweisen. Infolgedessen wird das aufgenommene Bild akkurat in ein Bild aus Vogelperspektive umgewandelt.The feature points can be arranged artificially, for example in a car repair shop. The position and the angle of the in-vehicle camera can be calculated by using the feature points having a distribution suitable for calculating the position and the angle of the in-vehicle camera. When the vehicle is running, the feature points are extracted from the current environment within an imaging area. As a result, feature points with various distributions are extracted. While the vehicle is running, the feature points suitable for calculating the position and angle of the vehicle camera are not necessarily extracted. Therefore, as long as the position and angle of the in-vehicle camera are calculated, the position and angle of the in-vehicle camera is accurately calculated even while the vehicle is running, and the extracted feature points have a distribution suitable for calculating the position and angle of the in-vehicle camera. As a result, the captured image is accurately converted to a bird's-eye view image.

Figurenlistecharacter list

Die obig ausgeführten sowie weitere Aspekte, Funktionen und Vorteile der vorliegenden Offenbarung ergeben sich aus der folgenden Beschreibung unter Bezugnahme auf die zugehörige Zeichnung. In der Zeichnung ist:

  • 1 ein Diagramm, welches ein Fahrzeug zeigt, in welchem eine Bildumwandlungsvorrichtung entsprechend einem Ausführungsbeispiel der vorliegenden Erfindung angeordnet ist;
  • 2 eine Reihe von schematischen Diagrammen, welche Prinzipien der Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive zeigen;
  • 3 eine Reihe von Diagrammen, welche zeigen, wie eine Umwandlungstabelle zur Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive verwendet wird;
  • 4 ein Blockdiagramm, welches die interne Struktur der Bildumwandlungsvorrichtung zeigt;
  • 5 ein Flussdiagramm, welches die erste Hälfte eines Umwandlungstabellen-Aktualisierungsprozesses zeigt, der durch die Bildumwandlungsvorrichtung ausgeführt wird;
  • 6 ein Flussdiagramm, welches die zweite Hälfte des Umwandlungstabellen-Aktualisierungsprozesses zeigt, der durch die Bildumwandlungsvorrichtung ausgeführt wird;
  • 7 eine Reihe von Diagrammen, welche konkrete Beispiele für Umgebungswerte zeigen, die an die Werte-Sensoren gegeben werden;
  • 8 eine Reihe von Diagrammen, welche zeigen, wie Merkmalspunkte aus dem aufgenommenen Bild und aus dem Bild aus Vogelperspektive extrahiert werden;
  • 9 eine Reihe von Diagrammen, welche zeigen, wie die Verteilungen der Merkmalspunkte bestätigt werden;
  • 10 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug in Nick-Richtung geneigt ist;
  • 11 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug in Roll-Richtung geneigt ist;
  • 12 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug nach unten abgesenkt ist; und
  • 13 ein Diagramm, welches die Auswahl einer Variablen aus dem Nick-Winkel, dem Roll-Winkel und der Vertikalstellung einer Fahrzeugkamera auf Basis der Verteilung von Merkmalspunkten zeigt.
The above and other aspects, features and advantages of the present disclosure will become apparent from the following description with reference to the accompanying drawings. In the drawing is:
  • 1 14 is a diagram showing a vehicle in which an image converting device according to an embodiment of the present invention is mounted;
  • 2 Fig. 12 is a series of schematic diagrams showing principles of converting a captured image into a bird's-eye view image;
  • 3 Fig. 12 is a series of diagrams showing how a conversion table is used to convert a captured image into a bird's-eye view image;
  • 4 Fig. 14 is a block diagram showing the internal structure of the image converting device;
  • 5 Fig. 14 is a flowchart showing the first half of a conversion table update process performed by the image conversion device;
  • 6 Fig. 14 is a flowchart showing the second half of the conversion table update process performed by the image conversion device;
  • 7 a series of charts showing concrete examples of environmental values given to the value sensors;
  • 8th a series of diagrams showing how feature points are extracted from the captured image and from the bird's-eye view image;
  • 9 a series of graphs showing how feature point distributions are confirmed;
  • 10 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is inclined in the pitch direction;
  • 11 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is inclined in the roll direction;
  • 12 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is lowered down; and
  • 13 Fig. 12 is a diagram showing selection of one of pitch angle, roll angle and vertical position of a vehicle camera based on feature point distribution.

AUSFÜHRUNGSBEISPIEL ZUR AUSFÜHRUNG DER ERFINDUNGEMBODIMENT FOR CARRYING OUT THE INVENTION

Nachfolgend wird ein Ausführungsbeispiel einer Bildumwandlungsvorrichtung gemäß der vorliegenden Erfindung beschrieben.An embodiment of an image converting apparatus according to the present invention will be described below.

A-1. Konfiguration der Vorrichtung gemäß dem vorliegenden AusführungsbeispielA-1. Configuration of the device according to the present embodiment

1 zeigt eine Umriss-Struktur eines Fahrzeugs 1, in welchem die Bildumwandlungsvorrichtung 10 angeordnet ist. Wie gezeigt, weist das Fahrzeug 1 nicht nur die Bildumwandlungsvorrichtung 10, sondern auch eine Fahrzeugkamera 2 und einen fahrzeugseitigen Monitor 3 auf. Die Fahrzeugkamera 2 ist vorne am Fahrzeug 1 angeordnet. Der fahrzeugseitige Monitor 3 ist vom Fahrersitz aus einsehbar. Das Fahrzeug 1 weist weiterhin einen Fahrzeuggeschwindigkeits-Sensor 41, einen Lenk-Sensor 42, Höhen-Sensoren 43a-43d, einen Solarstrahlungs-Sensor 44 und einen Regen-Sensor 45 auf. Der Fahrzeuggeschwindigkeits-Sensor 41 erlangt eine Fahrgeschwindigkeit des Fahrzeugs. Der Lenk-Sensor 42 erlangt einen Lenkwinkel. Die Höhen-Sensoren 43a-43d sind an den vier Ecken des Fahrzeugs 1 angeordnet, um eine vertikale Verschiebung festzustellen. Der Solarstrahlungs-Sensor 44 stellt die Sonnenlichtintensität fest. Der Regen-Sensor 45 stellt die Menge an Regentropfen fest. Die Sensoren ermitteln Informationen über die Umgebung des Fahrzeugs 1 oder den Status des Fahrzeugs 1 und versorgen die Bildumwandlungsvorrichtung mit den Ermittlungs-Informationen. Die Sensoren entsprechen einem Detektor. 1 Fig. 12 shows an outline structure of a vehicle 1 in which the image converting device 10 is mounted. As shown, the vehicle 1 has not only the image conversion device 10 but also an in-vehicle camera 2 and an in-vehicle monitor 3 . The vehicle camera 2 is arranged at the front of the vehicle 1 . The vehicle-side monitor 3 can be viewed from the driver's seat. The vehicle 1 further includes a vehicle speed sensor 41, a steering sensor 42, height sensors 43a-43d, a solar radiation sensor 44 and a rain sensor 45. the Vehicle speed sensor 41 acquires a running speed of the vehicle. The steering sensor 42 acquires a steering angle. The height sensors 43a-43d are arranged at the four corners of the vehicle 1 to detect vertical displacement. The solar radiation sensor 44 detects the sunlight intensity. The rain sensor 45 detects the amount of raindrops. The sensors detect information about the surroundings of the vehicle 1 or the status of the vehicle 1 and provide the image conversion device with the detection information. The sensors correspond to a detector.

Die Fahrzeugkamera 2 ist eine Weitwinkelkamera, welche ein Fischaugenobjektiv aufweist. Ein durch die Fahrzeugkamera 2 aufgenommenes Bild zeigt die vordere Umgebung des Fahrzeugs 1 einschließlich einer Fahrbahnoberfläche. Die Bildumwandlungsvorrichtung 10 erlangt ein aufgenommenes Bild von der Fahrzeugkamera 2, wandelt das aufgenommene Bild in ein Bild aus Vogelperspektive um und gibt das Bild aus Vogelperspektive auf dem fahrzeugseitigen Monitor 3 aus. Das aufgenommene Bild zeigt die Fahrbahnoberfläche. Somit zeigt das durch Umwandlung des aufgenommenen Bildes erhaltene Bild aus Vogelperspektive eine Draufsicht auf die Fahrbahnoberfläche vor dem Fahrzeug 1. Die Umwandlung des aufgenommenen Bildes in das Bild aus Vogelperspektive wird nachfolgend beschrieben.The vehicle camera 2 is a wide-angle camera that has a fisheye lens. An image captured by the vehicle camera 2 shows the front surroundings of the vehicle 1 including a road surface. The image converting device 10 acquires a captured image from the in-vehicle camera 2 , converts the captured image into a bird's-eye view image, and outputs the bird's-eye view image to the on-vehicle monitor 3 . The captured image shows the road surface. Thus, the bird's-eye view image obtained by converting the picked-up image shows a plan view of the road surface in front of the vehicle 1. The conversion of the picked-up image to the bird's-eye view image will be described below.

2 zeigt schematisch die Prinzipien der Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive. Wenn die Fahrzeugkamera 2 ein Bild von der Fahrbahnoberfläche 21 aufnimmt, zeigt das aufgenommene Bild 22 die Fahrbahnoberfläche 21 innerhalb eines Bildgebungsbereichs der Fahrzeugkamera 2 durch Projizierung der Fahrbahnoberfläche 21 auf eine Bildebene senkrecht zur Sichtlinie der Fahrzeugkamera 2, wie in 2(a) gezeigt. Wenn das aufgenommene Bild auf die Fahrbahnoberfläche projiziert wird, wobei das Licht einer Lichtquelle verwendet wird, welche an der Position der Fahrzeugkamera 2 angeordnet ist, wird durch Umkehr der obigen Projektionsbeziehung das projizierte Bild mit der tatsächlichen Fahrbahnoberfläche 21 übereinstimmen. 2 Fig. 12 schematically shows the principles of converting a captured image into a bird's-eye view image. When the vehicle camera 2 captures an image of the road surface 21, the captured image 22 shows the road surface 21 within an imaging range of the vehicle camera 2 by projecting the road surface 21 onto an image plane perpendicular to the line of sight of the vehicle camera 2, as in FIG 2(a) shown. When the captured image is projected onto the road surface using the light of a light source arranged at the position of the in-vehicle camera 2, by reversing the above projection relationship, the projected image will match the actual road surface 21.

Die auf dem aufgenommenen Bild gezeigte Fahrbahnoberfläche ist in 2(b) auf eine Fahrbahnoberflächen-Ebene 23 projiziert. Die Fahrbahnoberflächen-Ebene 23 ist eine Ebene, welche auf derselben Ebene wie die in 2(a) gezeigte Fahrbahnoberfläche 21 angeordnet ist. Somit kann die Fahrbahnoberflächen-Ebene 23 als Projektionsfläche betrachtet werden. Wenn ein Bild der Fahrbahnoberfläche in der Fahrbahnoberflächen-Ebene 23 gezeigt wird, welches durch eine virtuelle Kamera 24 aufgenommen wurde, die zur Aufnahme eines Bildes der Fahrbahnoberfläche in Draufsicht angeordnet ist, wird ein Bild aus Vogelperspektive 25 erhalten, welches die Draufsicht der Fahrbahnoberfläche vor der Fahrzeugkamera 2 zeigt.The road surface shown in the captured image is in 2 B) projected onto a road surface level 23 . The road surface plane 23 is a plane which is on the same plane as that in FIG 2(a) shown road surface 21 is arranged. Thus, the road surface level 23 can be considered as a projection surface. When an image of the road surface is displayed in the road surface plane 23 captured by a virtual camera 24 arranged to capture an image of the road surface in plan view, a bird's-eye view image 25 showing the plan view of the road surface in front of the Vehicle camera 2 shows.

Hinsichtlich der Beziehung zwischen dem Bildgebungsbereich und der Position und dem Winkel der Fahrzeugkamera 2 werden die Position und die Form eines trapezförmigen Bereichs der Fahrbahnoberfläche 21 auf Basis der Position und des Winkels der Fahrzeugkamera 2 als Bildgebungsbereich, welcher in 2(a) gezeigt ist, bestimmt. Um ein aufgenommenes Bild in ein Bild aus Vogelperspektive umzuwandeln, müssen die Position und der Winkel der Fahrzeugkamera 2 konstant bleiben, wenn soeben ein Bild aufgenommen wurde und wenn das aufgenommene Bild auf die virtuelle Fahrbahnoberfläche 23 (die Projektionsfläche) projiziert wird.Regarding the relationship between the imaging range and the position and the angle of the in-vehicle camera 2, the position and the shape of a trapezoidal area of the road surface 21 based on the position and the angle of the in-vehicle camera 2 are calculated as the imaging range shown in 2(a) is shown. In order to convert a captured image into a bird's-eye view image, the position and angle of the in-vehicle camera 2 must remain constant when an image has just been captured and when the captured image is projected onto the virtual road surface 23 (the projection screen).

Die Fahrzeugkamera 2 ist am Fahrzeug 1 angeordnet. Unter normalen Bedingungen kann daher die Position und der Winkel der Fahrzeugkamera 2 gegenüber der Fahrbahnoberfläche 21 als konstant angesehen werden. Dadurch weist die Bildumwandlungsvorrichtung 10 eine vorbereitete Umwandlungstabelle auf, welche durch die Berechnung der Projektionsbeziehung unter zuvor festgelegten Bedingungen, dass die Position und der Winkel der Fahrzeugkamera 2 konstant sind, erhalten wird. Die Projektionsbeziehung ist so, wie unter Bezugnahme auf 2 beschrieben. Die Umwandlungstabelle wird referenziert, wenn ein aufgenommenes Bild in ein Bild aus Vogelperspektive umgewandelt werden soll, wobei die Prozessverarbeitungslast reduziert wird durch Eliminierung der Notwendigkeit einer Kalkulation der oben genannten Projektionsbeziehung bei jeder Bildaufnahme.The vehicle camera 2 is arranged on the vehicle 1 . Therefore, under normal conditions, the position and the angle of the vehicle camera 2 with respect to the road surface 21 can be regarded as constant. Thereby, the image conversion device 10 has a conversion table prepared, which is obtained by calculating the projection relationship under predetermined conditions that the position and the angle of the in-vehicle camera 2 are constant. The projection relationship is as with reference to 2 described. The conversion table is referred to when a captured image is to be converted into a bird's-eye view image, thereby reducing the processing load by eliminating the need for calculation of the above-mentioned projection relationship every image capture.

3 zeigt, wie die Umwandlungstabelle zur Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive referenziert wird. Die Umwandlungstabelle weist Daten auf, welche die Beziehung zwischen den Pixelpositionen des Bildes aus Vogelperspektive und den Pixelpositionen des aufgenommenen Bildes darstellen. Beispielsweise assoziiert die Umwandlungstabelle Pixel, welche an den Koordinaten (Xe, Yf) des Bildes aus Vogelperspektive in 3(b) liegen mit Pixeln, welche an den Koordinaten (Ag, Bh) des aufgenommenen Bildes in 3(a) liegen. Dementsprechend werden die Bilddaten (Helligkeit, Sättigung, etc.) eines Pixels, welches an den Koordinaten (Ag, Bh) des aufgenommenen Bildes liegt, auf ein Pixel angewandt, welches an den Koordinaten (Xe, Yf) des Bildes aus Vogelperspektive liegt. Wenn die Umwandlungstabelle in Bezug auf jedes Pixel des Bildes aus Vogelperspektive referenziert ist, kann das aufgenommene Bild in das Bild aus Vogelperspektive umgewandelt werden. 3 shows how to reference the conversion table for converting a captured image to a bird's-eye view image. The conversion table has data representing the relationship between the pixel positions of the bird's-eye view image and the pixel positions of the captured image. For example, the conversion table associates pixels located at the coordinates (Xe, Yf) of the bird's-eye view image in 3(b) lie with pixels located at the coordinates (Ag, Bh) of the captured image in 3(a) lie. Accordingly, the image data (brightness, saturation, etc.) of a pixel located at the coordinates (Ag, Bh) of the picked-up image is applied to a pixel located at the coordinates (Xe, Yf) of the bird's-eye view image. When the conversion table is referenced with respect to each pixel of the bird's-eye view image, the captured image can be converted into the bird's-eye view image.

Wie oben beschrieben wird die Umwandlungstabelle auf Basis der Position und des Winkels der Fahrzeugkamera 2 vorbereitet. Daher ist die Bildumwandlungsvorrichtung 10 nicht nur zur Umwandlung des aufgenommenen Bildes in das Bild aus Vogelperspektive in der Lage, sondern ebenso zur Neuberechnung der Position und des Winkels der Fahrzeugkamera 2 und zur Aktualisierung der Umwandlungstabelle auf Basis der neu berechneten Position und des Winkels.As described above, the conversion table is prepared based on the position and the angle of the in-vehicle camera 2 . Therefore, the image conversion device 10 is capable of not only converting the captured image into the bird's-eye view image but also recalculating the position and angle of the in-vehicle camera 2 and updating the conversion table based on the recalculated position and angle.

4 zeigt eine interne Struktur der Bildumwandlungsvorrichtung 10. Wie abgebildet, weist die Bildumwandlungsvorrichtung 10 eine Aufgenommenes-Bild-Erlangungseinheit 11, eine Bildumwandlungs-Einheit 12 und eine Anzeige-Einheit 13 auf. Die Aufgenommenes-Bild-Erlangungseinheit 11 erlangt ein aufgenommenes Bild von der Fahrzeugkamera 2. Die Bildumwandlungs-Einheit 12 referenziert die Umwandlungstabelle und wandelt das aufgenommene Bild in ein Bild aus Vogelperspektive um, wie zuvor beschrieben. Die Anzeige-Einheit 13 gibt das Bild aus Vogelperspektive auf dem fahrzeugseitigen Monitor 3 aus. 4 12 shows an internal structure of the image converting device 10. As shown, the image converting device 10 has a captured image acquiring unit 11, an image converting unit 12, and a display unit 13. FIG. The captured image acquiring unit 11 acquires a captured image from the in-vehicle camera 2. The image converting unit 12 refers to the conversion table and converts the captured image into a bird's-eye view image as described above. The display unit 13 outputs the bird's-eye view image on the vehicle-side monitor 3 .

Um die Position und den Winkel der Fahrzeugkamera 2 zu berechnen und die Umwandlungstabelle zu aktualisieren, weist die Bildumwandlungsvorrichtung 10 weiterhin eine Werte-Auswertungs-Einheit 14, eine Merkmalspunkt-Extraktionseinheit 15, eine Berechnungsbestimmungs-Einheit 16, eine Berechnungs-Einheit 17, eine Veränderungsbetrag-Erlangungseinheit 18 und eine Umwandlungstabellen-Aktualisierungs-Einheit 19 auf.In order to calculate the position and angle of the in-vehicle camera 2 and update the conversion table, the image conversion device 10 further includes a value evaluation unit 14, a feature point extraction unit 15, a calculation determination unit 16, a calculation unit 17, a change amount acquisition unit 18 and a conversion table update unit 19.

Die Werte-Auswertungs-Einheit 14 erlangt die Ermittlungs-Informationen, welche durch die Sensoren, die das Fahrzeug 1 aufweist, erlangt wurden, und zwar von dem Fahrzeuggeschwindigkeits-Sensor 41, dem Lenk-Sensor 42, den Höhen-Sensoren 43a-43d, dem Solarstrahlungs-Sensor 44 und dem Regen-Sensor 45. Diese Sensoren werden folgend allgemein als Werte-Sensoren 4 bezeichnet. Die Werte-Auswertungs-Einheit 14 gibt auf Basis der von jedem der Werte-Sensoren 4 erlangten Informationen einen Wert an und wertet diese Punktezahl in umfassender Art und Weise aus. Die Auswertung der Werte wird später ausführlich beschrieben. In Kürze: Die Auswertung der Werte erfolgt durch Wertung der Informationen über die Umgebung des Fahrzeugs 1 oder den Zustand des Fahrzeugs 1 und bestimmt, ob die aktuelle Situation zur Merkmalspunkt-Extraktion geeignet ist. Merkmalspunkte haben Auffälligkeiten innerhalb eines aufgenommenen Bildes einer Szene und können von anderen Punkten unterschieden werden. Weiterhin sind die Merkmalspunkte so, dass ihre Koordinaten innerhalb eines aufgenommenen Bildes oder eines Bildes aus Vogelperspektive, welche die Szene zeigen, identifiziert werden können. Die Merkmalspunkte werden extrahiert, um die Lage und den Winkel der Fahrzeugkamera 2 zu berechnen.The value evaluation unit 14 obtains the detection information obtained by the sensors that the vehicle 1 has, namely the vehicle speed sensor 41, the steering sensor 42, the height sensors 43a-43d, the solar radiation sensor 44 and the rain sensor 45. These sensors are generally referred to as value sensors 4 in the following. The value evaluation unit 14 indicates a value based on the information obtained from each of the value sensors 4 and evaluates this number of points in a comprehensive manner. The evaluation of the values will be described later in detail. In short: The values are evaluated by evaluating the information about the environment of the vehicle 1 or the state of the vehicle 1 and determines whether the current situation is suitable for feature point extraction. Feature points have distinctive features within a captured image of a scene and can be distinguished from other points. Furthermore, the feature points are such that their coordinates can be identified within a captured image or a bird's-eye view image showing the scene. The feature points are extracted to calculate the location and angle of the vehicle camera 2.

Die Werte-Auswertungs-Einheit 14 bestimmt, ob die Merkmalspunkte wie oben beschrieben extrahiert werden oder nicht und entspricht somit einer Extraktions-Bestimmungs-Einheit.The value evaluation unit 14 determines whether or not the feature points are extracted as described above, and thus corresponds to an extraction determination unit.

Die Merkmalspunkt-Extraktionseinheit 15 extrahiert eine Vielzahl an Merkmalspunkten aus einem aufgenommenen Bild oder aus einem Bild aus Vogelperspektive, um die Position und den Winkel der Fahrzeugkamera 2 zu berechnen.The feature point extraction unit 15 extracts a plurality of feature points from a captured image or from a bird's-eye view image to calculate the position and the angle of the in-vehicle camera 2 .

Die Berechnungsbestimmungs-Einheit 16 bestätigt die Verteilung der Merkmalspunkte und bestimmt auf Basis von Informationen, welche die Weite der bestätigten Verteilung angeben, ob die Position und der Winkel der Fahrzeugkamera 2 zu berechnen sind oder nicht.The calculation determination unit 16 confirms the distribution of the feature points and determines whether or not to calculate the position and the angle of the in-vehicle camera 2 based on information indicating the width of the confirmed distribution.

Die Berechnungs-Einheit 17 berechnet die Position und den Winkel der Fahrzeugkamera 2 basierend auf den extrahierten Merkmalspunkten. Die Position und der Winkel der Fahrzeugkamera 2 werden berechnet durch Verwendung der Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten, welche aus einem aufgenommenen Bild oder aus einem Bild aus Vogelperspektive extrahiert sind, mit der Positionsbeziehung zwischen einer Vielzahl von Merkmalspunkten aus einem aktuell aufgenommenen Bild einer Szene. Ein Verfahren zur Berechnung der Position und des Winkels der Fahrzeugkamera 2 ist bekannt und wird nicht im Detail beschrieben.The calculation unit 17 calculates the position and angle of the in-vehicle camera 2 based on the extracted feature points. The position and the angle of the in-vehicle camera 2 are calculated by using the correspondence of the positional relationship between a plurality of feature points extracted from a captured image or a bird's-eye view image and the positional relationship between a plurality of feature points from a currently captured image Scene. A method of calculating the position and the angle of the vehicle camera 2 is known and will not be described in detail.

Die Veränderungsbetrag-Erlangungseinheit 18 erlangt einen Veränderungsbetrag durch Vergleichen der Position und des Winkels, welche von der Berechnungs-Einheit neu berechnet wurden, mit der vorherigen Position und dem Winkel.The change amount obtaining unit 18 obtains a change amount by comparing the position and angle newly calculated by the calculation unit with the previous position and angle.

Wenn der durch die Veränderungsbetrag-Erlangungseinheit 18 erlangte Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, aktualisiert die Umwandlungstabellen-Aktualisierungs-Einheit 19 die Umwandlungstabelle auf Basis der neu berechneten Position und des Winkels der Fahrzeugkamera 2. Nach der Aktualisierung der Umwandlungstabelle wandelt die Bildumwandlungs-Einheit 12 unter Bezugnahme auf die aktualisierte Umwandlungstabelle ein aufgenommenes Bild in ein Bild aus Vogelperspektive um.When the change amount obtained by the change amount obtaining unit 18 is equal to or smaller than a predetermined threshold change amount, the conversion table updating unit 19 updates the conversion table based on the recalculated position and angle of the in-vehicle camera 2. After updating the conversion table For example, the image converting unit 12 converts a captured image into a bird's-eye view image by referring to the updated conversion table.

Die neun Einheiten, angefangen von der Aufgenommenes-Bild-Erlangungseinheit 11 bis zur Umwandlungstabellen-Aktualisierungs-Einheit 19 sind Konzepte, welche entsprechend der in der Bildumwandlungsvorrichtung enthaltenen Funktionalitäten klassifiziert sind. Somit sagen die neun Einheiten nicht aus, dass die Bildumwandlungsvorrichtung 10 physisch in neun Einheiten geteilt ist. Die Einheiten sind durch ein ausführbares Computerprogramm implementiert, welches durch eine CPU, durch eine elektronische Schaltung mit einem LSI-Baustein und einem Speicher oder durch eine Kombination daraus ausführbar ist. Ein Umwandlungstabellen-Aktualisierungsprozess, welcher unter Verwendung der neun Einheiten ausgeführt wird, wird im Folgenden detailliert beschrieben.The nine units from the captured image acquiring unit 11 to the conversion table updating unit 19 are concepts which correspond to the one shown in Fig conversion device contained functionalities are classified. Thus, the nine units do not imply that the image conversion device 10 is physically divided into nine units. The units are implemented by an executable computer program executable by a CPU, an electronic circuit having an LSI and a memory, or a combination thereof. A conversion table update process executed using the nine units will be described in detail below.

A-2. Generierungsprozess des Bildes aus VogelperspektiveA-2. Bird's-eye view image generation process

Die 5 und 6 sind Flussdiagramme, welche den durch die Bildumwandlungsvorrichtung 10 ausgeführten Umwandlungstabellen-Aktualisierungsprozess entsprechend dem vorliegenden Ausführungsbeispiel zeigen. Der Umwandlungstabellen-Aktualisierungsprozess wird zur Aktualisierung der Umwandlung ausgeführt, welche zur Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive verwendet wird und wird getrennt von einem Umwandlungsprozess zur Anzeige eines Bildes aus Vogelperspektive auf dem fahrzeugseitigen Monitor 3 ausgeführt. Der Umwandlungsprozess für das Bild aus Vogelperspektive wird wiederholt in Intervallen entsprechend dem Bildaufnahmezyklus (z. B. 30 Hz) der Fahrzeugkamera 2 ausgeführt. Jedoch kann der nachstehend beschriebene Umwandlungstabellen-Aktualisierungsprozess auch in den gleichen Intervallen wie der Umwandlungsprozess für das Bild aus Vogelperspektive oder in anderen geeigneten Intervallen (z. B. in 10 Minuten Intervallen) ausgeführt werden.the 5 and 6 12 are flowcharts showing the conversion table update process executed by the image conversion device 10 according to the present embodiment. The conversion table update process is performed to update the conversion used to convert a captured image into a bird's-eye view image, and is performed separately from a conversion process for displaying a bird's-eye view image on the on-vehicle monitor 3 . The bird's-eye view image conversion process is repeatedly executed at intervals corresponding to the image pickup cycle (e.g., 30 Hz) of the in-vehicle camera 2 . However, the conversion table updating process described below may be executed at the same intervals as the bird's-eye view image conversion process or at other suitable intervals (e.g., at 10-minute intervals).

Der Umwandlungstabellen-Aktualisierungsprozess wird durch die Berechnung der Umgebungswerte gestartet (S101). Die Umgebungswerte sind Indizes, welche zur Evaluierung der Umgebung des Fahrzeugs 1 und dem Zustand des Fahrzeugs 1 durch Bewertung der durch die Werte-Sensoren 4 festgestellten Informationen verwendet werden.The conversion table update process is started by calculating the environmental values (S101). The environmental values are indexes used for evaluating the surroundings of the vehicle 1 and the condition of the vehicle 1 by evaluating the information detected by the value sensors 4 .

7 zeigt konkrete Beispiele der Umgebungswerte. Wie in 7(a) gezeigt, werden die von den Werte-Sensoren 4 erlangten Umgebungswerte an die Ermittlungs-Informationen gegeben, und zwar von dem Fahrzeuggeschwindigkeits-Sensor 41, dem Lenk-Sensor 42, den Höhen-Sensoren 43a-43d, dem Solarstrahlungs-Sensor 44 und dem Regen-Sensor 45. Die hierzu handhabenden Ermittlungs-Informationen sind in numerische Werte umgewandelt. Somit sind die Umgebungswerte auf Basis der Größe des numerischen Wertes gegeben. Die von den Werte-Sensoren 4 erlangten Umgebungswerte, welche an die Ermittlungs-Informationen gegeben wurden, werden mit den Werte-Zeichen S1 bis S5 benannt, welche jeweils den Fahrzeuggeschwindigkeits-Sensor 41, den Lenk-Sensor 42, die Höhen-Sensoren 43a-43d, den Solarstrahlungs-Sensor 44 und den Regen-Sensor 45 bezeichnen. 7 shows concrete examples of the environmental values. As in 7(a) 1, the environmental values obtained by the value sensors 4 are given to the detection information of the vehicle speed sensor 41, the steering sensor 42, the height sensors 43a-43d, the solar irradiance sensor 44 and the rain - Sensor 45. The detection information related thereto is converted into numeric values. Thus, the environmental values are given based on the magnitude of the numeric value. The environmental values obtained from the value sensors 4, which have been given to the detection information, are denoted by the value signs S1 to S5, which respectively indicate the vehicle speed sensor 41, the steering sensor 42, the height sensors 43a- 43d, the solar radiation sensor 44 and the rain sensor 45 denote.

Ein Verfahren zur Bereitstellung eines Umgebungswertes für die Ermittlungs-Informationen, welcher beispielsweise vom Fahrzeuggeschwindigkeits-Sensor 41 erlangt wurde, wird nun beschrieben. Die vom Fahrzeuggeschwindigkeits-Sensor 41 erlangte Ermittlungs-Information ist die Fahrgeschwindigkeit des Fahrzeugs 1. Daher nimmt der Umgebungswert S1 mit Erhöhung der Fahrgeschwindigkeit ab. 7(b) zeigt einen Fall, in dem der Umgebungswert S1 gegeben ist. Wie in dem Bespiel angegeben, ist der Umgebungswert S1 100 bei einer Fahrzeuggeschwindigkeit von 0 bis 20 (km/h), 80 bei einer Fahrzeuggeschwindigkeit von 20 bis 80 (km/h) und 60 bei einer Fahrzeuggeschwindigkeit von 80 (km/h) oder höher. Der Umgebungswert S1 nimmt mit Erhöhung der Fahrzeuggeschwindigkeit ab, weil die Erhöhung der Fahrzeuggeschwindigkeit tendenziell ein aufgenommenes Bild eines Gegenstandes verwischt und die Genauigkeit der Merkmalspunkt-Extraktion nachteilig beeinflusst.A method of providing an environmental value for the determination information obtained from the vehicle speed sensor 41, for example, will now be described. The detection information obtained from the vehicle speed sensor 41 is the running speed of the vehicle 1. Therefore, the surrounding value S1 decreases as the running speed increases. 7(b) shows a case where the environmental value S1 is given. As indicated in the example, the environmental value S1 is 100 at a vehicle speed of 0 to 20 (km/h), 80 at a vehicle speed of 20 to 80 (km/h), and 60 at a vehicle speed of 80 (km/h) or higher. The surrounding value S1 decreases as the vehicle speed increases because the increase in vehicle speed tends to blur a captured image of a subject and adversely affects the accuracy of feature point extraction.

Für andere der Werte-Sensoren 4 als dem Fahrzeuggeschwindigkeits-Sensor 41, und zwar dem Lenk-Sensor 42, den Höhen-Sensoren 43a-43d, dem Solarstrahlungs-Sensor 44 und dem Regen-Sensor 45 sind die Umgebungswerte individuell auf gleiche Art und Weise gegeben wie für den Fahrzeuggeschwindigkeits-Sensor 41.For the value sensors 4 other than the vehicle speed sensor 41, namely the steering sensor 42, the height sensors 43a-43d, the solar radiation sensor 44 and the rain sensor 45, the environmental values are individually in the same manner given as for the vehicle speed sensor 41.

Der Lenk-Sensor 42 ermittelt den Betrag der Lenkwinkelverschiebung pro Zeiteinheit. Der Umgebungswert S2 sinkt mit Erhöhung des Betrags der Lenkwinkelverschiebung. Der Grund dafür ist, dass wenn der Betrag der Lenkwinkelverschiebung groß ist, das Fahrzeug 1 auf Grund einer Laständerung kippt, zum Nachteil der Merkmalspunkt-Extraktion.The steering sensor 42 determines the amount of the steering angle shift per unit of time. The environmental value S2 decreases as the amount of steering angle displacement increases. This is because when the amount of steering angle shift is large, the vehicle 1 tilts due to a load change, to the detriment of feature point extraction.

Die Höhen-Sensoren 43a-43d ermitteln den Verschiebungsbetrag der Neigung des Fahrzeugs 1 pro Zeiteinheit durch Ermittlung der vertikalen Verschiebungsbeträge vorne, hinten, links und rechts am Fahrzeug 1. Wenn das Fahrzeug 1 kippt, sinkt der Umgebungswert S2 mit Erhöhung des Verschiebungsbetrags, wie dies bei Umgebungswert S2 der Fall ist.The height sensors 43a-43d detect the displacement amount of the inclination of the vehicle 1 per unit time by detecting the vertical displacement amounts in front, rear, left and right of the vehicle 1. When the vehicle 1 tilts, the surrounding value S2 decreases as the displacement amount increases like this is the case with ambient value S2.

Der Umgebungswert S4, welcher einem durch den Solarstrahlungs-Sensor 44 ermittelten Solarstrahlungsmenge zuzuordnen ist, sinkt, wenn die Solarstrahlungsmenge abnimmt. Der Grund dafür ist, dass das aufgenommene Bild einer Szene dunkler wird, wenn die Solarstrahlungsmenge abnimmt. Wenn das aufgenommene Bild dunkel ist, ist es sehr wahrscheinlich, dass der Unterschied in seinem Helligkeitswert klein wird. Somit ist die Genauigkeit der Merkmalspunkt-Extraktion gering.The ambient value S4, which is to be assigned to an amount of solar radiation determined by the solar radiation sensor 44, falls when the amount of solar radiation decreases. This is because the captured image of a scene becomes darker as the amount of solar radiation decreases. If the captured image is dark, it is very likely that the difference in its brightness value becomes small. Thus, the accuracy of the feature point extraction is low.

Der Umgebungswert S5, welcher einem durch den Regen-Sensor 45 ermittelten Regen zuzuordnen ist, nimmt mit der Zunahme des Regenfalls ab. Der Grund dafür ist, dass ein aufgenommenes Bild wahrscheinlich verschwommen wird, wenn der Niederschlag zunimmt. Wenn das aufgenommene Bild verschwommen ist, ist die Genauigkeit der Merkmalspunkt-Extraktion gering.The environmental value S5, which is to be assigned to rain detected by the rain sensor 45, decreases as the rainfall increases. This is because a captured image is likely to become blurry as precipitation increases. If the captured image is blurry, the accuracy of feature point extraction will be low.

Nach dem die Umgebungswerte S1 - S5 individuell den durch den Fahrzeuggeschwindigkeits-Sensor 41, den Lenk-Sensor 42, die Höhen-Sensoren 43a-43d, den Solarstrahlungs-Sensor 44 und den Regen-Sensor 45 erlangten Ermittlungs-Informationen zugeordnet sind, wird ein Gesamt-Umgebungswert S berechnet, wie in 7(c) gezeigt.After the environmental values S1 - S5 are individually associated with the detection information obtained by the vehicle speed sensor 41, the steering sensor 42, the height sensors 43a-43d, the solar radiation sensor 44 and the rain sensor 45, a Total Ambient Value S calculated as in 7(c) shown.

In 7(c) ist der Gesamt-Umgebungswert S die Summe der Umgebungswerte S1 bis S5. Es kann jedoch ein alternatives Berechnungsverfahren angewandt werden, soweit die von den Werte-Sensoren 4 ermittelten Informationen berücksichtigt werden. Wenn festgestellt wird, dass die Fahrzeuggeschwindigkeit einen größeren Einfluss ausübt als die anderen Teile der Ermittlungs-Informationen, kann ein besonderer Fokus auf die Bewertung des Umgebungswerts S1 gelegt werden.In 7(c) the overall environmental value S is the sum of the environmental values S1 to S5. However, an alternative calculation method can be used as long as the information determined by the value sensors 4 is taken into account. If it is determined that the vehicle speed exerts a greater influence than the other pieces of determination information, a special focus can be placed on the judgment of the surrounding value S1.

Außerdem können andere Sensoren als Werte-Sensoren 4 zusätzlich oder anstelle von den oben beschriebenen Sensoren verwendet werden. Ein Umgebungswert kann gegeben werden, indem einem Gyrosensor erlaubt wird die Neigung des Fahrzeugs 1, basierend auf der gleichen Idee wie der Umgebungswert S3, zu ermitteln. Außerdem kann ein Umgebungswert zur Ermittlung des Niederschlags durch ein Scheibenwischersignal gegeben werden, basierend auf der gleichen Idee wie der Umgebungswert S5. Des Weiteren kann die Fahrgeschwindigkeit und die Neigungsstärke des Fahrzeugs 1 von Verkehrs- und Straßeninformationen vorhergesagt werden, welche durch ein Fahrzeugnavigationssystem erlangt wurden, um einen Umgebungswert unter Berücksichtigung solcher vorhergesagten Informationen zu berechnen.Also, sensors other than value sensors 4 may be used in addition to or in place of the sensors described above. An environmental value can be given by allowing a gyro sensor to detect the inclination of the vehicle 1 based on the same idea as the environmental value S3. In addition, an environmental value for detecting precipitation can be given by a wiper signal based on the same idea as the environmental value S5. Furthermore, the running speed and the inclination degree of the vehicle 1 can be predicted from traffic and road information obtained by a car navigation system to calculate an environmental value considering such predicted information.

Wie oben beschrieben, werden die Umgebungswerte als Indizes zur Evaluierung der umgebenden Umwelt, wie Wetterunterschiede und Umgebungshelligkeit des Fahrzeugs 1 oder zur Evaluierung des Zustands des Fahrzeug 1, wie Stellungsveränderungen und Vibration genutzt. Wenn die Umgebungswerte hoch sind, ist es sehr wahrscheinlich, dass durch die Verringerung des Einflusses von Störungen, welche durch die umgebende Umwelt und den Zustand des Fahrzeugs verursacht werden, klar aufgenommene Bilder erhalten werden. Eine Situation, in welcher klar aufgenommene Bilder erhalten werden, eignet sich zur Merkmalspunkt-Extraktion.As described above, the environmental values are used as indexes for evaluating the surrounding environment such as weather differences and surrounding brightness of the vehicle 1, or for evaluating the state of the vehicle 1 such as posture changes and vibration. When the surrounding values are high, clear captured images are highly likely to be obtained by reducing the influence of noise caused by the surrounding environment and the state of the vehicle. A situation in which clearly captured images are obtained is suitable for feature point extraction.

Nachdem der Umgebungswert wie oben beschrieben berechnet wurde (S101), wird bestimmt, ob der Umgebungswert gleich oder größer als ein zuvor festgelegter Schwellenwert ist (S102). Der oben genannte Gesamt-Umgebungswert S ist ausgelegt für die Bestimmung und der Wert des Schwellenwertes zur Bestimmung kann wie gewünscht vorgegeben werden. Wenn bestimmt wird, ob der Gesamt-Umgebungswert S gleich oder größer als der zuvor festgelegte Schwellenwert ist, können die umgebende Umwelt des Fahrzeugs 1 und der Zustand des Fahrzeugs 1 in einer umfassenden Weise aus den Ermittlungs-Informationen, welche von den verschiedenen Werte-Sensoren 4 erlangt wurden, ausgewertet werden, um zu bestimmen, ob die aktuelle Situation zur Merkmalspunkt-Extraktion geeignet ist. Jedoch ist das Verfahren der Umgebungsbewertung nicht auf das oben beschriebene beschränkt. Wenn die Anzahl der Umgebungswerte die vordefinierten Kriterien der Umgebungswerte S1 bis S5 nicht erfüllt, kann bestimmt werden, dass die aktuelle Situation nicht für die Merkmalspunkt-Extraktion geeignet ist.After the environmental value is calculated as described above (S101), it is determined whether the environmental value is equal to or greater than a predetermined threshold (S102). The above overall environmental value S is designed for determination, and the value of the threshold value for determination can be set as desired. When it is determined whether the total surrounding value S is equal to or greater than the predetermined threshold value, the surrounding environment of the vehicle 1 and the state of the vehicle 1 can be comprehensively known from the detection information obtained from the various value sensors 4 were obtained can be evaluated to determine whether the current situation is suitable for feature point extraction. However, the method of evaluating the environment is not limited to the one described above. If the number of surrounding values does not meet the predefined criteria of surrounding values S1 to S5, it can be determined that the current situation is not suitable for feature point extraction.

Wenn bestimmt wird, dass der Umgebungswert nicht mit dem zuvor festgelegten Schwellenwert übereinstimmt (S102: NEIN), endet der Umwandlungstabellen-Aktualisierungsprozess (6).When it is determined that the environmental value does not match the predetermined threshold (S102: NO), the conversion table update process ( 6 ).

Im Gegensatz dazu, wenn bestimmt wird, dass der Umgebungswert gleich oder größer als ein zuvor festgelegter Schwellenwert ist (S102: JA), werden Merkmalspunkte extrahiert. Im vorliegenden Ausführungsbeispiel wird ein aufgenommenes Bild erlangt (S103), dann wird das aufgenommene Bild in ein Bild aus Vogelperspektive umgewandelt (S104) und Merkmalspunkte extrahiert (S105).In contrast, when it is determined that the surrounding value is equal to or greater than a predetermined threshold (S102: YES), feature points are extracted. In the present embodiment, a captured image is acquired (S103), then the captured image is converted into a bird's-eye view image (S104), and feature points are extracted (S105).

8 zeigt, wie eine Vielzahl von Merkmalspunkten aus einem aufgenommenen Bild und aus einem Bild aus Vogelperspektive extrahiert wird. Wie bereits erwähnt, weisen die Merkmalspunkte Auffälligkeiten innerhalb eines aufgenommenen Bildes einer Szene auf und können von anderen Punkten unterschieden werden. Außerdem sind die Merkmalspunkte so, dass ihre Koordinaten in einem aufgenommenen Bild oder einem Bild aus Vogelperspektive, welches die Szene zeigt, festgestellt werden können. Ein typischer Merkmalspunkt wäre ein Eckpunkt, an dem sich eine gerade Linie mit einer geraden Linie kreuzt. Jedoch kann der Merkmalspunkt auch aus der Grenze einer geraden Linie extrahiert werden. Beispielsweise kann der Merkmalspunkt aus Straßenmarkierungen extrahiert werden, wie den Fahrbahnmarkierungen, Fußgängerüberwegs-Markierungen und Stopp-Linien-Markierungen, weil es einen signifikanten Helligkeitswertunterschied an der Grenze zwischen solch einer Markierung und einem freiliegenden Asphaltteil gibt. 8th Fig. 12 shows how a plurality of feature points are extracted from a captured image and from a bird's-eye view image. As already mentioned, the feature points have anomalies within a captured image of a scene and can be distinguished from other points. In addition, the feature points are such that their coordinates can be ascertained in a captured image or a bird's-eye view image showing the scene. A typical feature point would be a corner point where a straight line intersects with a straight line. However, the feature point can also be extracted from the boundary of a straight line. For example, the feature point can be extracted from road markings such as lane markings, pedestrian crossing markings, and stop line markings gene because there is a significant difference in brightness value at the boundary between such a marking and an exposed piece of asphalt.

Schwarze Punkte in den 8(a) und (b) geben eine Stelle an, an der ein Merkmalspunkt extrahiert wird. Wie bereits erwähnt, werden Merkmalspunkte extrahiert, um die Position und den Winkel der Fahrzeugkamera 2 zu berechnen. Weiterhin werden die Position und der Winkel der Fahrzeugkamera 2 berechnet unter Verwendung der Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten, welche aus einem Bild extrahiert sind mit der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten auf einem aktuell aufgenommenen Bild der Szene. Die Übereinstimmung kann beispielsweise durch Extraktion der Merkmalspunkte aus einem Ziel verwendet werden, welches eine bekannte Form aufweist und im aktuell aufgenommenen Bild der Szene gezeigt wird. In 8 werden die Merkmalspunkte aus den Fahrbahnmarkierungen auf der linken und rechten Seite des Fahrzeugs 1 und aus der japanischen Straßenmarkierung

Figure DE112015005317B4_0001
(STOP) extrahiert. Das Ziel in 8 weist eine bekannte Form auf, weil die tatsächlichen Fahrbahnmarkierungen auf der linken und rechten Seite zueinander parallel sind, während das Fahrzeug 1 gerade weiterfährt und die japanische Straßenmarkierung
Figure DE112015005317B4_0002
(STOP) eine Vielzahl an Eckpunkten aufweist, an denen sich Linien gegenseitig senkrecht kreuzen. Formen und Abmessungen von Straßenmarkierungen, welche zur Merkmalspunkt-Extraktion geeignet sind, können zur Vereinfachung der Merkmalspunkt-Extraktion in eine Datenbank aufgenommen werden, die von der Merkmalspunkt-Extraktionseinheit 15 referenziert wird.Black dots in the 8(a) and (b) indicate a location where a feature point is extracted. As already mentioned, feature points are extracted in order to calculate the position and the angle of the vehicle camera 2 . Furthermore, the position and the angle of the in-vehicle camera 2 are calculated using the correspondence of the positional relationship between a plurality of feature points extracted from an image and the positional relationship between a plurality of feature points on a currently captured image of the scene. The match can be used, for example, by extracting the feature points from a target that has a known shape and is shown in the currently captured image of the scene. In 8th become the feature points from the lane markings on the left and right sides of the vehicle 1 and from the Japanese road marking
Figure DE112015005317B4_0001
(STOP) extracted. The target in 8th has a known shape because the actual lane markings on the left and right are parallel to each other while the vehicle 1 is running straight and the Japanese road marking
Figure DE112015005317B4_0002
(STOP) has a large number of vertices where lines cross each other perpendicularly. Shapes and dimensions of road markings suitable for feature point extraction may be included in a database referred to by the feature point extraction unit 15 to facilitate feature point extraction.

Die Merkmalspunkte können, wie in 8(a) gezeigt, aus einem aufgenommenen Bild extrahiert werden. Der Umwandlungstabellen-Aktualisierungsprozess entsprechend dem vorliegenden Ausführungsbeispiel extrahiert die Merkmalspunkte, wie in 8(b) gezeigt, aus einem Bild aus Vogelperspektive. Der Unterschied zwischen der Merkmalspunkt-Extraktion aus dem aufgenommenen Bild in 8(a) und der Merkmalspunkt-Extraktion aus dem Bild aus Vogelperspektive in 8(b) ist nachfolgend beschrieben.The feature points can, as in 8(a) shown can be extracted from a captured image. The conversion table update process according to the present embodiment extracts the feature points as shown in FIG 8(b) shown from a bird's eye view image. The difference between feature point extraction from the captured image in 8(a) and feature point extraction from the bird's-eye view image in 8(b) is described below.

Das aufgenommene Bild in 8(a) wurde aufgenommen, während das Fahrzeug 1 geradeaus entlang einer geraden Linie gefahren ist. Aktuelle Fahrbahnmarkierungen sind parallele, gerade Linien, welche entlang einer Fahrspur gezeichnet sind. Jedoch weisen die linke und rechte Fahrbahnmarkierung, welche im aufgenommenen Bild in 8(a) gezeigt sind, im Wesentlichen eine umgekehrte V-Form auf. Weiterhin ist die japanische Straßenmarkierung

Figure DE112015005317B4_0003
(STOP) gezeigt, sodass tatsächlich parallele Teile nicht parallel aussehen und aktuell sich senkrecht kreuzende Teile nicht senkrecht zueinander aussehen. Wenn die Merkmalspunkte (schwarze Punkte in 8(a)), die wie oben beschrieben gezeigt sind, aus der Fahrbahnmarkierung extrahiert sind, ist die Positionsbeziehung zwischen den im Bild gezeigten Merkmalspunkten nicht gleich der Positionsbeziehung zwischen den aktuellen Merkmalspunkten.The image captured in 8(a) was taken while the vehicle 1 was running straight ahead along a straight line. Actual lane markings are parallel, straight lines drawn along a lane. However, the left and right lane markings shown in the captured image in 8(a) are shown substantially in an inverted V-shape. Furthermore, the Japanese road marking
Figure DE112015005317B4_0003
(STOP) shown so actually parallel parts don't look parallel and actually perpendicularly crossing parts don't look perpendicular to each other. If the feature points (black points in 8(a) ) shown as described above are extracted from the lane marker, the positional relationship between the feature points shown in the image is not equal to the positional relationship between the current feature points.

Mittlerweile sehen, im Bild aus Vogelperspektive in 8(b), die linke und rechte Fahrbahnmarkierung, wie in der realen Welt, parallel aus, zwei parallele, gerade Linien der japanischen Straßenmarkierung

Figure DE112015005317B4_0003
(STOP) sehen, wie in der realen Welt, parallel aus und die senkrecht kreuzenden Teile sehen senkrecht zueinander aus. Wenn die Merkmalspunkte (schwarze Punkte in 8(b)), die wie oben beschrieben gezeigt sind, aus der Fahrbahnmarkierung extrahiert sind, ist die Positionsbeziehung zwischen den im Bild gezeigten Merkmalspunkten gleich der Positionsbeziehung zwischen den aktuellen Merkmalspunkten.Meanwhile, see the picture from a bird's eye view in 8(b) , the left and right lane markings, as in the real world, parallel out, two parallel straight lines of Japanese road marking
Figure DE112015005317B4_0003
(STOP) look parallel, as in the real world, and the perpendicularly crossing parts look perpendicular to each other. If the feature points (black points in 8(b) ) shown as described above are extracted from the lane marking, the positional relationship between the feature points shown in the image is equal to the positional relationship between the current feature points.

Demzufolge, wenn die aus einem Bild aus Vogelperspektive extrahierten Merkmalspunkte die aktuelle Positionsbeziehung zeigen, wird die Positionsbeziehung zwischen den in einem Bild gezeigten Merkmalspunkten mit der aktuellen Positionsbeziehung viel einfacher in Einklang gebracht, als wenn Merkmalspunkte aus einem aufgenommenen Bild, welches die aktuelle Positionsbeziehung nicht zeigt, extrahiert werden. Somit ermöglich die Extraktion der Merkmalspunkte aus dem Bild aus Vogelperspektive die einfache und akkurate Berechnung der Position und des Winkels der Fahrzeugkamera 2.Accordingly, when the feature points extracted from a bird's-eye view image show the current positional relationship, the positional relationship between the feature points shown in an image is reconciled with the current positional relationship much more easily than when feature points are from a captured image not showing the current positional relationship , are extracted. Thus, the extraction of the feature points from the bird's-eye view image enables the position and angle of the in-vehicle camera 2 to be easily and accurately calculated.

Aus den oben genannten Gründen werden die Merkmalspunkte extrahiert (S104 aus 5), nachdem ein aufgenommenes Bild in ein Bild aus Vogelperspektive umgewandelt wurde (S105 aus 5). Die Prozessverarbeitungslast kann reduziert werden durch eine Vorauswahl von Fahrbahn- und Straßenmarkierungen als Ziele, von welchen die Merkmalspunkte extrahiert werden sollen und durch Umwandlung nur der Ziele des aufgenommenen Bildes einer Szene in ein Bild aus Vogelperspektive.For the above reasons, the feature points are extracted (S104 from 5 ) after converting a captured image into a bird's-eye view image (P105 off 5 ). The processing load can be reduced by preselecting lane and road markings as targets from which the feature points are to be extracted and converting only the targets of the captured image of a scene into a bird's-eye view image.

Anschließend wird die Verteilung der Merkmalspunkte bestätigt (S106). Basierend auf der bestätigten Verteilung der Merkmalspunkte wird festgestellt, ob die Position und der Winkel der Fahrzeugkamera 2 berechnet werden sollen (S107). Die Bestimmung wird gemacht, um zu prüfen, ob die Verteilung der Merkmalspunkte zur akkuraten Berechnung der Position und des Winkels der Fahrzeugkamera 2 geeignet ist. Daher kann die Bestimmung auf Basis von Informationen erfolgen, welche die Breite der Verteilung der Merkmalspunkte angeben. Die Informationen, welche die Breite der Verteilung angeben, stellen die Größe eines Bereichs in Bezug auf die Größe eines Bildbereichs dar, welcher die Verteilung der Merkmalspunkte aufweist. Wie nachfolgend beschrieben, kann die Eignung der Verteilung in umfassender Weise unter Berücksichtigung der Breite der Verteilung, der Position eines Verteilbereichs, welcher die Merkmalspunkte aufweist und der Streuung der Merkmalspunkte innerhalb des Verteilbereichs bestimmt werden.Subsequently, the distribution of the feature points is confirmed (S106). Based on the confirmed distribution of the feature points, it is determined whether to calculate the position and the angle of the in-vehicle camera 2 (S107). The determination is made to check whether the distribution of feature points is suitable for accurately calculating the position and angle of the in-vehicle camera 2 . Therefore, the determination can be made based on information indicating the width of the distribution of the feature points. The information that gives the width of the distribution relates to the size of an area represents the size of an image area that shows the distribution of the feature points. As described below, the suitability of the distribution can be comprehensively determined considering the width of the distribution, the position of a distribution area including the feature points, and the dispersion of the feature points within the distribution area.

9 zeigt einen Fall, in dem die Verteilung der Merkmalspunkte in einem Bild aus Vogelperspektive günstig ist und einen Fall, in dem die Verteilung der Merkmalspunkte in einem Bild aus Vogelperspektive ungünstig ist. Ein aufgenommenes Bild einer Szene wird in 9 weggelassen und die Positionen von extrahierten Merkmalspunkte sind durch schwarze Punkte gekennzeichnet. Ferner werden die extrahierten Merkmalspunkte integral betrachtet, um periphere Merkmalspunkte als Eckpunkte zu verbinden und ein Bereich innerhalb des resultierenden konvexen Polygons als Merkmalspunkt-Verteilbereich (schraffierter Abschnitt) gehandhabt. Eine Merkmalspunkt-Verteilung wird als günstig eingestuft, wenn der Verteilbereich eine große Fläche aufweist, welche nahe der Bildmitte angeordnet ist, wie in 9(a) gezeigt. Die Merkmalspunkt-Verteilung wird als ungünstig eingestuft, wenn der Verteilbereich einen kleinen Bereich aufweist oder verzerrt positioniert ist, wobei nur ein Teil eines Bildes eingenommen wird, wie in 9(b) gezeigt. 9 Fig. 12 shows a case where the distribution of feature points in a bird's-eye view image is favorable and a case where the distribution of feature points in a bird's-eye view image is unfavorable. A captured image of a scene is turned into 9 omitted and the positions of extracted feature points are indicated by black dots. Further, the extracted feature points are integrally considered to connect peripheral feature points as vertices, and an area inside the resultant convex polygon is handled as a feature point distribution area (hatched portion). A feature point distribution is classified as favorable if the distribution area has a large area, which is located near the center of the image, as in 9(a) shown. The feature point distribution is judged to be unfavorable when the distribution area has a small area or is positioned in a distorted manner, occupying only part of an image, as in 9(b) shown.

Ob die Merkmalspunkt-Verteilung geeignet ist, kann einfach durch Überprüfen der Breite, Höhe und Position des Merkmalspunkt-Verteilbereichs bestimmt werden, anstatt den schraffierten Bereich zu untersuchen.Whether the feature point distribution is appropriate can be determined simply by checking the width, height and position of the feature point distribution area instead of examining the hatched area.

In 9(a) ist die Breite des Merkmalspunkt-Verteilbereichs Ua und die Höhe Va. Die Größe dieses Merkmalspunkt-Verteilbereichs ist im Vergleich zur Größe eines Bildes ausreichend groß. Ferner sind die Zwischenwerte von Ua und Va nahe der Bildmitte. Die Merkmalspunkt-Verteilung in 9(a) kann als günstig eingestuft werden.In 9(a) is the width of the feature point distribution area Ua and the height Va. The size of this feature point distribution area is sufficiently large compared to the size of an image. Also, the intermediate values of Ua and Va are near the center of the image. The feature point distribution in 9(a) can be classified as cheap.

In 9(b) ist sowohl die Breite Ub als auch die Höhe Vb des Merkmalspunkt-Verteilbereichs im Vergleich zu der Größe eines Bildes klein. Somit kann die Merkmalspunkt-Verteilung aus 9(b) als ungünstig eingestuft werden. Ferner weichen die Zwischenwerte von Ua und Va signifikant von der Bildmitte ab. Die Merkmalspunkt-Verteilung kann als ungünstig eingestuft werden.In 9(b) Both the width Ub and the height Vb of the feature point distribution area are small compared to the size of an image. Thus, the feature point distribution from 9(b) be classified as unfavourable. Furthermore, the intermediate values of Ua and Va deviate significantly from the center of the image. The feature point distribution can be classified as unfavorable.

Wie bereits erwähnt, kann die Streuung der Merkmalspunkte zusätzlich zur Größe und Position des Merkmalspunkt-Verteilbereichs berücksichtigt werden. Die Breite Uc, die Höhe Vc und die Position des Merkmalspunkt-Verteilbereichs in 9(c) sind genau so wie in 9(a). Jedoch ist die Merkmalspunkt-Verteilung innerhalb des Verteilbereichs in 9(c) einseitig. In diesem Fall sollte nicht nur die Weite (Bereich) der Merkmalspunkt-Verteilung, sondern auch die Streuung der Merkmalspunkte berücksichtigt werden. In 9(c) wird ein Merkmalspunkt, welcher von beispielsweise einer durchschnittlichen Verteilungsposition signifikant abweicht, als Ausreißer betrachtet und er wird kein Teil des Merkmalspunkt-Verteilbereichs sein. Somit wird ein doppelt schraffierter Bereich als Merkmalspunkt-Verteilbereich gehandhabt. Die Merkmalspunkt-Verteilung in 9(c) wird als ungünstig eingestuft.As already mentioned, the spread of the feature points can be taken into account in addition to the size and position of the feature point distribution area. The width Uc, the height Vc and the position of the feature point distribution area in 9(c) are exactly the same as in 9(a) . However, the feature point distribution within the distribution range is in 9(c) one-sided. In this case, not only the width (range) of the feature point distribution but also the spread of the feature points should be considered. In 9(c) a feature point which deviates significantly from, for example, an average distribution position is considered an outlier and will not be part of the feature point distribution range. Thus, a double hatched area is handled as a feature point distribution area. The feature point distribution in 9(c) is classified as unfavourable.

Wie bereits erwähnt, werden die Position und der Winkel der Fahrzeugkamera 2 unter Verwendung der Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten, welche aus einem Bild aus Vogelperspektive extrahiert wurden mit der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten in einem aktuell aufgenommenen Bild einer Szene berechnet. Daher, selbst wenn die Merkmalspunkt-Verteilung ungünstig ist, wie in den 9(b) und (c) gezeigt, können die Position und der Winkel der Fahrzeugkamera 2 berechnet werden. Jedoch kann für einen Bereich, in welchem keine Merkmalspunkte existieren die Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten auf einem Bild mit der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten auf einem aktuell aufgenommenen Bild nicht bestätigt werden. Dies macht es schwierig, die Position und den Winkel der Fahrzeugkamera 2 akkurat zu berechnen.As mentioned above, the position and the angle of the in-vehicle camera 2 are calculated using the correspondence of the positional relationship between a plurality of feature points extracted from a bird's-eye view image and the positional relationship between a plurality of feature points in a currently captured image of a scene. Therefore, even if the feature point distribution is unfavorable as in Figs 9(b) and (c), the position and angle of the vehicle camera 2 can be calculated. However, for an area where no feature points exist, the correspondence of the positional relationship between a plurality of feature points on an image and the positional relationship between a plurality of feature points on an image actually captured cannot be confirmed. This makes it difficult to accurately calculate the position and angle of the in-vehicle camera 2 .

Wenn die Merkmalspunkt-Verteilung ungünstig ist, wird festgelegt, dass die Position und der Winkel der Fahrzeugkamera nicht zu berechnen sind (S107 aus 5: NEIN) und dann endet der Umwandlungstabellen-Aktualisierungsprozess (6).When the feature point distribution is unfavorable, it is determined that the position and the angle of the in-vehicle camera are not to be calculated (S107 from 5 : NO) and then the conversion table update process ( 6 ).

Im Gegensatz dazu, wenn die Merkmalspunkt-Verteilung auf einem Bild aus Vogelperspektive günstig ist, wie in 9(a) gezeigt, wird festgelegt, dass die Position und der Winkel der Fahrzeugkamera 2 zu berechnen sind (S107: JA) und danach werden die Position und der Winkel der Fahrzeugkamera 2 berechnet (S108). Auf diese Weise können die Position und der Winkel der Fahrzeugkamera 2 nur berechnet werden, wenn eine ausreichende Genauigkeit erreicht wird. Wenn ferner die Position und der Winkel der Fahrzeugkamera 2 nicht berechnet werden, da keine ausreichende Genauigkeit vorausgesetzt werden kann, ist es möglich, zu verhindern, dass der CPU eine zusätzliche Prozessverarbeitungslast auferlegt wird.In contrast, when the feature point distribution is favorable on a bird's-eye view image, as in 9(a) shown, it is determined that the position and angle of the in-vehicle camera 2 are to be calculated (S107: YES), and thereafter the position and angle of the in-vehicle camera 2 are calculated (S108). In this way, the position and the angle of the vehicle camera 2 can only be calculated if sufficient accuracy is achieved. Furthermore, if the position and the angle of the in-vehicle camera 2 are not calculated because sufficient accuracy cannot be assumed, it is possible to prevent an additional processing load from being imposed on the CPU.

Nachdem die Position und der Winkel der Fahrzeugkamera 2 berechnet wurden (S108), wird der Betrag der Positions- und Winkelveränderung, welche sich durch die berechnete Position und den Winkel ergeben, bestätigt (S109 aus 6). Der zu bestätigende Veränderungsbetrag ist der Betrag der Differenz zwischen der neu kalkulierten Position und dem Winkel der Fahrzeugkamera 2 und der Position und dem Winkel der Fahrzeugkamera 2, welche in der Aktualisierung der aktuell verwendeten Umwandlungstabelle genutzt werden. Wenn der Veränderungsbetrag gleich oder kleiner als ein Schwellenwert-Veränderungsbetrag ist (S110: JA), wird die Umwandlungstabelle aktualisiert (S111) und dann endet der Umwandlungstabellen-Aktualisierungsprozess. Im Gegensatz dazu, wenn der Veränderungsbetrag größer als der Schwellenwert-Veränderungsbetrag ist (S110: NEIN), endet der Umwandlungstabellen-Aktualisierungsprozess ohne Aktualisierung der Umwandlungstabelle.After the position and angle of the in-vehicle camera 2 are calculated (S108), the amount of change in position and angle, which result from the calculated position and the angle are confirmed (S109 from 6 ). The change amount to be confirmed is the amount of the difference between the recalculated position and angle of the vehicle camera 2 and the position and angle of the vehicle camera 2 used in the update of the currently used conversion table. When the change amount is equal to or smaller than a threshold change amount (S110: YES), the conversion table is updated (S111), and then the conversion table update process ends. In contrast, when the change amount is larger than the threshold change amount (S110: NO), the conversion table update process ends without updating the conversion table.

Im Falle einer Kontingenz wie einer Abnormalität bei der Merkmalspunkt-Extraktion oder bei der Berechnung der Position und des Winkels der Fahrzeugkamera 2, können die Position und der Winkel der Fahrzeugkamera 2 Extremwerte annehmen. Unter solchen Umständen wird die Umwandlungstabelle nicht aktualisiert, wenn der durch die berechnete Position und den Winkel der Fahrzeugkamera 2 dargelegte Veränderungsbetrag größer als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist. Daher wird die Umwandlungstabelle nur aktualisiert, wenn festgestellt wird, dass die Position und der Winkel der Fahrzeugkamera 2 mit ausreichender Genauigkeit erhalten werden. Ferner, wie in dem Fall mit der Bestimmung einer Merkmalspunkt-Verteilung, werden die Position und der Winkel der Fahrzeugkamera 2 nicht berechnet, wenn wahrscheinlich keine ausreichende Genauigkeit erreicht wird. Folglich ist es möglich, zu verhindern, dass der CPU eine zusätzliche Prozessverarbeitungslast auferlegt wird.In the case of a contingency such as an abnormality in feature point extraction or in calculation of the position and angle of the in-vehicle camera 2, the position and angle of the in-vehicle camera 2 may become extreme. Under such circumstances, the conversion table is not updated when the amount of change presented by the calculated position and angle of the in-vehicle camera 2 is larger than a predetermined threshold amount of change. Therefore, the conversion table is updated only when it is determined that the position and angle of the in-vehicle camera 2 are obtained with sufficient accuracy. Further, as in the case of determining a feature point distribution, the position and angle of the in-vehicle camera 2 are not calculated when sufficient accuracy is unlikely to be obtained. Consequently, it is possible to prevent an additional process processing load from being imposed on the CPU.

Wie oben beschrieben werden, wenn der Umwandlungstabellen-Aktualisierungsprozess von der Bildumwandlungsvorrichtung 10 gemäß dem vorliegenden Ausführungsbeispiel ausgeführt wurde, die Merkmalspunkte auf Basis der Auswertung der Umgebungswerte mit erhöhter Genauigkeit extrahiert (S102) und die Position und der Winkel der Fahrzeugkamera 2 mit erhöhter Genauigkeit durch Bestätigung der Verteilung der Merkmalspunkte berechnet (S107). Zusätzlich zu solch einer akkuraten Berechnung der Position und des Winkels der Fahrzeugkamera 2 wird der durch die berechnete Position und den Winkel der Fahrzeugkamera dargelegte Veränderungsbetrag bestätigt (S110). Schließlich wird die Umwandlungstabelle nach dreifacher Überprüfung aktualisiert. Somit referenziert die Bildumwandlungsvorrichtung die sehr genaue, sehr zuverlässige Umwandlungstabelle, welche in oben beschriebener Weise erhalten wurde. Ein akkurates Bild aus Vogelperspektive kann durch Umwandlung erhalten werden.As described above, when the conversion table update process is performed by the image conversion device 10 according to the present embodiment, the feature points are extracted based on the evaluation of the surrounding values with increased accuracy (S102), and the position and angle of the in-vehicle camera 2 with increased accuracy by confirmation of the distribution of the feature points is calculated (S107). In addition to such an accurate calculation of the position and angle of the in-vehicle camera 2, the amount of change presented by the calculated position and angle of the in-vehicle camera is confirmed (S110). Finally, after triple checking, the conversion table is updated. Thus, the image conversion device references the very accurate, very reliable conversion table obtained in the manner described above. An accurate bird's-eye view image can be obtained by conversion.

B. AbwandlungB. Modification

In der Beschreibung des vorstehenden Ausführungsbeispiels wurde das Verfahren der Berechnung der veränderten Position und des Winkels der Fahrzeugkamera 2 unter der Annahme erklärt, dass die Veränderungen der Position und des Winkels der Fahrzeugkamera 2 in Bezug auf die Fahrbahnoberfläche 21 erfolgen. In der Hinsicht kann die Position und der Winkel der Fahrzeugkamera in Bezug auf die Fahrbahnoberfläche 21 aus zwei Gründen variieren. Erstens kann der Montagezustand (Position und Winkel) der Fahrzeugkamera 2 in Bezug auf das Fahrzeug 1 variieren, sodass sich der Montagezustand in Bezug auf die Fahrbahnoberfläche 21 verändert. Zweitens kann die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche variieren. Die Veränderung im ersten Fall ist eine permanente Veränderung, welche beispielsweise durch ein an der Fahrzeugkamera 2 angebrachtes lockeres Befestigungselement auftritt. Unterdessen ist die Veränderung im zweiten Fall, also die Neigung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche eine temporäre Veränderung, welche beispielsweise durch eine Veränderung im Nutzlastgewicht oder der Beschleunigung oder dem Abbremsen des Fahrzeugs 1 auftritt. Das vorstehende Ausführungsbeispiel wurde ohne einer Unterscheidung zwischen den zwei Variationsarten beschrieben. Die folgende Beschreibung einer Abwandlung erklärt jedoch, wie die Position und der Winkel der Fahrzeugkamera 2 im Falle der temporären Veränderung im zweiten Fall berechnet werden, das heißt eine Veränderung in der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche, während der Fokus auf den Unterschied zwischen der Abwandlung und dem vorhergehenden Ausführungsbeispiel gelegt wird.In the description of the above embodiment, the method of calculating the changed position and angle of the in-vehicle camera 2 has been explained on the assumption that the changes in the position and angle of the in-vehicle camera 2 are made with respect to the road surface 21 . In this regard, the position and angle of the vehicle camera relative to the road surface 21 may vary for two reasons. First, the mounted state (position and angle) of the in-vehicle camera 2 with respect to the vehicle 1 may vary, so that the mounted state with respect to the road surface 21 changes. Secondly, the position of the vehicle 1 in relation to the road surface can vary. The change in the first case is a permanent change, which occurs, for example, due to a loose fastener attached to the vehicle camera 2 . Meanwhile, in the second case, the change, that is, the inclination of the vehicle 1 with respect to the road surface, is a temporary change that occurs due to a change in payload weight or the acceleration or deceleration of the vehicle 1, for example. The above embodiment has been described without distinguishing between the two types of variations. However, the following description of a modification explains how the position and angle of the vehicle camera 2 are calculated in the case of the temporary change in the second case, that is, a change in the attitude of the vehicle 1 with respect to the road surface while focusing on the difference is placed between the modification and the preceding embodiment.

Im Allgemeinen hat die Position der Fahrzeugkamera 2 drei Richtungskomponenten, und zwar eine Längsstellung (die Fahrtrichtung des Fahrzeugs 1), eine Querstellung (die Links-Rechts-Richtung relativ zur Fahrtrichtung des Fahrzeugs 1) und eine Vertikalstellung. Die Fahrzeugkamera hat drei Richtungswinkel, und zwar Roll, Nick und Gier. Um also die Position und den Winkel der Fahrzeugkamera 2 zu berechnen, ist es essentiell notwendig, die drei Richtungskomponenten und die drei Richtungswinkel (sechs Werte insgesamt) zu berechnen. Wenn jedoch die Berechnung der Position und des Winkels aus letztgenanntem Grund erforderlich ist, das heißt, wegen der Veränderung der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche, wird die Berechnung von drei Werten genügen, nämlich der Vertikalstellung, dem Roll-Winkel und dem Nick-Winkel der Fahrzeugkamera 2. Der Grund wird nachfolgend beschrieben.In general, the position of the in-vehicle camera 2 has three directional components, namely, a longitudinal position (the traveling direction of the vehicle 1), a lateral position (the left-right direction relative to the traveling direction of the vehicle 1), and a vertical position. The vehicle camera has three directional angles, namely roll, pitch and yaw. Therefore, in order to calculate the position and the angle of the in-vehicle camera 2, it is essentially necessary to calculate the three directional components and the three directional angles (six values in total). However, if the calculation of the position and the angle is required for the latter reason, i.e. because of the change in the attitude of the vehicle 1 in relation to the road surface, the calculation of three values will suffice, namely the vertical position, the roll angle and the Pitch angle of the vehicle camera 2. The reason will be described below.

Zuerst sei angenommen, dass die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche festgelegt ist (z. B. in horizontaler Position gehalten). Selbst wenn ein solcher Zustand beibehalten wird, variieren die Längs- und Querstellung der Fahrzeugkamera 2, wenn sich das Fahrzeug 1 bewegt. Wenn ferner die Orientierung des Fahrzeugs 1 variiert, variiert der Gier-Winkel der Fahrzeugkamera 2. Daher beeinflusst eine Veränderung in der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche die Vertikalstellung, den Roll-Winkel und den Nick-Winkel der Fahrzeugkamera 2 und sie beeinflusst nicht die Längsstellung, Querstellung und den Gier-Winkel der Fahrzeugkamera 2. Demzufolge, wenn die Stellung des Fahrzeugs1 in Bezug auf die Fahrbahnoberfläche während der Fahrt des Fahrzeugs 1 variiert, wird der beabsichtigte Zweck durch Berechnung der drei Werte, und zwar der Vertikalstellung, des Roll-Winkels und des Nick-Winkels der Fahrzeugkamera 2, erreicht.First, assume that the attitude of the vehicle 1 with respect to the road surface is fixed (e.g., held in a horizontal position). Even if such a state is maintained, the longitudinal and lateral positions of the in-vehicle camera 2 vary as the vehicle 1 moves. Furthermore, when the orientation of the vehicle 1 varies, the yaw angle of the vehicle camera 2 varies. Therefore, a change in the posture of the vehicle 1 with respect to the road surface affects the vertical posture, roll angle, and pitch angle of the vehicle camera 2 and them does not affect the longitudinal position, lateral position and yaw angle of the vehicle camera 2. Accordingly, when the position of the vehicle 1 with respect to the road surface varies during the running of the vehicle 1, the intended purpose is achieved by calculating the three values, namely the vertical position, the roll angle and the pitch angle of the vehicle camera 2.

Während das Fahrzeug 1 fährt, variiert die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche häufig und dementsprechend kann die Häufigkeit der Berechnungen der Position und des Winkels der Fahrzeugkamera 2 groß sein und die Berechnungslast dürfte hoch sein. Unter diesem Gesichtspunkt, wenn es ausreicht, die drei Werte zu berechnen, und zwar die Vertikalstellung, den Roll-Winkel und den Nick-Winkel der Fahrzeugkamera 2, ist dies ein großer Vorteil, weil die Berechnungslast auf die Hälfte reduziert werden kann.While the vehicle 1 is running, the posture of the vehicle 1 with respect to the road surface varies frequently, and accordingly, the frequency of calculations of the position and angle of the in-vehicle camera 2 may be high, and the calculation load is likely to be heavy. From this point of view, if it suffices to calculate the three values, namely, the vertical position, the roll angle, and the pitch angle of the in-vehicle camera 2, it is a great advantage because the calculation load can be reduced in half.

10 zeigt ein Beispiel eines Bildes aus Vogelperspektive, welches bei der Neigung des Fahrzeugs 1 in Nick-Richtung erhalten wird. Wenn die Front des Fahrzeugs 1 nach unten geneigt ist, wie in 10(a) gezeigt, verändert sich der Nick-Winkel der Fahrzeugkamera 2 nach unten. Ein Bild aus Vogelperspektive, welches Fahrbahnmarkierungen auf der linken und rechten Seite des Fahrzeugs 1 im obigen Zustand zeigt, ist in 10(b) abgebildet. Wie in 10(b) abgebildet, werden die Fahrbahnmarkierungen auf der linken und rechten Seite des Fahrzeugs 1 in einer umgekehrten V-Form gezeigt. Wenn das Fahrzeug 1 nicht geneigt ist, sollten die linken und rechten Fahrbahnmarkierungen parallel abgebildet sein. Wenn also Merkmalspunkte aus den Grenzen der Fahrbahnmarkierungen extrahiert werden, um Anpassungen vorzunehmen, sodass die Fahrbahnmarkierungen, welche in eine umgekehrte V-Form geneigt sind, parallel angezeigt werden, kann der Nick-Winkel der Fahrzeugkamera 2 auf Basis der Neigung des Fahrzeugs 1 neu berechnet werden. Schwarze Punkte auf den Grenzlinien der Fahrbahnmarkierungen in 10(b) sind Beispiele für Merkmalspunkte. Wenn solche Merkmalspunkte verbunden sind, sind die resultierenden Linien genau wie die Linien der Fahrbahnmarkierungen. Daher werden solche Merkmalspunkte aus nachfolgend dargestellten Beispielen eines Bildes aus Vogelperspektive weggelassen. 10 FIG. 12 shows an example of a bird's-eye view image obtained when the vehicle 1 is tilted in the pitch direction. When the front of the vehicle 1 is tilted down as in FIG 10(a) shown, the pitch angle of the vehicle camera 2 changes downward. A bird's-eye view image showing lane markings on the left and right sides of the vehicle 1 in the above state is shown in FIG 10(b) pictured. As in 10(b) illustrated, the lane markings on the left and right sides of the vehicle 1 are shown in an inverted V-shape. When the vehicle 1 is not tilted, the left and right lane markings should be imaged in parallel. Therefore, when feature points are extracted from the boundaries of the lane markers to make adjustments so that the lane markers inclined in an inverted V-shape are displayed in parallel, the pitch angle of the in-vehicle camera 2 can be recalculated based on the inclination of the vehicle 1 will. Black dots on the boundary lines of the lane markings in 10(b) are examples of feature points. When such feature points are connected, the resulting lines are just like the lane marking lines. Therefore, such feature points are omitted from examples of a bird's-eye view image presented below.

Ein Bild aus Vogelperspektive, welches eine Stopp-Linie vor dem Fahrzeug 1 in einem, wie in 10(a) gezeigten Zustand zeigt, ist in 10(c) dargestellt. Wie dargestellt, hat die abgebildete Stopp-Linie eine Trapezform, sodass zwei in Längsrichtung verlaufende gerade Linien eine umgekehrten V-Form aufweisen und dass zwei in Querrichtung verlaufende gerade Linien parallel zueinander sind. Wenn das Fahrzeug 1 nicht geneigt ist, sollte die abgebildete Stopp-Linie wie ein Rechteck geformt sein, welches in Querrichtung lang ist. Daher, wenn Anpassungen vorgenommen werden, sodass die zwei geraden Linien, welche wie in dem in 10(b) gezeigten Fall in eine umgekehrte V-Form geneigt sind, parallel zueinander sind, kann der Nick-Winkel der Fahrzeugkamera 2 auf Basis der Neigung des Fahrzeugs 1 neu berechnet werden.A bird's-eye view image showing a stop line in front of vehicle 1 in a, as in 10(a) shown condition is in 10(c) shown. As illustrated, the stop line shown has a trapezoidal shape such that two longitudinal straight lines have an inverted V-shape and two transverse straight lines are parallel to each other. When the vehicle 1 is not inclined, the stop line imaged should be shaped like a rectangle that is long in the lateral direction. Therefore, if adjustments are made so that the two straight lines shown as in the in 10(b) shown case are inclined in an inverted V-shape are parallel to each other, the pitch angle of the in-vehicle camera 2 can be recalculated based on the inclination of the vehicle 1 .

Die Genauigkeit der Nick-Winkel der Fahrzeugkamera 2, welche aus den 10(b) und 10(c) berechnet werden, werden nun verglichen. In 10(b) kann die Neigung von einem Liniensegment mit der Länge L1 untersucht werden. Im Fall von 10(c) ist jedoch die Neigung eines Liniensegments mit der Länge L2 zu untersuchen, welche kürzer als die Länge L1 ist. Offensichtlich erzeugt die Untersuchung der Neigung von dem Liniensegment mit der Länge L2 einen größeren Fehler als die Untersuchung der Neigung von dem Liniensegment mit der Länge L1. Daher ist der berechnete Nick-Winkel der Fahrzeugkamera 2 von 10(c) genauer als der von 10(b).The accuracy of the pitch angle of the vehicle camera 2, which from the 10(b) and 10(c) are calculated are now compared. In 10(b) the slope of a line segment of length L1 can be examined. In case of 10(c) however, to examine the slope of a line segment with length L2, which is shorter than length L1. Obviously examining the slope of the line segment of length L2 produces a larger error than examining the slope of the line segment of length L1. Therefore, the calculated pitch angle of the vehicle camera 2 is from 10(c) more accurate than that of 10(b) .

Nun wird der Unterschied in der Merkmalspunkt-Verteilung zwischen den 10(b) und 10(c) untersucht. In 10(b) weist die Verteilung der Merkmalspunkte, welche durch die schwarzen Punkte markiert sind, eine große Weite in Längsrichtung eines Bildes aus Vogelperspektive auf. Derweil weist die Verteilung der Merkmalspunkte, welche durch die schwarzen Punkte markiert sind, eine geringe Weite in Querrichtung auf, weil es keine Merkmalspunkte in den linken und rechten Endbereichen und im Mittelbereich gibt.Now, the difference in feature point distribution between the 10(b) and 10(c) examined. In 10(b) For example, the distribution of the feature points marked by the black points has a large width in the longitudinal direction of a bird's-eye view image. Meanwhile, since there are no feature points in the left and right end portions and in the middle portion, the distribution of the feature points marked by the black dots has a small lateral width.

Schwarze Punkte, welche die Merkmalspunkte anzeigen, werden in 10(c) weggelassen. Wenn man jedoch den angezeigten Bereich der Stopp-Linie betrachtet, zeigt sich, dass die Merkmalspunkt-Verteilung in Längsrichtung eine geringe Weite aufweist und dass die Merkmalspunkt-Verteilung in Querrichtung eine große Weite aufweist.Black dots indicating the feature points will be in 10(c) omitted. However, looking at the indicated range of the stop line, it is found that the longitudinal feature point distribution has a small width and the lateral feature point distribution has a large width.

Folglich, wenn der Nick-Winkel der Fahrzeugkamera 2, wie in 10 gezeigt, neu berechnet werden soll, versteht es sich, dass eine Merkmalspunkt-Verteilung mit einer großen Weite in Längsrichtung eines Bildes aus Vogelperspektive (in der Fahrtrichtung des Fahrzeugs 1) für eine genaue Berechnung wichtig ist. Daher sollte der Nick-Winkel der Fahrzeugkamera 2 unter der Bedingung berechnet werden, dass die Weite der Merkmalspunkt-Verteilung in Längsrichtung eines Bildes aus Vogelperspektive größer als ein zuvor festgelegter Längsrichtungs-Schwellenwert ist. Der Längsrichtungs-Schwellenwert entspricht einem ersten Schwellenwert.Consequently, when the pitch angle of the in-vehicle camera 2 as in 10 shown, is to be recalculated, it is understood that a feature point distribution with a large width in longitudinal direction of a bird's-eye view image (in the traveling direction of the vehicle 1) is important for accurate calculation. Therefore, the pitch angle of the in-vehicle camera 2 should be calculated under the condition that the width of the feature point distribution in the longitudinal direction of a bird's-eye view image is larger than a predetermined longitudinal direction threshold value. The longitudinal threshold corresponds to a first threshold.

11 zeigt ein Beispiel eines Bildes aus Vogelperspektive, welches erhalten wird, wenn das Fahrzeug 1 in Roll-Richtung geneigt ist. Wenn der Rollrichtungs-Winkel der Fahrzeugkamera 2 nach rechts verändert ist, da die rechte Seite des Fahrzeugs 1 aus Sicht der Vorderseite des Fahrzeugs 1 nach unten geneigt ist, wie in 11 (a) gezeigt, werden die Fahrbahnmarkierungen auf der linken und rechten Seite des Fahrzeugs 1 in einer anderen Weise dargestellt, wie in 11(b) gezeigt. Die linke Fahrbahnmarkierung in 11(b) ist mit einer großen Breite W1 und von dem Fahrzeug 1 weg positioniert abgebildet. Derweil ist die rechte Fahrbahnmarkierung mit einer kleinen Breite W2 und zu dem Fahrzeug 1 hin positioniert abgebildet. In diesem Fall kann der Roll-Winkel der Fahrzeugkamera 2 auf Basis der Neigung des Fahrzeugs 1 neu berechnet werden, indem beispielsweise Anpassungen vorgenommen werden, sodass die linke und die rechte Fahrbahnmarkierung die gleiche Breite aufweisen. Indes weisen tatsächliche Fahrbahnmarkierungen eine Breite von 15 cm bis 20 cm auf. Weiterhin weisen die angezeigten Fahrbahnmarkierungen in einem Bild aus Vogelperspektive eine relativ geringe Breite im Vergleich zum Bildanzeigebereich auf. Daher ist es schwieriger als im Fall von 11(c), genaue Anpassungen vorzunehmen. 11 FIG. 12 shows an example of a bird's-eye view image obtained when the vehicle 1 is inclined in the roll direction. When the roll direction angle of the in-vehicle camera 2 is changed to the right since the right side of the vehicle 1 is tilted down when viewed from the front of the vehicle 1 as shown in FIG 11(a) shown, the lane markings on the left and right sides of the vehicle 1 are displayed in a different way as in FIG 11(b) shown. The left lane marking in 11(b) is depicted with a large width W1 and positioned away from the vehicle 1 . Meanwhile, the right lane marker is depicted with a small width W2 and positioned toward the vehicle 1 . In this case, the roll angle of the vehicle camera 2 can be recalculated based on the inclination of the vehicle 1 by, for example, making adjustments so that the left and right lane markings have the same width. However, actual pavement markings have a width of 15 cm to 20 cm. Furthermore, the displayed lane markers in a bird's-eye view image have a relatively small width compared to the image display area. Therefore, it is more difficult than in the case of 11(c) to make precise adjustments.

Eine in 11(c) gezeigte Stopp-Linie ist trapezförmig ausgebildet, sodass zwei in Längsrichtung verlaufende gerade Linien parallel zueinander sind und dass zwei in Querrichtung verlaufende gerade Linien eine umgekehrte V-Form aufweisen. Daher kann der Roll-Winkel der Fahrzeugkamera 2 auf Basis der Neigung des Fahrzeugs 1 neu berechnet werden, indem Anpassungen so vorgenommen werden, dass die zwei geraden Linien, welche sich in Querrichtung zu einer umgekehrten V-Form erstrecken, parallel zueinander sind. Die zwei Linien, welche sich in Querrichtung zu einer umgekehrten V-Form erstrecken, weisen eine Länge L3 auf, wobei die Länge L3 offensichtlich größer als die Breiten W1 und W2, welche in 11(b) gezeigt sind, ist. Es ist daher vorstellbar, dass der berechnete Roll-Winkel der Fahrzeugkamera 2 im Fall von 11(c) genauer ist, als im Fall von 11(b).one inside 11(c) The stop line shown in FIG. Therefore, the roll angle of the in-vehicle camera 2 can be recalculated based on the inclination of the vehicle 1 by making adjustments so that the two straight lines extending laterally in an inverted V-shape are parallel to each other. The two lines, which extend transversely in an inverted V-shape, have a length L3, the length L3 apparently being greater than the widths W1 and W2 shown in FIG 11(b) are shown is. It is therefore conceivable that the calculated roll angle of the vehicle camera 2 in the case of 11(c) is more accurate than in the case of 11(b) .

Folglich sollte der Roll-Winkel der Fahrzeugkamera 2 unter der Bedingung berechnet werden, dass die Weite der Merkmalspunkt-Verteilung in Querrichtung eines Bildes aus Vogelperspektive größer als ein zuvor festgelegter Querrichtungs-Schwellenwert ist. Der Querrichtungs-Schwellenwert entspricht einem zweiten Schwellenwert.Therefore, the roll angle of the in-vehicle camera 2 should be calculated under the condition that the width of the feature point distribution in the transverse direction of a bird's-eye view image is larger than a predetermined transverse direction threshold value. The cross-directional threshold corresponds to a second threshold.

12 zeigt ein Beispiel eines Bildes aus Vogelperspektive, welches erhalten wird, wenn die Vertikalstellung des Fahrzeugs 1 verändert wird. Wenn das Fahrzeug 1 vollständig versenkt ist, wie in 12(a) gezeigt, sinkt die Vertikalstellung der Fahrzeugkamera 2. In diesem Zustand sehen die angezeigten Fahrbahnmarkierungen aus wie in 12(b) und eine angezeigte Stopp-Linie sieht aus wie in 12(c). In den 12(b) und 12(c) sind die Fahrspurmarkierungen und die Stopp-Linie, welche vor einer Änderung der Vertikalstellung des Fahrzeugs 1 angezeigt werden durch gestrichelte Linien dargestellt. Im Vergleich mit den gestrichelten Linien sind die linke und rechte Fahrbahnmarkierung in 12(b) je mit einer erhöhten Breite und weiter vom Fahrzeug 1 weg positioniert abgebildet, und die Stopp-Linie in 12(c) wird in ähnlicher Weise mit einer gesteigerten Größe und weiter vom Fahrzeug 1 weg positioniert abgebildet. 12 FIG. 12 shows an example of a bird's-eye view image obtained when the vertical posture of the vehicle 1 is changed. When the vehicle 1 is fully submerged as in 12(a) shown, the vertical position of the vehicle camera 2 decreases. In this state, the displayed lane markings look like in 12(b) and a displayed stop line looks like in 12(c) . In the 12(b) and 12(c) the lane markings and the stop line, which are displayed before the vertical posture of the vehicle 1 changes, are represented by broken lines. Compared with the dashed lines, the left and right lane markings are in 12(b) each with an increased width and positioned further away from vehicle 1, and the stop line in 12(c) is similarly imaged with an increased size and positioned further away from the vehicle 1 .

Wenn die Vertikalstellung des Fahrzeugs 1 wie oben beschrieben verändert ist, sind die in einem Bild aus Vogelperspektive dargestellten Dinge vergrößert oder verkleinert. Daher kann die Übereinstimmung der Merkmalspunkte nicht erreicht werden, indem die mit Bezug auf die 10 und 11 beschriebenen Formen verwendet werden. Jedoch kann beispielsweise die Vertikalstellung des Fahrzeugs 1, wie nachfolgend beschrieben, berechnet werden. Im Fall von 12(b), wenn Daten mit der Breite der tatsächlichen Fahrbahnmarkierungen aufbereitet sind, kann die Vertikalstellung der Fahrzeugkamera 2 auf Basis der Vertikalstellung des Fahrzeugs 1 neu berechnet werden, indem Anpassungen gemacht werden, sodass die Breite der Fahrbahnmarkierungen, welche in einem Bild aus Vogelperspektive dargestellt sind, der Breite der tatsächlichen Fahrbahnmarkierungen entspricht. Ähnlich im Fall von 12(c), wenn Daten mit der Breite einer Stopp-Linie aufbereitet sind, kann die Vertikalstellung der Fahrzeugkamera 2 auf Basis der Vertikalstellung des Fahrzeugs 1 neu berechnet werden. Wenn die Vertikalstellung der Fahrzeugkamera 2 wie oben beschrieben berechnet wird, wird die Übereinstimmung der Skalierungen anstatt der Übereinstimmung der Formen erreicht. Die Skalierung eines Bildes kann nicht genau evaluiert werden, bis das gesamte Bild erfasst ist. Wenn also die Längsskala eines Bildes aus Vogelperspektive ausgewertet werden soll, muss zumindest die Merkmalspunkt-Verteilung in Längsrichtung günstig sein. Wenn die Querskala ausgewertet werden soll, muss zumindest die Merkmalspunkt-Verteilung in Querrichtung günstig sein.When the vertical posture of the vehicle 1 is changed as described above, things displayed in a bird's-eye view image are enlarged or reduced. Therefore, the match of the feature points cannot be achieved by using the with respect to the 10 and 11 described forms are used. However, for example, the vertical position of the vehicle 1 can be calculated as described below. In case of 12(b) When data is prepared with the width of the actual lane markings, the vertical position of the in-vehicle camera 2 can be recalculated based on the vertical position of the vehicle 1 by making adjustments so that the width of the lane markings displayed in a bird's-eye view image of the width corresponds to the actual lane markings. Similarly in the case of 12(c) When data with the width of a stop line is prepared, the vertical position of the in-vehicle camera 2 can be recalculated based on the vertical position of the vehicle 1 . When the vertical position of the in-vehicle camera 2 is calculated as described above, matching of scales is achieved instead of matching of shapes. The scaling of an image cannot be accurately evaluated until the entire image is captured. So if the longitudinal scale of an image from a bird's-eye view is to be evaluated, at least the feature point distribution in the longitudinal direction must be favorable. If the transverse scale is to be evaluated, at least the feature point distribution in the transverse direction must be favorable.

Wenn die Vertikalstellung des Fahrzeugs 1 verändert wird, sind die in einem Bild aus Vogelperspektive gezeigten Dinge vergrößert oder verkleinert, wie oben beschrieben. Wenn jedoch das Fahrzeug 1 in die Nick-Richtung geneigt wird, können die in einem Bild aus Vogelperspektive gezeigten Dinge in manchen Fällen vergrößert oder verkleinert aussehen. Ferner neigen diese angezeigten Bildveränderungen dazu, durch den Installationszustand der Fahrzeugkamera 2 beeinflusst zu werden, wie die Befestigungsposition (vorne, hinten, links oder rechts am Fahrzeug 1) und dem Unterschied im Absenkungsbetrag, welcher von der Härte eines Stoßfängers abhängt. Daher ist es wahrscheinlich, dass eine falsche Variable berechnet werden kann. In solch einer Situation sollten die Daten über die Tendenz der Stellungsveränderung des Fahrzeugs 1 und die Anzeigeveränderung eines Bildes aus Vogelperspektive vorab erlangt werden, während die Fahrzeugkamera 2 am Fahrzeug 1 angeordnet ist und dann sollten die erlangten Daten referenziert werden, um zu bestimmen, welche der drei Variablen, nämlich die Vertikalstellung, der Roll-Winkel und der Neigungs-Winkel der Fahrzeugkamera 2 berechnet werden soll.When the vertical posture of the vehicle 1 is changed, things shown in a bird's-eye view image are enlarged or reduced as described above. However, when the vehicle 1 is tilted in the pitching direction, things shown in a bird's-eye view image may look enlarged or reduced in some cases. Further, these displayed image changes tend to be affected by the installation state of the in-vehicle camera 2, such as the mounting position (front, rear, left, or right of the vehicle 1) and the difference in lowering amount, which depends on the hardness of a bumper. Therefore, it is likely that an incorrect variable can be calculated. In such a situation, the data on the tendency of the posture change of the vehicle 1 and the display change of a bird's-eye view image should be obtained in advance while the in-vehicle camera 2 is mounted on the vehicle 1, and then the obtained data should be referred to to determine which of the three variables, namely the vertical position, the roll angle and the tilt angle of the vehicle camera 2 are to be calculated.

Wenn ferner die Stellung des Fahrzeug 1 variiert, können sich in manchen Fällen der Nick-Winkel, der Roll-Winkel und die Vertikalstellung in einer komplexen Weise und nicht einzeln verändern. Auch in solch einer Situation kann, ob die Merkmalspunkt-Verteilung in Längsrichtung oder Querrichtung eines Bildes aus Vogelperspektive günstig ist, ähnlich der, ob der Nick-Richtungs-Winkel oder Roll-Richtungs-Winkel der Fahrzeugkamera 2 mit ausreichender Genauigkeit berechnet werden. Folglich sollte die zu berechnende Variable wie in 13 gezeigt gewählt werden.Furthermore, when the attitude of the vehicle 1 varies, in some cases the pitch angle, the roll angle, and the vertical attitude may change in a complex manner rather than individually. Even in such a situation, whether the feature point distribution in the longitudinal or lateral direction of a bird's-eye view image is favorable, similar to whether the pitch direction angle or roll direction angle of the vehicle camera 2 can be calculated with sufficient accuracy. Consequently, the variable to be calculated should be as in 13 shown can be selected.

13 zeigt eine beispielhafte Auswahl einer Variablen auf Basis der Merkmalspunkt-Verteilung. Wie oben beschrieben, ist die Merkmalspunkt-Verteilung unterteilt in die Längsrichtung und die Querrichtung eines Bildes aus Vogelperspektive und eine Klassifizierung erfolgt in Abhängigkeit davon, ob die Merkmalspunkt-Verteilung in Längsrichtung und die Merkmalspunkt-Verteilung in Querrichtung eine große oder geringe Weite aufweisen. 13 shows an exemplary selection of a variable based on the feature point distribution. As described above, the feature point distribution is divided into the longitudinal direction and the transverse direction of a bird's-eye view image, and classification is made depending on whether the longitudinal feature point distribution and the transverse direction feature point distribution are large or small in width.

Wenn die Merkmalspunkt-Verteilung eine geringe Weite in Längsrichtung und in Querrichtung aufweist, sind weder der Nick-Winkel, der Roll-Winkel noch die Vertikalstellung der Fahrzeugkamera 2 zu berechnen, wie zuvor in Verbindung mit dem vorliegenden Ausführungsbeispiel beschrieben.If the feature point distribution has a small width in the fore-and-aft direction and in the lateral direction, neither the pitch angle, the roll angle nor the vertical position of the in-vehicle camera 2 need to be calculated as described above in connection with the present embodiment.

Wenn die Merkmalspunkt-Verteilung eine große Weite in Längsrichtung und eine schmale Weite in Querrichtung aufweist, ist der Nick-Winkel zu berechnen. Der Grund dafür ist, dass es schwierig ist, den Roll-Winkel genau zu berechnen, wie unter Bezugnahme auf 11(b) erklärt wurde, obwohl der Nick-Winkel genau berechnet werden kann, wie unter Bezugnahme auf 10(b) erklärt.If the feature point distribution has a large longitudinal width and a narrow transverse width, calculate the pitch angle. The reason for this is that it is difficult to calculate the roll angle accurately as referred to 11(b) has been explained, although the pitch angle can be accurately calculated as referred to in FIG 10(b) explained.

Wenn die Merkmalspunkt-Verteilung eine geringe Weite in Längsrichtung und eine große Weite in Querrichtung aufweist, ist der Roll-Winkel zu berechnen. Der Grund dafür ist, dass es schwierig ist, den Nick-Winkel genau zu berechnen, wie unter Bezugnahme auf 10(c) erklärt, obwohl der Roll-Winkel genau berechnet werden kann, wie unter Bezugnahme auf 11(c) erklärt.If the feature point distribution has a small longitudinal amplitude and a large transverse amplitude, calculate the roll angle. The reason for this is that it is difficult to calculate the pitch angle accurately as referred to 10(c) explained, although the roll angle can be calculated exactly as with reference to 11(c) explained.

Wenn die Merkmalspunkt-Verteilung in Längsrichtung und in Querrichtung eine große Weite aufweist, können alle Variablen, nämlich der Nick-Winkel, der Roll-Winkel und die Vertikalstellung der Fahrzeugkamera 1 auf die gleiche Weise berechnet werden, wie in Verbindung mit dem vorliegenden Ausführungsbeispiel beschrieben. Abgesehen davon kann die Vertikalstellung der Fahrzeugkamera 2 berechnet werden, wenn die Merkmalspunkt-Verteilung eine große Weite in entweder der Längsrichtung oder der Querrichtung aufweist. Ferner kann die Vertikalstellung der Fahrzeugkamera 2 berechnet werden, wenn extrahierte Merkmalspunkte es ermöglichen, die Übereinstimmung der Größenordnung zu erreichen, wie die Breiten der Fahrbahnmarkierungen und der Stopp-Linie.When the feature point distribution has a large width in the longitudinal and lateral directions, all the variables, namely the pitch angle, the roll angle and the vertical position of the in-vehicle camera 1 can be calculated in the same manner as described in connection with the present embodiment . Besides, the vertical position of the in-vehicle camera 2 can be calculated when the feature point distribution has a large width in either the longitudinal direction or the lateral direction. Further, the vertical position of the in-vehicle camera 2 can be calculated when extracted feature points enable to achieve the agreement of magnitude, such as the widths of the lane markings and the stop line.

Wie unter Bezugnahme auf die 10 bis 13 beschrieben, kann die Genauigkeit der berechneten Variablen ordnungsgemäß aufrechterhalten werden, wenn die Merkmalspunkt-Verteilung in Längsrichtung und in Querrichtung bestätigt ist und, basierend auf dem Bestätigungsergebnis, nur eine günstige Variable, das heißt der Nick-Winkel, der Roll-Winkel oder die Vertikalstellung der Fahrzeugkamera selektiv berechnet wird. Ferner kann die für die Berechnung erforderliche Zeit durch Auswählen der zu berechnenden Variable reduziert werden. Dies macht es einfach, temporäre Änderungen in der Fahrzeugstellung zu bewältigen. Nicht ausgewählte Variablen können berechnet werden, wenn günstige Merkmalspunkte aus einem Bild aus Vogelperspektive erlangt werden, welches aus einer nachfolgenden Bildaufnahme abgeleitet wird. Schließlich wird die Umwandlungstabelle nach Bestätigung des Veränderungsbetrags in einer neu berechneten Variablen (S109 und S110 in 6) aktualisiert, wie in Verbindung mit dem vorliegenden Ausführungsbeispiel beschrieben.As referring to the 10 until 13 described, the accuracy of the calculated variables can be properly maintained when the feature point distribution in the longitudinal and lateral directions is confirmed and, based on the confirmation result, only one favorable variable, i.e., the pitch angle, the roll angle or the vertical position of the vehicle camera is calculated selectively. Furthermore, the time required for the calculation can be reduced by selecting the variable to be calculated. This makes it easy to cope with temporary changes in vehicle attitude. Unselected variables can be computed when favorable feature points are obtained from a bird's-eye view image derived from a subsequent image acquisition. Finally, after confirming the amount of change in a newly calculated variable (S109 and S110 in 6 ) updated as described in connection with the present embodiment.

Eine Alternative ist, alle Variablen ohne Rücksicht auf die Merkmalspunkt-Verteilung zu berechnen, wenn der Nick-Winkel, der Roll-Winkel und die Vertikalstellung der Fahrzeugkamera 2 berechnet werden sollen und die Umwandlung unter Verwendung einer, wie in 13 angegeben, ausgewählten Variablen zu aktualisieren, wenn die Umwandlungstabelle aktualisiert werden soll.An alternative is to calculate all variables regardless of the feature point distribution when the pitch angle, the roll angle and the vertical position of the vehicle camera 2 are to be calculated and the conversion using a as in 13 stated, selected variables if the conversion table is to be updated.

Die Bildumwandlungsvorrichtung 10 gemäß der oben beschriebenen Abwandlung berechnet einen von Nick-Winkel, Roll-Winkel und Vertikalstellung der Fahrzeugkamera 2, wenn sie günstig sind und referenziert die erhaltene, auf dem Berechnungsergebnis basierende, Umwandlungstabelle. Somit wird ein aufgenommenes Bild akkurat in ein Bild aus Vogelperspektive umgewandelt.The image converting device 10 according to the modification described above calculates one of the pitch angle, roll angle and vertical position of the in-vehicle camera 2 when they are favorable and refers to the obtained conversion table based on the calculation result. Thus, a captured image is accurately converted into a bird's-eye view image.

Claims (6)

Bildumwandlungsvorrichtung (10), welche ein aufgenommenes Bild von einer Fahrzeugkamera (2) erlangt, die die Umgebung eines Fahrzeugs (1) abbildet, das aufgenommene Bild in ein Bild aus Vogelperspektive umwandelt, welches eine Draufsicht von oben auf das Fahrzeug zeigt und das Bild aus Vogelperspektive auf einem fahrzeugseitigen Monitor (3) ausgibt, wobei die Bildumwandlungsvorrichtung aufweist: eine Bildumwandlungs-Einheit (12), welche das aufgenommene Bild auf Basis einer Position und eines Winkels der Fahrzeugkamera durch Bezugnahme auf eine Umwandlungstabelle in das Bild aus Vogelperspektive umwandelt, wobei die Umwandlungstabelle durch Berechnung, basierend auf der Position und dem Winkel der Fahrzeugkamera, von Pixelpositionen im aufgenommenen Bild erhalten wird, welche Pixelpositionen im Bild aus Vogelperspektive entsprechen; eine Merkmalspunkt-Extraktionseinheit (15), welche eine Vielzahl an Merkmalspunkten aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert; eine Berechnungsbestimmungs-Einheit (16), welche auf Basis einer Verteilung der Merkmalspunkte, die aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert werden, bestimmt, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind oder nicht; eine Berechnungs-Einheit (17), welche die Position und den Winkel der Fahrzeugkamera auf Basis der Merkmalspunkte berechnet, wenn die Berechnungsbestimmungs-Einheit bestimmt, dass die Position und der Winkel der Fahrzeugkamera zu berechnen sind; eine Veränderungsbetrag-Erlangungseinheit (18), welche durch Vergleichen der Position und des Winkels der Fahrzeugkamera, die durch die Berechnungs-Einheit neu berechnet werden, mit der vorherigen Position und dem vorherigen Winkel einen Veränderungsbetrag erlangt; und eine Umwandlungstabellen-Aktualisierungs-Einheit (19), welche, wenn der Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, die Umwandlungstabelle auf Basis der neu kalkulierten Position und dem neu kalkulierten Winkel der Fahrzeugkamera aktualisiert.An image converting device (10) which obtains a captured image from an in-vehicle camera (2) imaging the surroundings of a vehicle (1), converts the captured image into a bird's-eye view image showing a top view of the vehicle, and the image off outputs a bird's-eye view on an on-board monitor (3), the image conversion device having: an image converting unit (12) which converts the picked-up image into the bird's-eye view image based on a position and an angle of the vehicle camera by referring to a conversion table, the conversion table being calculated by calculation based on the position and the angle of the vehicle camera from pixel positions in the captured image are obtained which correspond to pixel positions in the bird's-eye view image; a feature point extraction unit (15) which extracts a plurality of feature points from the bird's-eye view image or from the captured image; a calculation determination unit (16) which determines whether or not to calculate the position and the angle of the in-vehicle camera based on a distribution of the feature points extracted from the bird's-eye view image or the captured image; a calculation unit (17) that calculates the position and the angle of the in-vehicle camera based on the feature points when the calculation determination unit determines that the position and the angle of the in-vehicle camera are to be calculated; a change amount obtaining unit (18) which obtains a change amount by comparing the position and angle of the vehicle camera recalculated by the calculation unit with the previous position and angle; and a conversion table updating unit (19) which, when the amount of change is equal to or smaller than a predetermined threshold amount of change, updates the conversion table based on the recalculated position and angle of the in-vehicle camera. Bildumwandlungsvorrichtung nach Anspruch 1, wobei die Berechnungsbestimmungs-Einheit basierend auf der Weite der Verteilung der Merkmalspunkte, welche aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert werden, bestimmt, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind.image conversion device claim 1 wherein the calculation determination unit determines whether to calculate the position and the angle of the in-vehicle camera based on the width of the distribution of the feature points extracted from the bird's-eye view image or the captured image. Bildumwandlungsvorrichtung (10), welche ein aufgenommenes Bild von einer Fahrzeugkamera (2) erlangt, die die Umgebung eines Fahrzeugs (1) abbildet, das aufgenommene Bild in ein Bild aus Vogelperspektive umwandelt, welches eine Draufsicht von oben auf das Fahrzeug zeigt und das Bild aus Vogelperspektive auf einem fahrzeugseitigen Monitor (3) ausgibt, wobei die Bildumwandlungsvorrichtung aufweist: eine Bildumwandlungs-Einheit (12), welche das aufgenommene Bild auf Basis einer Position und eines Winkels der Fahrzeugkamera in das Bild aus Vogelperspektive umwandelt; eine Merkmalspunkt-Extraktionseinheit (15), welche eine Vielzahl an Merkmalspunkten aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert; eine Berechnungsbestimmungs-Einheit (16), welche auf Basis einer Verteilung der Merkmalspunkte, die aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert werden, bestimmt, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind oder nicht; und eine Veränderungsbetrag-Erlangungseinheit (18), welche durch Vergleichen der Position und des Winkels der Fahrzeugkamera, die durch die Berechnungs-Einheit neu berechnet werden, mit der vorherigen Position und dem vorherigen Winkel einen Veränderungsbetrag erlangt; wobei wenn die Weite der Verteilung der Merkmalspunkte in einer Längsrichtung des Bildes aus Vogelperspektive größer als ein zuvor festgelegter erster Schwellenwert ist, die Berechnungsbestimmungs-Einheit bestimmt, dass ein Nick-Winkel zu berechnen ist, wobei der Nick-Winkel eine optische Achse der Fahrzeugkamera veranlasst, sich in eine Aufwärts-Abwärts-Richtung zu bewegen; und wenn die Weite der Verteilung der Merkmalspunkte in einer Querrichtung des Bildes aus Vogelperspektive größer als ein zuvor festgelegter zweiter Schwellenwert ist, die Berechnungsbestimmungs-Einheit bestimmt, dass ein Roll-Winkel zu berechnen ist, wobei der Roll-Winkel die Fahrzeugkamera veranlasst, um die optische Achse zu rotieren.An image converting device (10) which obtains a captured image from an in-vehicle camera (2) imaging the surroundings of a vehicle (1), converts the captured image into a bird's-eye view image showing a top view of the vehicle, and the image off outputs a bird's-eye view on an on-board monitor (3), the image conversion device having: an image converting unit (12) that converts the captured image into the bird's-eye view image based on a position and an angle of the vehicle camera; a feature point extraction unit (15) which extracts a plurality of feature points from the bird's-eye view image or from the captured image; a calculation determination unit (16) which determines whether or not to calculate the position and the angle of the in-vehicle camera based on a distribution of the feature points extracted from the bird's-eye view image or the captured image; and a change amount obtaining unit (18) which obtains a change amount by comparing the position and angle of the vehicle camera recalculated by the calculation unit with the previous position and angle; whereby when the width of the distribution of the feature points in a longitudinal direction of the bird's-eye view image is larger than a predetermined first threshold value, the calculation determination unit determines that a pitch angle is to be calculated, the pitch angle causing an optical axis of the vehicle camera, to move in an up-down direction; and when the width of the distribution of the feature points in a lateral direction of the bird's-eye view image is greater than a predetermined second threshold, the calculation determination unit determines that a roll angle is to be calculated, the roll angle causing the vehicle camera to rotate the optical axis to rotate. Bildumwandlungsvorrichtung nach einem der Ansprüche 1 bis 3, weiterhin mit einer Extraktions-Bestimmungs-Einheit (14), welche auf Basis der umgebenden Umwelt des Fahrzeugs oder der Ermittlungs-Informationen, welche durch einen Detektor (4) erlangt werden, der einen Zustand des Fahrzeugs feststellt, bestimmt, ob die Merkmalspunkte extrahiert werden oder nicht.Image conversion device according to one of Claims 1 until 3 , Further with an extraction determination unit (14), which on the basis of the surrounding environment of the vehicle or the Detection information obtained by a detector (4) detecting a condition of the vehicle determines whether or not the feature points are extracted. Bildumwandlungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Merkmalspunkt-Extraktionseinheit die Merkmalspunkte aus dem Bild aus Vogelperspektive extrahiert.Image conversion device according to one of Claims 1 until 4 , wherein the feature point extraction unit extracts the feature points from the bird's-eye view image. Bildumwandlungsverfahren, welches auf ein Fahrzeug angewandt wird, welches eine Fahrzeugkamera, welche die Umgebung des Fahrzeugs zeigt, aufweist, wobei ein von der Fahrzeugkamera aufgenommenes Bild erlangt wird, das erlangte aufgenommene Bild in ein Bild aus Vogelperspektive, das eine Draufsicht von oben auf das Fahrzeug zeigt, umgewandelt wird und das Bild aus Vogelperspektive auf einem fahrzeugseitigen Monitor angezeigt wird, wobei das Bildumwandlungsverfahren aufweist: einen Schritt (S104) zur Umwandlung des aufgenommenen Bildes in ein Bild aus Vogelperspektive, basierend auf Position und Winkel der Fahrzeugkamera durch Bezugnahme auf eine Umwandlungstabelle, wobei die Umwandlungstabelle durch Berechnung, basierend auf der Position und dem Winkel der Fahrzeugkamera, von Pixelpositionen im aufgenommenen Bild erhalten wird, welche Pixelpositionen im Bild aus Vogelperspektive entsprechen; einen Schritt (S105) zur Extraktion einer Vielzahl an Merkmalspunkten aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild; einen Schritt (S107) zur Bestimmung, basierend auf der Verteilung der Merkmalspunkte, welche vom Bild aus Vogelperspektive oder vom aufgenommenen Bild extrahiert sind, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind oder nicht; einen Schritt (S108) zur Berechnung der Position und des Winkels der Fahrzeugkamera auf Basis der Merkmalspunkte, wenn bestimmt ist, dass die Position und der Winkel der Fahrzeugkamera zu berechnen sind; einen Schritt (S109) zur Erlangung eines Veränderungsbetrages durch Vergleichen der in dem Schritt (S108) neu berechneten Position und dem Winkel der Fahrzeukamera mit der vorherigen Position und dem Winkel; und einen Schritt (S111) zur, wenn der Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, Aktualisierung der Umwandlungstabelle auf Basis der neu berechneten Position und dem Winkel der Fahrzeugkamera.Image conversion method applied to a vehicle having an in-vehicle camera showing surroundings of the vehicle, wherein an image picked up by the in-vehicle camera is acquired, the acquired picked-up image into a bird's-eye view image showing a top view of the vehicle shows is converted and the bird's-eye view image is displayed on an on-vehicle monitor, the image conversion method comprising: a step (S104) of converting the captured image into a bird's-eye view image based on the position and angle of the vehicle camera by referring to a conversion table, the conversion table obtained by calculating, based on the position and angle of the vehicle camera, pixel positions in the captured image obtaining which pixel positions in the bird's-eye view image correspond; a step (S105) of extracting a plurality of feature points from the bird's-eye view image or from the captured image; a step (S107) of determining, based on the distribution of the feature points extracted from the bird's-eye view image or the captured image, whether or not to calculate the position and the angle of the in-vehicle camera; a step (S108) of calculating the position and the angle of the in-vehicle camera based on the feature points when it is determined that the position and the angle of the in-vehicle camera are to be calculated; a step (S109) of obtaining a change amount by comparing the position and angle of the vehicle camera recalculated in step (S108) with the previous position and angle; and a step (S111) of, when the amount of change is equal to or smaller than a predetermined threshold amount of change, updating the conversion table based on the recalculated position and the angle of the in-vehicle camera.
DE112015005317.4T 2014-11-26 2015-11-03 IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD Active DE112015005317B4 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014-239377 2014-11-26
JP2014239377A JP6507590B2 (en) 2014-11-26 2014-11-26 Image conversion apparatus and image conversion method
PCT/JP2015/005512 WO2016084308A1 (en) 2014-11-26 2015-11-03 Image transformation apparatus and image transformation method

Publications (2)

Publication Number Publication Date
DE112015005317T5 DE112015005317T5 (en) 2017-08-24
DE112015005317B4 true DE112015005317B4 (en) 2022-01-27

Family

ID=56073907

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015005317.4T Active DE112015005317B4 (en) 2014-11-26 2015-11-03 IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD

Country Status (3)

Country Link
JP (1) JP6507590B2 (en)
DE (1) DE112015005317B4 (en)
WO (1) WO2016084308A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6565769B2 (en) * 2016-04-03 2019-08-28 株式会社デンソー In-vehicle camera mounting angle detection device, mounting angle calibration device, mounting angle detection method, mounting angle calibration method, and computer program
CN111246098B (en) * 2020-01-19 2022-02-22 深圳市人工智能与机器人研究院 Robot photographing method and device, computer equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080007619A1 (en) 2006-06-29 2008-01-10 Hitachi, Ltd. Calibration Apparatus of On-Vehicle Camera, Program, and Car Navigation System
JP2008131250A (en) 2006-11-20 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera and production method for vehicle using same correcting device
US20080181591A1 (en) 2007-01-26 2008-07-31 Sanyo Electric Co., Ltd. Camera posture estimation device, vehicle, and camera posture estimation method
US20130135474A1 (en) 2011-11-28 2013-05-30 Clarion Co., Ltd. Automotive Camera System and Its Calibration Method and Calibration Program
JP2013222302A (en) 2012-04-16 2013-10-28 Alpine Electronics Inc Mounting angle correction device for in-vehicle camera and mounting angle correction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080007619A1 (en) 2006-06-29 2008-01-10 Hitachi, Ltd. Calibration Apparatus of On-Vehicle Camera, Program, and Car Navigation System
JP2008131250A (en) 2006-11-20 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera and production method for vehicle using same correcting device
US20080181591A1 (en) 2007-01-26 2008-07-31 Sanyo Electric Co., Ltd. Camera posture estimation device, vehicle, and camera posture estimation method
US20130135474A1 (en) 2011-11-28 2013-05-30 Clarion Co., Ltd. Automotive Camera System and Its Calibration Method and Calibration Program
JP2013222302A (en) 2012-04-16 2013-10-28 Alpine Electronics Inc Mounting angle correction device for in-vehicle camera and mounting angle correction method

Also Published As

Publication number Publication date
DE112015005317T5 (en) 2017-08-24
JP6507590B2 (en) 2019-05-08
WO2016084308A1 (en) 2016-06-02
JP2016100887A (en) 2016-05-30

Similar Documents

Publication Publication Date Title
DE102008030555B4 (en) Device for processing stereo images
DE102008031784B4 (en) Method and apparatus for distortion correction and image enhancement of a vehicle rearview system
DE102016206117B4 (en) ROAD SURFACE DETECTION DEVICE AND ROAD SURFACE DETECTION SYSTEM
DE112015004628B4 (en) Imaging device and imaging method
DE102015104453A1 (en) Stereo image processing device for a vehicle
DE112015004637T5 (en) On-board camera calibration device, image generator, on-board camera calibration method and image generation method
DE102011109440A1 (en) Method for adjusting and / or calibrating at least one headlight of a vehicle
DE102014117888A1 (en) Online calibration of a motor vehicle camera system
DE102016212405A1 (en) Vehicle image processing apparatus and vehicle image processing system
DE102010030044A1 (en) Restoration device for weather-impaired images and driver assistance system hereby
DE102013203868A1 (en) VEHICLE MONITORING DEVICE ENVIRONMENT
DE112012003040T5 (en) Lane detection device
DE102018131424B4 (en) Vehicle and control method therefor
DE112016000689T5 (en) Kameraparametereinstellvorrichtung
WO2014139783A1 (en) Method and device for determining a visual range in daytime fog
DE102014012653A1 (en) Image processing method for vehicle camera and this image processing apparatus
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
EP3815044B1 (en) Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus
DE102015209764A1 (en) Extrinsic calibration of an image capture device of a vehicle
DE112015002764B4 (en) Mounting angle adjustment method and mounting angle detection device for on-board camera
DE102021131051A1 (en) Image recording system and image recording device
DE112015005317B4 (en) IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD
EP2131598A2 (en) Stereo camera system and method of determining at least one calibration error in a stereo camera system
DE102013103953A1 (en) Method for recognizing vehicle traveling lane, involves determining whether boundary line representations are rectilinear within threshold, and using model matching method to identify boundary lines in every frame if threshold is met

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final