DE112015005317B4 - IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD - Google Patents
IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD Download PDFInfo
- Publication number
- DE112015005317B4 DE112015005317B4 DE112015005317.4T DE112015005317T DE112015005317B4 DE 112015005317 B4 DE112015005317 B4 DE 112015005317B4 DE 112015005317 T DE112015005317 T DE 112015005317T DE 112015005317 B4 DE112015005317 B4 DE 112015005317B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- angle
- vehicle
- bird
- vehicle camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims description 28
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 107
- 240000004050 Pentaglottis sempervirens Species 0.000 claims abstract description 103
- 238000009826 distribution Methods 0.000 claims abstract description 75
- 230000008859 change Effects 0.000 claims abstract description 42
- 238000004364 calculation method Methods 0.000 claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims 2
- 230000007613 environmental effect Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 18
- 230000005855 radiation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000002349 favourable effect Effects 0.000 description 9
- 230000007423 decrease Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008439 repair process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Bildumwandlungsvorrichtung (10), welche ein aufgenommenes Bild von einer Fahrzeugkamera (2) erlangt, die die Umgebung eines Fahrzeugs (1) abbildet, das aufgenommene Bild in ein Bild aus Vogelperspektive umwandelt, welches eine Draufsicht von oben auf das Fahrzeug zeigt und das Bild aus Vogelperspektive auf einem fahrzeugseitigen Monitor (3) ausgibt, wobei die Bildumwandlungsvorrichtung aufweist:eine Bildumwandlungs-Einheit (12), welche das aufgenommene Bild auf Basis einer Position und eines Winkels der Fahrzeugkamera durch Bezugnahme auf eine Umwandlungstabelle in das Bild aus Vogelperspektive umwandelt, wobei die Umwandlungstabelle durch Berechnung, basierend auf der Position und dem Winkel der Fahrzeugkamera, von Pixelpositionen im aufgenommenen Bild erhalten wird, welche Pixelpositionen im Bild aus Vogelperspektive entsprechen;eine Merkmalspunkt-Extraktionseinheit (15), welche eine Vielzahl an Merkmalspunkten aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert;eine Berechnungsbestimmungs-Einheit (16), welche auf Basis einer Verteilung der Merkmalspunkte, die aus dem Bild aus Vogelperspektive oder aus dem aufgenommenen Bild extrahiert werden, bestimmt, ob die Position und der Winkel der Fahrzeugkamera zu berechnen sind oder nicht;eine Berechnungs-Einheit (17), welche die Position und den Winkel der Fahrzeugkamera auf Basis der Merkmalspunkte berechnet, wenn die Berechnungsbestimmungs-Einheit bestimmt, dass die Position und der Winkel der Fahrzeugkamera zu berechnen sind;eine Veränderungsbetrag-Erlangungseinheit (18), welche durch Vergleichen der Position und des Winkels der Fahrzeugkamera, die durch die Berechnungs-Einheit neu berechnet werden, mit der vorherigen Position und dem vorherigen Winkel einen Veränderungsbetrag erlangt; undeine Umwandlungstabellen-Aktualisierungs-Einheit (19), welche, wenn der Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, die Umwandlungstabelle auf Basis der neu kalkulierten Position und dem neu kalkulierten Winkel der Fahrzeugkamera aktualisiert.An image converting device (10) which obtains a captured image from an in-vehicle camera (2) imaging the surroundings of a vehicle (1), converts the captured image into a bird's-eye view image showing a top view of the vehicle, and the image off outputs a bird's eye view on an on-vehicle monitor (3), the image converting device comprising:an image converting unit (12) which converts the captured image into the bird's eye view image based on a position and an angle of the vehicle camera by referring to a conversion table, wherein the conversion table obtained by calculating, based on the position and the angle of the vehicle camera, pixel positions in the captured image which correspond to pixel positions in the bird's-eye view image;a feature point extracting unit (15) extracting a plurality of feature points from the bird's-eye view image or from extrahi to the captured image ert;a calculation determination unit (16) which determines whether or not to calculate the position and the angle of the in-vehicle camera based on a distribution of the feature points extracted from the bird's-eye view image or the captured image;a calculation - a unit (17) which calculates the position and the angle of the in-vehicle camera based on the feature points when the calculation determination unit determines that the position and the angle of the in-vehicle camera are to be calculated;a change amount obtaining unit (18) which, by comparing the position and angle of the in-vehicle camera recalculated by the calculation unit with the previous position and angle acquires a change amount; anda conversion table updating unit (19) which, when the amount of change is equal to or smaller than a predetermined threshold amount of change, updates the conversion table based on the recalculated position and angle of the in-vehicle camera.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Die vorliegende Erfindung bezieht sich auf eine Technologie zur Anpassung von Einstellungen, welche auf ein Fahrzeug angewandt wird, das eine Fahrzeugkamera aufweist, um ein von der Fahrzeugkamera erlangtes aufgenommenes Bild in ein Bild aus Vogelperspektive umzuwandeln.The present invention relates to a setting adjustment technology applied to a vehicle having an in-vehicle camera to convert a picked-up image obtained by the in-vehicle camera into a bird's-eye view image.
STAND DER TECHNIKSTATE OF THE ART
Verschiedene kommerzialisierte Technologien ermöglichen es einem Fahrer eines Fahrzeugs, die Umgebung des Fahrzeugs durch die Aufnahme eines Bildes von der Umgebung des Fahrzeugs mit einer Fahrzeugkamera und Anzeige des erhaltenen aufgenommenen Bildes auf einem fahrzeugseitigen Monitor zu betrachten. Weiterhin wandeln weit verbreitete Technologien das durch die Fahrzeugkamera erlangte aufgenommene Bild in ein Bild aus Vogelperspektive um und zeigen das Bild aus Vogelperspektive auf dem fahrzeugseitigen Monitor an, anstatt einfach das durch die Fahrzeugkamera erlangte aufgenommene Bild auf dem fahrzeugseitigen Monitor anzuzeigen. Das Bild aus Vogelperspektive bezieht sich auf ein Bild, welches durch Umwandlung des aufgenommenen Bildes in einer solchen Weise erhalten wird, dass es eine Draufsicht der Umgebung des Fahrzeugs zeigt. Wenn die Vogelperspektive durch akkurate Umwandlung erhalten wird, zeigt sie die aktuelle Positionsbeziehung zwischen dem Fahrzeug und beispielsweise einem Fremdfahrzeug oder einem Fußgänger. Folglich ermöglicht das Betrachten des erhaltenen Bildes aus Vogelperspektive dem Fahrer, die Umgebung des Fahrzeugs einfach und akkurat zu erfassen. Um das aufgenommene Bild in ein akkurates Bild aus Vogelperspektive umzuwandeln ist, es notwendig, die Position und den Winkel der Fahrzeugkamera akkurat zu erlangen.Various commercialized technologies enable a driver of a vehicle to view the surroundings of the vehicle by capturing an image of the surroundings of the vehicle with an in-vehicle camera and displaying the obtained captured image on an on-vehicle monitor. Furthermore, widespread technologies convert the picked-up image acquired by the in-vehicle camera into a bird's-eye view image and display the bird's-eye view image on the in-vehicle monitor instead of simply displaying the picked-up image acquired by the in-vehicle camera on the in-vehicle monitor. The bird's-eye view image refers to an image obtained by converting the captured image in such a manner as to show a plan view of the surroundings of the vehicle. When the bird's-eye view is obtained through accurate conversion, it shows the current positional relationship between the vehicle and, for example, another vehicle or a pedestrian. Consequently, viewing the obtained bird's-eye view image enables the driver to easily and accurately grasp the surroundings of the vehicle. In order to convert the captured image into an accurate bird's-eye view image, it is necessary to acquire the position and angle of the vehicle camera accurately.
Dementsprechend werden die Position und der Winkel der Fahrzeugkamera vor der werksseitigen Auslieferung des Fahrzeugs individuell gemessen, um die Fahrzeugkamera auf Basis der Konstruktionsanforderungen zu positionieren und auszurichten und den Einfluss von Montagefehlern zu reduzieren. Die Position und der Winkel der Fahrzeugkamera kann in nachfolgend beschriebener Weise berechnet werden. Zuerst wird eine Vielzahl an Merkmalspunkten aus dem von der Fahrzeugkamera erlangten aufgenommenen Bild extrahiert. Zweitens werden Koordinaten auf dem aufgenommenen Bild, auf welchem sich die Merkmalspunkte befinden, mit Koordinaten in einem aktuell erfassten Raum assoziiert. Drittens werden die Positionen der assoziierten Merkmalspunkte in einer relationalen Formel mit Variablen ersetzt, welche die Position und den Winkel der Fahrzeugkamera abbilden. Schließlich wird die resultierende relationale Formel gelöst, um die Position und den Winkel der Fahrzeugkamera zu berechnen.Accordingly, before the vehicle is shipped from the factory, the position and angle of the in-vehicle camera are individually measured to position and align the in-vehicle camera based on the design requirements and reduce the influence of assembly errors. The position and angle of the vehicle camera can be calculated in a manner described below. First, a plurality of feature points are extracted from the captured image obtained by the vehicle camera. Second, coordinates on the captured image on which the feature points are located are associated with coordinates in a currently captured space. Third, the positions of the associated feature points are replaced in a relational formula with variables that represent the position and angle of the vehicle's camera. Finally, the resulting relational formula is solved to calculate the position and angle of the vehicle camera.
Die Position und der Winkel der an dem Fahrzeug befestigten Fahrzeugkamera können nachträglich variieren, beispielsweise durch nach der werksseitigen Auslieferung gelockerte Befestigungselemente. Im Falle einer solchen unbeabsichtigten Variation unterscheiden sich die Position und der Winkel der Fahrzeugkamera von denen, die vor dem werksseitigen Versand eingestellt wurden. Eine Technologie, welche unter solchen Umständen vorgeschlagen wird, extrahiert Merkmalspunkte von einem während der Fahrt des Fahrzeugs aufgenommenen Bild und berechnet die Position und den Winkel der Fahrzeugkamera neu (siehe
Aus der
Die
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Dennoch erreicht die oben vorgeschlagene Technologie nicht immer eine ausreichende Genauigkeit, obwohl die Merkmalspunkte aus einem aufgenommenen Bild extrahiert werden, um die Position und den Winkel der Fahrzeugkamera in der gleichen Weise wie in einer Autowerkstatt zu berechnen.However, although the feature points are extracted from a captured image to calculate the position and angle of the vehicle camera in the same manner as in a car repair shop, the technology proposed above does not always achieve sufficient accuracy.
Es ist Aufgabe der vorliegenden Erfindung, eine Technologie bereitzustellen, um die Position und den Winkel einer Fahrzeugkamera akkurat zu berechnen und ein aufgenommenes Bild in ein akkurates Bild aus Vogelperspektive umzuwandeln, ohne ein Fahrzeug in eine Autowerkstatt bringen zu müssen.It is an object of the present invention to provide a technology for accurately calculating the position and angle of a vehicle camera and storing a captured image in a battery rates to convert a bird's-eye view image without having to take a vehicle to an auto repair shop.
Die Aufgabe wird jeweils durch eine Bildumwandlungsvorrichtung nach den Ansprüchen 1 und 3 sowie ein Bildumwandlungsverfahren nach dem Anspruch 6 gelöst. Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.The object is achieved by an image conversion device according to
Die Merkmalspunkte können künstlich angeordnet werden, zum Beispiel in einer Autowerkstatt. Die Position und der Winkel der Fahrzeugkamera können durch Verwendung der Merkmalspunkte berechnet werden, welche eine zur Kalkulation der Position und des Winkels der Fahrzeugkamera geeignete Verteilung aufweisen. Wenn das Fahrzeug fährt, werden die Merkmalspunkte aus der aktuellen Umgebung innerhalb eines Bildgebungsbereichs extrahiert. Als Ergebnis sind Merkmalspunkte mit verschiedenen Verteilungen extrahiert. Während das Fahrzeug fährt, werden die für die Kalkulation der Position und des Winkels der Fahrzeugkamera geeigneten Merkmalspunkte nicht unbedingt extrahiert. Daher wird die Position und der Winkel der Fahrzeugkamera auch während der Fahrt des Fahrzeugs akkurat berechnet, solange die Position und der Winkel der Fahrzeugkamera berechnet sind, wobei die extrahierten Merkmalspunkte eine zur Kalkulation der Position und des Winkels der Fahrzeugkamera geeignete Verteilung aufweisen. Infolgedessen wird das aufgenommene Bild akkurat in ein Bild aus Vogelperspektive umgewandelt.The feature points can be arranged artificially, for example in a car repair shop. The position and the angle of the in-vehicle camera can be calculated by using the feature points having a distribution suitable for calculating the position and the angle of the in-vehicle camera. When the vehicle is running, the feature points are extracted from the current environment within an imaging area. As a result, feature points with various distributions are extracted. While the vehicle is running, the feature points suitable for calculating the position and angle of the vehicle camera are not necessarily extracted. Therefore, as long as the position and angle of the in-vehicle camera are calculated, the position and angle of the in-vehicle camera is accurately calculated even while the vehicle is running, and the extracted feature points have a distribution suitable for calculating the position and angle of the in-vehicle camera. As a result, the captured image is accurately converted to a bird's-eye view image.
Figurenlistecharacter list
Die obig ausgeführten sowie weitere Aspekte, Funktionen und Vorteile der vorliegenden Offenbarung ergeben sich aus der folgenden Beschreibung unter Bezugnahme auf die zugehörige Zeichnung. In der Zeichnung ist:
-
1 ein Diagramm, welches ein Fahrzeug zeigt, in welchem eine Bildumwandlungsvorrichtung entsprechend einem Ausführungsbeispiel der vorliegenden Erfindung angeordnet ist; -
2 eine Reihe von schematischen Diagrammen, welche Prinzipien der Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive zeigen; -
3 eine Reihe von Diagrammen, welche zeigen, wie eine Umwandlungstabelle zur Umwandlung eines aufgenommenen Bildes in ein Bild aus Vogelperspektive verwendet wird; -
4 ein Blockdiagramm, welches die interne Struktur der Bildumwandlungsvorrichtung zeigt; -
5 ein Flussdiagramm, welches die erste Hälfte eines Umwandlungstabellen-Aktualisierungsprozesses zeigt, der durch die Bildumwandlungsvorrichtung ausgeführt wird; -
6 ein Flussdiagramm, welches die zweite Hälfte des Umwandlungstabellen-Aktualisierungsprozesses zeigt, der durch die Bildumwandlungsvorrichtung ausgeführt wird; -
7 eine Reihe von Diagrammen, welche konkrete Beispiele für Umgebungswerte zeigen, die an die Werte-Sensoren gegeben werden; -
8 eine Reihe von Diagrammen, welche zeigen, wie Merkmalspunkte aus dem aufgenommenen Bild und aus dem Bild aus Vogelperspektive extrahiert werden; -
9 eine Reihe von Diagrammen, welche zeigen, wie die Verteilungen der Merkmalspunkte bestätigt werden; -
10 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug in Nick-Richtung geneigt ist; -
11 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug in Roll-Richtung geneigt ist; -
12 eine Reihe von Diagrammen, welche ein Bild aus Vogelperspektive zeigen, das erhalten wird, wenn das Fahrzeug nach unten abgesenkt ist; und -
13 ein Diagramm, welches die Auswahl einer Variablen aus dem Nick-Winkel, dem Roll-Winkel und der Vertikalstellung einer Fahrzeugkamera auf Basis der Verteilung von Merkmalspunkten zeigt.
-
1 14 is a diagram showing a vehicle in which an image converting device according to an embodiment of the present invention is mounted; -
2 Fig. 12 is a series of schematic diagrams showing principles of converting a captured image into a bird's-eye view image; -
3 Fig. 12 is a series of diagrams showing how a conversion table is used to convert a captured image into a bird's-eye view image; -
4 Fig. 14 is a block diagram showing the internal structure of the image converting device; -
5 Fig. 14 is a flowchart showing the first half of a conversion table update process performed by the image conversion device; -
6 Fig. 14 is a flowchart showing the second half of the conversion table update process performed by the image conversion device; -
7 a series of charts showing concrete examples of environmental values given to the value sensors; -
8th a series of diagrams showing how feature points are extracted from the captured image and from the bird's-eye view image; -
9 a series of graphs showing how feature point distributions are confirmed; -
10 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is inclined in the pitch direction; -
11 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is inclined in the roll direction; -
12 Fig. 14 is a series of diagrams showing a bird's-eye view image obtained when the vehicle is lowered down; and -
13 Fig. 12 is a diagram showing selection of one of pitch angle, roll angle and vertical position of a vehicle camera based on feature point distribution.
AUSFÜHRUNGSBEISPIEL ZUR AUSFÜHRUNG DER ERFINDUNGEMBODIMENT FOR CARRYING OUT THE INVENTION
Nachfolgend wird ein Ausführungsbeispiel einer Bildumwandlungsvorrichtung gemäß der vorliegenden Erfindung beschrieben.An embodiment of an image converting apparatus according to the present invention will be described below.
A-1. Konfiguration der Vorrichtung gemäß dem vorliegenden AusführungsbeispielA-1. Configuration of the device according to the present embodiment
Die Fahrzeugkamera 2 ist eine Weitwinkelkamera, welche ein Fischaugenobjektiv aufweist. Ein durch die Fahrzeugkamera 2 aufgenommenes Bild zeigt die vordere Umgebung des Fahrzeugs 1 einschließlich einer Fahrbahnoberfläche. Die Bildumwandlungsvorrichtung 10 erlangt ein aufgenommenes Bild von der Fahrzeugkamera 2, wandelt das aufgenommene Bild in ein Bild aus Vogelperspektive um und gibt das Bild aus Vogelperspektive auf dem fahrzeugseitigen Monitor 3 aus. Das aufgenommene Bild zeigt die Fahrbahnoberfläche. Somit zeigt das durch Umwandlung des aufgenommenen Bildes erhaltene Bild aus Vogelperspektive eine Draufsicht auf die Fahrbahnoberfläche vor dem Fahrzeug 1. Die Umwandlung des aufgenommenen Bildes in das Bild aus Vogelperspektive wird nachfolgend beschrieben.The
Die auf dem aufgenommenen Bild gezeigte Fahrbahnoberfläche ist in
Hinsichtlich der Beziehung zwischen dem Bildgebungsbereich und der Position und dem Winkel der Fahrzeugkamera 2 werden die Position und die Form eines trapezförmigen Bereichs der Fahrbahnoberfläche 21 auf Basis der Position und des Winkels der Fahrzeugkamera 2 als Bildgebungsbereich, welcher in
Die Fahrzeugkamera 2 ist am Fahrzeug 1 angeordnet. Unter normalen Bedingungen kann daher die Position und der Winkel der Fahrzeugkamera 2 gegenüber der Fahrbahnoberfläche 21 als konstant angesehen werden. Dadurch weist die Bildumwandlungsvorrichtung 10 eine vorbereitete Umwandlungstabelle auf, welche durch die Berechnung der Projektionsbeziehung unter zuvor festgelegten Bedingungen, dass die Position und der Winkel der Fahrzeugkamera 2 konstant sind, erhalten wird. Die Projektionsbeziehung ist so, wie unter Bezugnahme auf
Wie oben beschrieben wird die Umwandlungstabelle auf Basis der Position und des Winkels der Fahrzeugkamera 2 vorbereitet. Daher ist die Bildumwandlungsvorrichtung 10 nicht nur zur Umwandlung des aufgenommenen Bildes in das Bild aus Vogelperspektive in der Lage, sondern ebenso zur Neuberechnung der Position und des Winkels der Fahrzeugkamera 2 und zur Aktualisierung der Umwandlungstabelle auf Basis der neu berechneten Position und des Winkels.As described above, the conversion table is prepared based on the position and the angle of the in-
Um die Position und den Winkel der Fahrzeugkamera 2 zu berechnen und die Umwandlungstabelle zu aktualisieren, weist die Bildumwandlungsvorrichtung 10 weiterhin eine Werte-Auswertungs-Einheit 14, eine Merkmalspunkt-Extraktionseinheit 15, eine Berechnungsbestimmungs-Einheit 16, eine Berechnungs-Einheit 17, eine Veränderungsbetrag-Erlangungseinheit 18 und eine Umwandlungstabellen-Aktualisierungs-Einheit 19 auf.In order to calculate the position and angle of the in-
Die Werte-Auswertungs-Einheit 14 erlangt die Ermittlungs-Informationen, welche durch die Sensoren, die das Fahrzeug 1 aufweist, erlangt wurden, und zwar von dem Fahrzeuggeschwindigkeits-Sensor 41, dem Lenk-Sensor 42, den Höhen-Sensoren 43a-43d, dem Solarstrahlungs-Sensor 44 und dem Regen-Sensor 45. Diese Sensoren werden folgend allgemein als Werte-Sensoren 4 bezeichnet. Die Werte-Auswertungs-Einheit 14 gibt auf Basis der von jedem der Werte-Sensoren 4 erlangten Informationen einen Wert an und wertet diese Punktezahl in umfassender Art und Weise aus. Die Auswertung der Werte wird später ausführlich beschrieben. In Kürze: Die Auswertung der Werte erfolgt durch Wertung der Informationen über die Umgebung des Fahrzeugs 1 oder den Zustand des Fahrzeugs 1 und bestimmt, ob die aktuelle Situation zur Merkmalspunkt-Extraktion geeignet ist. Merkmalspunkte haben Auffälligkeiten innerhalb eines aufgenommenen Bildes einer Szene und können von anderen Punkten unterschieden werden. Weiterhin sind die Merkmalspunkte so, dass ihre Koordinaten innerhalb eines aufgenommenen Bildes oder eines Bildes aus Vogelperspektive, welche die Szene zeigen, identifiziert werden können. Die Merkmalspunkte werden extrahiert, um die Lage und den Winkel der Fahrzeugkamera 2 zu berechnen.The
Die Werte-Auswertungs-Einheit 14 bestimmt, ob die Merkmalspunkte wie oben beschrieben extrahiert werden oder nicht und entspricht somit einer Extraktions-Bestimmungs-Einheit.The
Die Merkmalspunkt-Extraktionseinheit 15 extrahiert eine Vielzahl an Merkmalspunkten aus einem aufgenommenen Bild oder aus einem Bild aus Vogelperspektive, um die Position und den Winkel der Fahrzeugkamera 2 zu berechnen.The feature
Die Berechnungsbestimmungs-Einheit 16 bestätigt die Verteilung der Merkmalspunkte und bestimmt auf Basis von Informationen, welche die Weite der bestätigten Verteilung angeben, ob die Position und der Winkel der Fahrzeugkamera 2 zu berechnen sind oder nicht.The
Die Berechnungs-Einheit 17 berechnet die Position und den Winkel der Fahrzeugkamera 2 basierend auf den extrahierten Merkmalspunkten. Die Position und der Winkel der Fahrzeugkamera 2 werden berechnet durch Verwendung der Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten, welche aus einem aufgenommenen Bild oder aus einem Bild aus Vogelperspektive extrahiert sind, mit der Positionsbeziehung zwischen einer Vielzahl von Merkmalspunkten aus einem aktuell aufgenommenen Bild einer Szene. Ein Verfahren zur Berechnung der Position und des Winkels der Fahrzeugkamera 2 ist bekannt und wird nicht im Detail beschrieben.The
Die Veränderungsbetrag-Erlangungseinheit 18 erlangt einen Veränderungsbetrag durch Vergleichen der Position und des Winkels, welche von der Berechnungs-Einheit neu berechnet wurden, mit der vorherigen Position und dem Winkel.The change
Wenn der durch die Veränderungsbetrag-Erlangungseinheit 18 erlangte Veränderungsbetrag gleich oder kleiner als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist, aktualisiert die Umwandlungstabellen-Aktualisierungs-Einheit 19 die Umwandlungstabelle auf Basis der neu berechneten Position und des Winkels der Fahrzeugkamera 2. Nach der Aktualisierung der Umwandlungstabelle wandelt die Bildumwandlungs-Einheit 12 unter Bezugnahme auf die aktualisierte Umwandlungstabelle ein aufgenommenes Bild in ein Bild aus Vogelperspektive um.When the change amount obtained by the change
Die neun Einheiten, angefangen von der Aufgenommenes-Bild-Erlangungseinheit 11 bis zur Umwandlungstabellen-Aktualisierungs-Einheit 19 sind Konzepte, welche entsprechend der in der Bildumwandlungsvorrichtung enthaltenen Funktionalitäten klassifiziert sind. Somit sagen die neun Einheiten nicht aus, dass die Bildumwandlungsvorrichtung 10 physisch in neun Einheiten geteilt ist. Die Einheiten sind durch ein ausführbares Computerprogramm implementiert, welches durch eine CPU, durch eine elektronische Schaltung mit einem LSI-Baustein und einem Speicher oder durch eine Kombination daraus ausführbar ist. Ein Umwandlungstabellen-Aktualisierungsprozess, welcher unter Verwendung der neun Einheiten ausgeführt wird, wird im Folgenden detailliert beschrieben.The nine units from the captured
A-2. Generierungsprozess des Bildes aus VogelperspektiveA-2. Bird's-eye view image generation process
Die
Der Umwandlungstabellen-Aktualisierungsprozess wird durch die Berechnung der Umgebungswerte gestartet (S101). Die Umgebungswerte sind Indizes, welche zur Evaluierung der Umgebung des Fahrzeugs 1 und dem Zustand des Fahrzeugs 1 durch Bewertung der durch die Werte-Sensoren 4 festgestellten Informationen verwendet werden.The conversion table update process is started by calculating the environmental values (S101). The environmental values are indexes used for evaluating the surroundings of the
Ein Verfahren zur Bereitstellung eines Umgebungswertes für die Ermittlungs-Informationen, welcher beispielsweise vom Fahrzeuggeschwindigkeits-Sensor 41 erlangt wurde, wird nun beschrieben. Die vom Fahrzeuggeschwindigkeits-Sensor 41 erlangte Ermittlungs-Information ist die Fahrgeschwindigkeit des Fahrzeugs 1. Daher nimmt der Umgebungswert S1 mit Erhöhung der Fahrgeschwindigkeit ab.
Für andere der Werte-Sensoren 4 als dem Fahrzeuggeschwindigkeits-Sensor 41, und zwar dem Lenk-Sensor 42, den Höhen-Sensoren 43a-43d, dem Solarstrahlungs-Sensor 44 und dem Regen-Sensor 45 sind die Umgebungswerte individuell auf gleiche Art und Weise gegeben wie für den Fahrzeuggeschwindigkeits-Sensor 41.For the
Der Lenk-Sensor 42 ermittelt den Betrag der Lenkwinkelverschiebung pro Zeiteinheit. Der Umgebungswert S2 sinkt mit Erhöhung des Betrags der Lenkwinkelverschiebung. Der Grund dafür ist, dass wenn der Betrag der Lenkwinkelverschiebung groß ist, das Fahrzeug 1 auf Grund einer Laständerung kippt, zum Nachteil der Merkmalspunkt-Extraktion.The
Die Höhen-Sensoren 43a-43d ermitteln den Verschiebungsbetrag der Neigung des Fahrzeugs 1 pro Zeiteinheit durch Ermittlung der vertikalen Verschiebungsbeträge vorne, hinten, links und rechts am Fahrzeug 1. Wenn das Fahrzeug 1 kippt, sinkt der Umgebungswert S2 mit Erhöhung des Verschiebungsbetrags, wie dies bei Umgebungswert S2 der Fall ist.The
Der Umgebungswert S4, welcher einem durch den Solarstrahlungs-Sensor 44 ermittelten Solarstrahlungsmenge zuzuordnen ist, sinkt, wenn die Solarstrahlungsmenge abnimmt. Der Grund dafür ist, dass das aufgenommene Bild einer Szene dunkler wird, wenn die Solarstrahlungsmenge abnimmt. Wenn das aufgenommene Bild dunkel ist, ist es sehr wahrscheinlich, dass der Unterschied in seinem Helligkeitswert klein wird. Somit ist die Genauigkeit der Merkmalspunkt-Extraktion gering.The ambient value S4, which is to be assigned to an amount of solar radiation determined by the
Der Umgebungswert S5, welcher einem durch den Regen-Sensor 45 ermittelten Regen zuzuordnen ist, nimmt mit der Zunahme des Regenfalls ab. Der Grund dafür ist, dass ein aufgenommenes Bild wahrscheinlich verschwommen wird, wenn der Niederschlag zunimmt. Wenn das aufgenommene Bild verschwommen ist, ist die Genauigkeit der Merkmalspunkt-Extraktion gering.The environmental value S5, which is to be assigned to rain detected by the
Nach dem die Umgebungswerte S1 - S5 individuell den durch den Fahrzeuggeschwindigkeits-Sensor 41, den Lenk-Sensor 42, die Höhen-Sensoren 43a-43d, den Solarstrahlungs-Sensor 44 und den Regen-Sensor 45 erlangten Ermittlungs-Informationen zugeordnet sind, wird ein Gesamt-Umgebungswert S berechnet, wie in
In
Außerdem können andere Sensoren als Werte-Sensoren 4 zusätzlich oder anstelle von den oben beschriebenen Sensoren verwendet werden. Ein Umgebungswert kann gegeben werden, indem einem Gyrosensor erlaubt wird die Neigung des Fahrzeugs 1, basierend auf der gleichen Idee wie der Umgebungswert S3, zu ermitteln. Außerdem kann ein Umgebungswert zur Ermittlung des Niederschlags durch ein Scheibenwischersignal gegeben werden, basierend auf der gleichen Idee wie der Umgebungswert S5. Des Weiteren kann die Fahrgeschwindigkeit und die Neigungsstärke des Fahrzeugs 1 von Verkehrs- und Straßeninformationen vorhergesagt werden, welche durch ein Fahrzeugnavigationssystem erlangt wurden, um einen Umgebungswert unter Berücksichtigung solcher vorhergesagten Informationen zu berechnen.Also, sensors other than
Wie oben beschrieben, werden die Umgebungswerte als Indizes zur Evaluierung der umgebenden Umwelt, wie Wetterunterschiede und Umgebungshelligkeit des Fahrzeugs 1 oder zur Evaluierung des Zustands des Fahrzeug 1, wie Stellungsveränderungen und Vibration genutzt. Wenn die Umgebungswerte hoch sind, ist es sehr wahrscheinlich, dass durch die Verringerung des Einflusses von Störungen, welche durch die umgebende Umwelt und den Zustand des Fahrzeugs verursacht werden, klar aufgenommene Bilder erhalten werden. Eine Situation, in welcher klar aufgenommene Bilder erhalten werden, eignet sich zur Merkmalspunkt-Extraktion.As described above, the environmental values are used as indexes for evaluating the surrounding environment such as weather differences and surrounding brightness of the
Nachdem der Umgebungswert wie oben beschrieben berechnet wurde (S101), wird bestimmt, ob der Umgebungswert gleich oder größer als ein zuvor festgelegter Schwellenwert ist (S102). Der oben genannte Gesamt-Umgebungswert S ist ausgelegt für die Bestimmung und der Wert des Schwellenwertes zur Bestimmung kann wie gewünscht vorgegeben werden. Wenn bestimmt wird, ob der Gesamt-Umgebungswert S gleich oder größer als der zuvor festgelegte Schwellenwert ist, können die umgebende Umwelt des Fahrzeugs 1 und der Zustand des Fahrzeugs 1 in einer umfassenden Weise aus den Ermittlungs-Informationen, welche von den verschiedenen Werte-Sensoren 4 erlangt wurden, ausgewertet werden, um zu bestimmen, ob die aktuelle Situation zur Merkmalspunkt-Extraktion geeignet ist. Jedoch ist das Verfahren der Umgebungsbewertung nicht auf das oben beschriebene beschränkt. Wenn die Anzahl der Umgebungswerte die vordefinierten Kriterien der Umgebungswerte S1 bis S5 nicht erfüllt, kann bestimmt werden, dass die aktuelle Situation nicht für die Merkmalspunkt-Extraktion geeignet ist.After the environmental value is calculated as described above (S101), it is determined whether the environmental value is equal to or greater than a predetermined threshold (S102). The above overall environmental value S is designed for determination, and the value of the threshold value for determination can be set as desired. When it is determined whether the total surrounding value S is equal to or greater than the predetermined threshold value, the surrounding environment of the
Wenn bestimmt wird, dass der Umgebungswert nicht mit dem zuvor festgelegten Schwellenwert übereinstimmt (S102: NEIN), endet der Umwandlungstabellen-Aktualisierungsprozess (
Im Gegensatz dazu, wenn bestimmt wird, dass der Umgebungswert gleich oder größer als ein zuvor festgelegter Schwellenwert ist (S102: JA), werden Merkmalspunkte extrahiert. Im vorliegenden Ausführungsbeispiel wird ein aufgenommenes Bild erlangt (S103), dann wird das aufgenommene Bild in ein Bild aus Vogelperspektive umgewandelt (S104) und Merkmalspunkte extrahiert (S105).In contrast, when it is determined that the surrounding value is equal to or greater than a predetermined threshold (S102: YES), feature points are extracted. In the present embodiment, a captured image is acquired (S103), then the captured image is converted into a bird's-eye view image (S104), and feature points are extracted (S105).
Schwarze Punkte in den
Die Merkmalspunkte können, wie in
Das aufgenommene Bild in
Mittlerweile sehen, im Bild aus Vogelperspektive in
Demzufolge, wenn die aus einem Bild aus Vogelperspektive extrahierten Merkmalspunkte die aktuelle Positionsbeziehung zeigen, wird die Positionsbeziehung zwischen den in einem Bild gezeigten Merkmalspunkten mit der aktuellen Positionsbeziehung viel einfacher in Einklang gebracht, als wenn Merkmalspunkte aus einem aufgenommenen Bild, welches die aktuelle Positionsbeziehung nicht zeigt, extrahiert werden. Somit ermöglich die Extraktion der Merkmalspunkte aus dem Bild aus Vogelperspektive die einfache und akkurate Berechnung der Position und des Winkels der Fahrzeugkamera 2.Accordingly, when the feature points extracted from a bird's-eye view image show the current positional relationship, the positional relationship between the feature points shown in an image is reconciled with the current positional relationship much more easily than when feature points are from a captured image not showing the current positional relationship , are extracted. Thus, the extraction of the feature points from the bird's-eye view image enables the position and angle of the in-
Aus den oben genannten Gründen werden die Merkmalspunkte extrahiert (S104 aus
Anschließend wird die Verteilung der Merkmalspunkte bestätigt (S106). Basierend auf der bestätigten Verteilung der Merkmalspunkte wird festgestellt, ob die Position und der Winkel der Fahrzeugkamera 2 berechnet werden sollen (S107). Die Bestimmung wird gemacht, um zu prüfen, ob die Verteilung der Merkmalspunkte zur akkuraten Berechnung der Position und des Winkels der Fahrzeugkamera 2 geeignet ist. Daher kann die Bestimmung auf Basis von Informationen erfolgen, welche die Breite der Verteilung der Merkmalspunkte angeben. Die Informationen, welche die Breite der Verteilung angeben, stellen die Größe eines Bereichs in Bezug auf die Größe eines Bildbereichs dar, welcher die Verteilung der Merkmalspunkte aufweist. Wie nachfolgend beschrieben, kann die Eignung der Verteilung in umfassender Weise unter Berücksichtigung der Breite der Verteilung, der Position eines Verteilbereichs, welcher die Merkmalspunkte aufweist und der Streuung der Merkmalspunkte innerhalb des Verteilbereichs bestimmt werden.Subsequently, the distribution of the feature points is confirmed (S106). Based on the confirmed distribution of the feature points, it is determined whether to calculate the position and the angle of the in-vehicle camera 2 (S107). The determination is made to check whether the distribution of feature points is suitable for accurately calculating the position and angle of the in-
Ob die Merkmalspunkt-Verteilung geeignet ist, kann einfach durch Überprüfen der Breite, Höhe und Position des Merkmalspunkt-Verteilbereichs bestimmt werden, anstatt den schraffierten Bereich zu untersuchen.Whether the feature point distribution is appropriate can be determined simply by checking the width, height and position of the feature point distribution area instead of examining the hatched area.
In
In
Wie bereits erwähnt, kann die Streuung der Merkmalspunkte zusätzlich zur Größe und Position des Merkmalspunkt-Verteilbereichs berücksichtigt werden. Die Breite Uc, die Höhe Vc und die Position des Merkmalspunkt-Verteilbereichs in
Wie bereits erwähnt, werden die Position und der Winkel der Fahrzeugkamera 2 unter Verwendung der Übereinstimmung der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten, welche aus einem Bild aus Vogelperspektive extrahiert wurden mit der Positionsbeziehung zwischen einer Vielzahl an Merkmalspunkten in einem aktuell aufgenommenen Bild einer Szene berechnet. Daher, selbst wenn die Merkmalspunkt-Verteilung ungünstig ist, wie in den
Wenn die Merkmalspunkt-Verteilung ungünstig ist, wird festgelegt, dass die Position und der Winkel der Fahrzeugkamera nicht zu berechnen sind (S107 aus
Im Gegensatz dazu, wenn die Merkmalspunkt-Verteilung auf einem Bild aus Vogelperspektive günstig ist, wie in
Nachdem die Position und der Winkel der Fahrzeugkamera 2 berechnet wurden (S108), wird der Betrag der Positions- und Winkelveränderung, welche sich durch die berechnete Position und den Winkel ergeben, bestätigt (S109 aus
Im Falle einer Kontingenz wie einer Abnormalität bei der Merkmalspunkt-Extraktion oder bei der Berechnung der Position und des Winkels der Fahrzeugkamera 2, können die Position und der Winkel der Fahrzeugkamera 2 Extremwerte annehmen. Unter solchen Umständen wird die Umwandlungstabelle nicht aktualisiert, wenn der durch die berechnete Position und den Winkel der Fahrzeugkamera 2 dargelegte Veränderungsbetrag größer als ein zuvor festgelegter Schwellenwert-Veränderungsbetrag ist. Daher wird die Umwandlungstabelle nur aktualisiert, wenn festgestellt wird, dass die Position und der Winkel der Fahrzeugkamera 2 mit ausreichender Genauigkeit erhalten werden. Ferner, wie in dem Fall mit der Bestimmung einer Merkmalspunkt-Verteilung, werden die Position und der Winkel der Fahrzeugkamera 2 nicht berechnet, wenn wahrscheinlich keine ausreichende Genauigkeit erreicht wird. Folglich ist es möglich, zu verhindern, dass der CPU eine zusätzliche Prozessverarbeitungslast auferlegt wird.In the case of a contingency such as an abnormality in feature point extraction or in calculation of the position and angle of the in-
Wie oben beschrieben werden, wenn der Umwandlungstabellen-Aktualisierungsprozess von der Bildumwandlungsvorrichtung 10 gemäß dem vorliegenden Ausführungsbeispiel ausgeführt wurde, die Merkmalspunkte auf Basis der Auswertung der Umgebungswerte mit erhöhter Genauigkeit extrahiert (S102) und die Position und der Winkel der Fahrzeugkamera 2 mit erhöhter Genauigkeit durch Bestätigung der Verteilung der Merkmalspunkte berechnet (S107). Zusätzlich zu solch einer akkuraten Berechnung der Position und des Winkels der Fahrzeugkamera 2 wird der durch die berechnete Position und den Winkel der Fahrzeugkamera dargelegte Veränderungsbetrag bestätigt (S110). Schließlich wird die Umwandlungstabelle nach dreifacher Überprüfung aktualisiert. Somit referenziert die Bildumwandlungsvorrichtung die sehr genaue, sehr zuverlässige Umwandlungstabelle, welche in oben beschriebener Weise erhalten wurde. Ein akkurates Bild aus Vogelperspektive kann durch Umwandlung erhalten werden.As described above, when the conversion table update process is performed by the
B. AbwandlungB. Modification
In der Beschreibung des vorstehenden Ausführungsbeispiels wurde das Verfahren der Berechnung der veränderten Position und des Winkels der Fahrzeugkamera 2 unter der Annahme erklärt, dass die Veränderungen der Position und des Winkels der Fahrzeugkamera 2 in Bezug auf die Fahrbahnoberfläche 21 erfolgen. In der Hinsicht kann die Position und der Winkel der Fahrzeugkamera in Bezug auf die Fahrbahnoberfläche 21 aus zwei Gründen variieren. Erstens kann der Montagezustand (Position und Winkel) der Fahrzeugkamera 2 in Bezug auf das Fahrzeug 1 variieren, sodass sich der Montagezustand in Bezug auf die Fahrbahnoberfläche 21 verändert. Zweitens kann die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche variieren. Die Veränderung im ersten Fall ist eine permanente Veränderung, welche beispielsweise durch ein an der Fahrzeugkamera 2 angebrachtes lockeres Befestigungselement auftritt. Unterdessen ist die Veränderung im zweiten Fall, also die Neigung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche eine temporäre Veränderung, welche beispielsweise durch eine Veränderung im Nutzlastgewicht oder der Beschleunigung oder dem Abbremsen des Fahrzeugs 1 auftritt. Das vorstehende Ausführungsbeispiel wurde ohne einer Unterscheidung zwischen den zwei Variationsarten beschrieben. Die folgende Beschreibung einer Abwandlung erklärt jedoch, wie die Position und der Winkel der Fahrzeugkamera 2 im Falle der temporären Veränderung im zweiten Fall berechnet werden, das heißt eine Veränderung in der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche, während der Fokus auf den Unterschied zwischen der Abwandlung und dem vorhergehenden Ausführungsbeispiel gelegt wird.In the description of the above embodiment, the method of calculating the changed position and angle of the in-
Im Allgemeinen hat die Position der Fahrzeugkamera 2 drei Richtungskomponenten, und zwar eine Längsstellung (die Fahrtrichtung des Fahrzeugs 1), eine Querstellung (die Links-Rechts-Richtung relativ zur Fahrtrichtung des Fahrzeugs 1) und eine Vertikalstellung. Die Fahrzeugkamera hat drei Richtungswinkel, und zwar Roll, Nick und Gier. Um also die Position und den Winkel der Fahrzeugkamera 2 zu berechnen, ist es essentiell notwendig, die drei Richtungskomponenten und die drei Richtungswinkel (sechs Werte insgesamt) zu berechnen. Wenn jedoch die Berechnung der Position und des Winkels aus letztgenanntem Grund erforderlich ist, das heißt, wegen der Veränderung der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche, wird die Berechnung von drei Werten genügen, nämlich der Vertikalstellung, dem Roll-Winkel und dem Nick-Winkel der Fahrzeugkamera 2. Der Grund wird nachfolgend beschrieben.In general, the position of the in-
Zuerst sei angenommen, dass die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche festgelegt ist (z. B. in horizontaler Position gehalten). Selbst wenn ein solcher Zustand beibehalten wird, variieren die Längs- und Querstellung der Fahrzeugkamera 2, wenn sich das Fahrzeug 1 bewegt. Wenn ferner die Orientierung des Fahrzeugs 1 variiert, variiert der Gier-Winkel der Fahrzeugkamera 2. Daher beeinflusst eine Veränderung in der Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche die Vertikalstellung, den Roll-Winkel und den Nick-Winkel der Fahrzeugkamera 2 und sie beeinflusst nicht die Längsstellung, Querstellung und den Gier-Winkel der Fahrzeugkamera 2. Demzufolge, wenn die Stellung des Fahrzeugs1 in Bezug auf die Fahrbahnoberfläche während der Fahrt des Fahrzeugs 1 variiert, wird der beabsichtigte Zweck durch Berechnung der drei Werte, und zwar der Vertikalstellung, des Roll-Winkels und des Nick-Winkels der Fahrzeugkamera 2, erreicht.First, assume that the attitude of the
Während das Fahrzeug 1 fährt, variiert die Stellung des Fahrzeugs 1 in Bezug auf die Fahrbahnoberfläche häufig und dementsprechend kann die Häufigkeit der Berechnungen der Position und des Winkels der Fahrzeugkamera 2 groß sein und die Berechnungslast dürfte hoch sein. Unter diesem Gesichtspunkt, wenn es ausreicht, die drei Werte zu berechnen, und zwar die Vertikalstellung, den Roll-Winkel und den Nick-Winkel der Fahrzeugkamera 2, ist dies ein großer Vorteil, weil die Berechnungslast auf die Hälfte reduziert werden kann.While the
Ein Bild aus Vogelperspektive, welches eine Stopp-Linie vor dem Fahrzeug 1 in einem, wie in
Die Genauigkeit der Nick-Winkel der Fahrzeugkamera 2, welche aus den
Nun wird der Unterschied in der Merkmalspunkt-Verteilung zwischen den
Schwarze Punkte, welche die Merkmalspunkte anzeigen, werden in
Folglich, wenn der Nick-Winkel der Fahrzeugkamera 2, wie in
Eine in
Folglich sollte der Roll-Winkel der Fahrzeugkamera 2 unter der Bedingung berechnet werden, dass die Weite der Merkmalspunkt-Verteilung in Querrichtung eines Bildes aus Vogelperspektive größer als ein zuvor festgelegter Querrichtungs-Schwellenwert ist. Der Querrichtungs-Schwellenwert entspricht einem zweiten Schwellenwert.Therefore, the roll angle of the in-
Wenn die Vertikalstellung des Fahrzeugs 1 wie oben beschrieben verändert ist, sind die in einem Bild aus Vogelperspektive dargestellten Dinge vergrößert oder verkleinert. Daher kann die Übereinstimmung der Merkmalspunkte nicht erreicht werden, indem die mit Bezug auf die
Wenn die Vertikalstellung des Fahrzeugs 1 verändert wird, sind die in einem Bild aus Vogelperspektive gezeigten Dinge vergrößert oder verkleinert, wie oben beschrieben. Wenn jedoch das Fahrzeug 1 in die Nick-Richtung geneigt wird, können die in einem Bild aus Vogelperspektive gezeigten Dinge in manchen Fällen vergrößert oder verkleinert aussehen. Ferner neigen diese angezeigten Bildveränderungen dazu, durch den Installationszustand der Fahrzeugkamera 2 beeinflusst zu werden, wie die Befestigungsposition (vorne, hinten, links oder rechts am Fahrzeug 1) und dem Unterschied im Absenkungsbetrag, welcher von der Härte eines Stoßfängers abhängt. Daher ist es wahrscheinlich, dass eine falsche Variable berechnet werden kann. In solch einer Situation sollten die Daten über die Tendenz der Stellungsveränderung des Fahrzeugs 1 und die Anzeigeveränderung eines Bildes aus Vogelperspektive vorab erlangt werden, während die Fahrzeugkamera 2 am Fahrzeug 1 angeordnet ist und dann sollten die erlangten Daten referenziert werden, um zu bestimmen, welche der drei Variablen, nämlich die Vertikalstellung, der Roll-Winkel und der Neigungs-Winkel der Fahrzeugkamera 2 berechnet werden soll.When the vertical posture of the
Wenn ferner die Stellung des Fahrzeug 1 variiert, können sich in manchen Fällen der Nick-Winkel, der Roll-Winkel und die Vertikalstellung in einer komplexen Weise und nicht einzeln verändern. Auch in solch einer Situation kann, ob die Merkmalspunkt-Verteilung in Längsrichtung oder Querrichtung eines Bildes aus Vogelperspektive günstig ist, ähnlich der, ob der Nick-Richtungs-Winkel oder Roll-Richtungs-Winkel der Fahrzeugkamera 2 mit ausreichender Genauigkeit berechnet werden. Folglich sollte die zu berechnende Variable wie in
Wenn die Merkmalspunkt-Verteilung eine geringe Weite in Längsrichtung und in Querrichtung aufweist, sind weder der Nick-Winkel, der Roll-Winkel noch die Vertikalstellung der Fahrzeugkamera 2 zu berechnen, wie zuvor in Verbindung mit dem vorliegenden Ausführungsbeispiel beschrieben.If the feature point distribution has a small width in the fore-and-aft direction and in the lateral direction, neither the pitch angle, the roll angle nor the vertical position of the in-
Wenn die Merkmalspunkt-Verteilung eine große Weite in Längsrichtung und eine schmale Weite in Querrichtung aufweist, ist der Nick-Winkel zu berechnen. Der Grund dafür ist, dass es schwierig ist, den Roll-Winkel genau zu berechnen, wie unter Bezugnahme auf
Wenn die Merkmalspunkt-Verteilung eine geringe Weite in Längsrichtung und eine große Weite in Querrichtung aufweist, ist der Roll-Winkel zu berechnen. Der Grund dafür ist, dass es schwierig ist, den Nick-Winkel genau zu berechnen, wie unter Bezugnahme auf
Wenn die Merkmalspunkt-Verteilung in Längsrichtung und in Querrichtung eine große Weite aufweist, können alle Variablen, nämlich der Nick-Winkel, der Roll-Winkel und die Vertikalstellung der Fahrzeugkamera 1 auf die gleiche Weise berechnet werden, wie in Verbindung mit dem vorliegenden Ausführungsbeispiel beschrieben. Abgesehen davon kann die Vertikalstellung der Fahrzeugkamera 2 berechnet werden, wenn die Merkmalspunkt-Verteilung eine große Weite in entweder der Längsrichtung oder der Querrichtung aufweist. Ferner kann die Vertikalstellung der Fahrzeugkamera 2 berechnet werden, wenn extrahierte Merkmalspunkte es ermöglichen, die Übereinstimmung der Größenordnung zu erreichen, wie die Breiten der Fahrbahnmarkierungen und der Stopp-Linie.When the feature point distribution has a large width in the longitudinal and lateral directions, all the variables, namely the pitch angle, the roll angle and the vertical position of the in-
Wie unter Bezugnahme auf die
Eine Alternative ist, alle Variablen ohne Rücksicht auf die Merkmalspunkt-Verteilung zu berechnen, wenn der Nick-Winkel, der Roll-Winkel und die Vertikalstellung der Fahrzeugkamera 2 berechnet werden sollen und die Umwandlung unter Verwendung einer, wie in
Die Bildumwandlungsvorrichtung 10 gemäß der oben beschriebenen Abwandlung berechnet einen von Nick-Winkel, Roll-Winkel und Vertikalstellung der Fahrzeugkamera 2, wenn sie günstig sind und referenziert die erhaltene, auf dem Berechnungsergebnis basierende, Umwandlungstabelle. Somit wird ein aufgenommenes Bild akkurat in ein Bild aus Vogelperspektive umgewandelt.The
Claims (6)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-239377 | 2014-11-26 | ||
JP2014239377A JP6507590B2 (en) | 2014-11-26 | 2014-11-26 | Image conversion apparatus and image conversion method |
PCT/JP2015/005512 WO2016084308A1 (en) | 2014-11-26 | 2015-11-03 | Image transformation apparatus and image transformation method |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112015005317T5 DE112015005317T5 (en) | 2017-08-24 |
DE112015005317B4 true DE112015005317B4 (en) | 2022-01-27 |
Family
ID=56073907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112015005317.4T Active DE112015005317B4 (en) | 2014-11-26 | 2015-11-03 | IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6507590B2 (en) |
DE (1) | DE112015005317B4 (en) |
WO (1) | WO2016084308A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6565769B2 (en) * | 2016-04-03 | 2019-08-28 | 株式会社デンソー | In-vehicle camera mounting angle detection device, mounting angle calibration device, mounting angle detection method, mounting angle calibration method, and computer program |
CN111246098B (en) * | 2020-01-19 | 2022-02-22 | 深圳市人工智能与机器人研究院 | Robot photographing method and device, computer equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080007619A1 (en) | 2006-06-29 | 2008-01-10 | Hitachi, Ltd. | Calibration Apparatus of On-Vehicle Camera, Program, and Car Navigation System |
JP2008131250A (en) | 2006-11-20 | 2008-06-05 | Aisin Seiki Co Ltd | Correcting device for on-board camera and production method for vehicle using same correcting device |
US20080181591A1 (en) | 2007-01-26 | 2008-07-31 | Sanyo Electric Co., Ltd. | Camera posture estimation device, vehicle, and camera posture estimation method |
US20130135474A1 (en) | 2011-11-28 | 2013-05-30 | Clarion Co., Ltd. | Automotive Camera System and Its Calibration Method and Calibration Program |
JP2013222302A (en) | 2012-04-16 | 2013-10-28 | Alpine Electronics Inc | Mounting angle correction device for in-vehicle camera and mounting angle correction method |
-
2014
- 2014-11-26 JP JP2014239377A patent/JP6507590B2/en active Active
-
2015
- 2015-11-03 WO PCT/JP2015/005512 patent/WO2016084308A1/en active Application Filing
- 2015-11-03 DE DE112015005317.4T patent/DE112015005317B4/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080007619A1 (en) | 2006-06-29 | 2008-01-10 | Hitachi, Ltd. | Calibration Apparatus of On-Vehicle Camera, Program, and Car Navigation System |
JP2008131250A (en) | 2006-11-20 | 2008-06-05 | Aisin Seiki Co Ltd | Correcting device for on-board camera and production method for vehicle using same correcting device |
US20080181591A1 (en) | 2007-01-26 | 2008-07-31 | Sanyo Electric Co., Ltd. | Camera posture estimation device, vehicle, and camera posture estimation method |
US20130135474A1 (en) | 2011-11-28 | 2013-05-30 | Clarion Co., Ltd. | Automotive Camera System and Its Calibration Method and Calibration Program |
JP2013222302A (en) | 2012-04-16 | 2013-10-28 | Alpine Electronics Inc | Mounting angle correction device for in-vehicle camera and mounting angle correction method |
Also Published As
Publication number | Publication date |
---|---|
DE112015005317T5 (en) | 2017-08-24 |
JP6507590B2 (en) | 2019-05-08 |
WO2016084308A1 (en) | 2016-06-02 |
JP2016100887A (en) | 2016-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008030555B4 (en) | Device for processing stereo images | |
DE102008031784B4 (en) | Method and apparatus for distortion correction and image enhancement of a vehicle rearview system | |
DE102016206117B4 (en) | ROAD SURFACE DETECTION DEVICE AND ROAD SURFACE DETECTION SYSTEM | |
DE112015004628B4 (en) | Imaging device and imaging method | |
DE102015104453A1 (en) | Stereo image processing device for a vehicle | |
DE112015004637T5 (en) | On-board camera calibration device, image generator, on-board camera calibration method and image generation method | |
DE102011109440A1 (en) | Method for adjusting and / or calibrating at least one headlight of a vehicle | |
DE102014117888A1 (en) | Online calibration of a motor vehicle camera system | |
DE102016212405A1 (en) | Vehicle image processing apparatus and vehicle image processing system | |
DE102010030044A1 (en) | Restoration device for weather-impaired images and driver assistance system hereby | |
DE102013203868A1 (en) | VEHICLE MONITORING DEVICE ENVIRONMENT | |
DE112012003040T5 (en) | Lane detection device | |
DE102018131424B4 (en) | Vehicle and control method therefor | |
DE112016000689T5 (en) | Kameraparametereinstellvorrichtung | |
WO2014139783A1 (en) | Method and device for determining a visual range in daytime fog | |
DE102014012653A1 (en) | Image processing method for vehicle camera and this image processing apparatus | |
DE112018007485T5 (en) | Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
EP3815044B1 (en) | Method for sensor and memory-based depiction of an environment, display apparatus and vehicle having the display apparatus | |
DE102015209764A1 (en) | Extrinsic calibration of an image capture device of a vehicle | |
DE112015002764B4 (en) | Mounting angle adjustment method and mounting angle detection device for on-board camera | |
DE102021131051A1 (en) | Image recording system and image recording device | |
DE112015005317B4 (en) | IMAGE CONVERSION DEVICE AND IMAGE CONVERSION METHOD | |
EP2131598A2 (en) | Stereo camera system and method of determining at least one calibration error in a stereo camera system | |
DE102013103953A1 (en) | Method for recognizing vehicle traveling lane, involves determining whether boundary line representations are rectilinear within threshold, and using model matching method to identify boundary lines in every frame if threshold is met |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |