JP2018157496A - Calibration device - Google Patents

Calibration device Download PDF

Info

Publication number
JP2018157496A
JP2018157496A JP2017054487A JP2017054487A JP2018157496A JP 2018157496 A JP2018157496 A JP 2018157496A JP 2017054487 A JP2017054487 A JP 2017054487A JP 2017054487 A JP2017054487 A JP 2017054487A JP 2018157496 A JP2018157496 A JP 2018157496A
Authority
JP
Japan
Prior art keywords
vehicle
calibration
composite image
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017054487A
Other languages
Japanese (ja)
Inventor
信之 松山
Nobuyuki Matsuyama
信之 松山
啓二 佐藤
Keiji Sato
啓二 佐藤
盛彦 坂野
Morihiko Sakano
盛彦 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017054487A priority Critical patent/JP2018157496A/en
Publication of JP2018157496A publication Critical patent/JP2018157496A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a calibration device capable calibrating a camera parameter under an environment where a liner feature part is not existed.SOLUTION: A calibration device 116 includes: an image generation part 118 that converts a plurality of frames obtained by imaging periphery by a plurality of cameras that is attached to a vehicle traveling on a road and images the periphery of the vehicle to overhead images, and generates one composite image by composing a plurality of overhead images; a locus line acquirement part 119 that acquires a locus line obtained by linearly connecting both coordinate points corresponded to a position of a specified feature material that had entered into one overlapping composite image obtained by overlapping an individual composite image generated at a different time in the image generation part 118; and a parameter calibration part 121 that calibrates a camera parameter in regards to an attachment state of the plurality of cameras so as to extend the locus line acquired in the locus line acquirement part 119 along a traveling direction of the vehicle.SELECTED DRAWING: Figure 7

Description

本発明は、キャリブレーション装置に関する。   The present invention relates to a calibration apparatus.

従来、車両周囲に取り付けられた複数のカメラで撮像された各画像を俯瞰画像に視点変換し、各俯瞰画像を合成して、一つの合成画像を生成することが行われている。各俯瞰画像から合成画像を生成するには、各カメラの取り付け位置や角度に関するカメラパラメータが必要になる。   Conventionally, each image captured by a plurality of cameras attached to the periphery of a vehicle is converted into a bird's-eye view image, and each bird's-eye view image is synthesized to generate one synthesized image. In order to generate a composite image from each bird's-eye view image, camera parameters relating to the mounting position and angle of each camera are required.

ところで、各カメラは設計値に準じた位置や角度で車両に取り付けられるが、その際、誤差が生じる場合がある。このような誤差があるにも関わらず設定値に対応したカメラパラメータで俯瞰画像が生成された場合、誤差の分だけズレのある合成画像が生成される。このような問題を解決するため、キャリブレーションあるいは校正と呼ばれる、カメラパラメータの補正が行われる。   By the way, each camera is attached to the vehicle at a position and an angle according to the design value, but an error may occur at that time. When the overhead image is generated with the camera parameter corresponding to the set value in spite of such an error, a composite image that is shifted by the error is generated. In order to solve such a problem, correction of camera parameters called calibration or calibration is performed.

このキャリブレーションは、例えば、車両の出荷時に工場の生産ライン等で、人が誰も乗っていない空車状態、あるいは、運転席にユーザーが乗っている場合等の特定の乗車状態を再現した条件下で行われる。   This calibration is a condition that reproduces a specific riding condition such as an empty vehicle state where no one is on the vehicle at the time of shipment of the vehicle, or a user is in the driver's seat. Done in

しかし、実際にユーザーが車両を使用する際には、乗車人数やユーザーが座る場所、荷物の積載位置等によって、乗車状態は変化する。乗車状態が変化すると車両の姿勢も変化し、それに伴って、地面に対するカメラの取り付け状態も変化する。すなわち、カメラパラメータは変化しないが、車両の姿勢が、キャリブレーションを行ったときの車両の姿勢ではないことで、合成画像にズレが生じるといった問題があった。   However, when the user actually uses the vehicle, the riding state changes depending on the number of passengers, the place where the user sits, the loading position of the luggage, and the like. When the riding state changes, the posture of the vehicle also changes, and accordingly, the mounting state of the camera with respect to the ground also changes. That is, although the camera parameter does not change, there is a problem in that the composite image is deviated because the posture of the vehicle is not the posture of the vehicle when the calibration is performed.

このような問題に対し、特許文献1には、車両の走行中にカメラパラメータを補正する技術が開示されている。   For such a problem, Patent Document 1 discloses a technique for correcting camera parameters while a vehicle is traveling.

特許文献1に開示されている技術は、道路の白線等の長手方向の直線的特徴量(直線状を有する特徴量)をカメラで撮像した画像を用いたキャリブレーション方法である。このキャリブレーション方法では、撮像した画像に基づいて、車両の姿勢を表すパラメータを推定することで、カメラパラメータの校正が実施される。その車両の姿勢を表すパラメータを推定するステップには、車両のピッチ角を推定するステップと、車両のロール角・高さを同時に推定するステップとが含まれる。   The technique disclosed in Patent Document 1 is a calibration method using an image obtained by capturing a linear feature amount (a feature amount having a linear shape) in a longitudinal direction such as a white line of a road with a camera. In this calibration method, camera parameters are calibrated by estimating parameters representing the attitude of the vehicle based on the captured image. The step of estimating the parameter representing the posture of the vehicle includes the step of estimating the pitch angle of the vehicle and the step of simultaneously estimating the roll angle and height of the vehicle.

特開2016-70814号公報JP 2016-70814 A

しかしながら、特許文献1に開示されているキャリブレーション方法は、道路の白線等の直線状特徴部をカメラで撮像することが前提になる。このため、直線状特徴部が存在しない環境下では、車両の姿勢を表すパラメータを推定できず、カメラパラメータを校正することができない。   However, the calibration method disclosed in Patent Document 1 is based on the premise that a linear feature such as a white line on a road is imaged with a camera. For this reason, in an environment where no linear feature exists, a parameter representing the attitude of the vehicle cannot be estimated, and the camera parameter cannot be calibrated.

本発明は、上記課題に鑑みてなされたもので、直線状特徴部が存在しない環境下でもカメラパラメータを校正することができるキャリブレーション装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a calibration device that can calibrate camera parameters even in an environment where no linear feature exists.

本発明に係るキャリブレーション装置は、路面上を走行する車両に取り付けられて前記車両の周辺を撮像する複数のカメラにより前記周辺が撮像されることで得られた複数のフレームを俯瞰画像に変換し、これら複数の俯瞰画像を合成して一つの合成画像を生成する画像生成部と、前記画像生成部で異なる時刻に生成された個々の合成画像の中に映り込んでいる特定の特徴物の位置に対応した座標点同士を前記個々の合成画像の間において直線で結ぶことにより得られる軌跡線を取得する軌跡線取得部と、前記軌跡線取得部で取得された前記軌跡線が前記車両の走行方向に沿って延びるように、前記複数のカメラの取り付け状態に関するカメラパラメータを校正するパラメータ校正部と、を有することを特徴とする。   A calibration device according to the present invention converts a plurality of frames obtained by imaging the periphery by a plurality of cameras attached to a vehicle traveling on a road surface and imaging the periphery of the vehicle into an overhead image. An image generation unit that generates a single composite image by combining the plurality of overhead images, and a position of a specific feature reflected in each composite image generated at different times by the image generation unit A trajectory line acquisition unit that acquires a trajectory line obtained by connecting the coordinate points corresponding to each other with a straight line between the individual composite images, and the trajectory line acquired by the trajectory line acquisition unit is the travel of the vehicle And a parameter calibration unit that calibrates camera parameters related to the mounting state of the plurality of cameras so as to extend along the direction.

このように構成された本発明に係るキャリブレーション装置によれば、直線状特徴部が存在しない環境下でもカメラパラメータを校正することができる。   According to the calibration device according to the present invention configured as described above, it is possible to calibrate camera parameters even in an environment where no linear feature exists.

本発明の一実施形態に係るキャリブレーション装置を搭載したキャリブレーションシステムの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a calibration system equipped with a calibration apparatus according to an embodiment of the present invention. 車両の座標軸と各軸回りの回転角の一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate angle of a vehicle, and the rotation angle around each axis. 製品出荷時及び使用時のキャリブレーションを実施するまでの手順を説明したフロー図である。It is the flowchart explaining the procedure until it implements the calibration at the time of product shipment and use. 使用時キャリブレーションの実施前の重畳合成画像の一例を示す図である。It is a figure which shows an example of the superimposition synthetic | combination image before implementation of a calibration in use. 使用時キャリブレーションの実施過程における重畳合成画像の一例を示す図である。It is a figure which shows an example of the superimposition synthetic | combination image in the implementation process of a calibration at the time of use. 使用時キャリブレーションの実施後の重畳合成画像の一例を示す図である。It is a figure which shows an example of the superimposition synthetic | combination image after implementation of calibration at the time of use. 本発明の一実施形態に係るキャリブレーション装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a calibration apparatus according to an embodiment of the present invention. 図7に示すキャリブレーション装置によるキャリブレーション処理を説明したフロー図である。FIG. 8 is a flowchart illustrating calibration processing by the calibration apparatus shown in FIG. 7.

以下、本発明に係るキャリブレーション装置の実施形態を図面を参照して説明する。   Hereinafter, embodiments of a calibration apparatus according to the present invention will be described with reference to the drawings.

<キャリブレーションシステムの概略構成>
図1は、本発明に係るキャリブレーション装置を搭載したキャリブレーションシステムの概略構成を示すブロック図である。カメラキャリブレーションシステム100は、主に、4台のカメラ111、112,113、114と、演算装置101と、RAM(Random Access Memory)102と、ROM(Read Only Memory)103と、表示装置104と、車速センサ105と、舵角センサ106と、ヨーレートセンサ107と、入力装置108と、通信装置109とを備えている。
<Schematic configuration of calibration system>
FIG. 1 is a block diagram showing a schematic configuration of a calibration system equipped with a calibration apparatus according to the present invention. The camera calibration system 100 mainly includes four cameras 111, 112, 113, 114, an arithmetic device 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, and a display device 104. The vehicle speed sensor 105, the steering angle sensor 106, the yaw rate sensor 107, the input device 108, and the communication device 109 are provided.

各カメラ111〜114は、路面上を走行する車両1に取り付けられて車両1の周辺を撮像する。各カメラ111〜114は、当該車両1の前後左右に設置される。例えば、前後に設置されるカメラは、ナンバープレート付近の車体に取り付けられ、左右に設置されるカメラは、サイドミラーの下部等に取り付けられる。ここでは、カメラ111を車両1の前方、カメラ112を車両1の後方、カメラ113を車両1の左方、カメラ114を車両1の右方に取り付けたものとする(図4〜図6参照)。各カメラ111〜114は、水平方向から斜め下方に光軸が向くように取り付けられる。   Each of the cameras 111 to 114 is attached to the vehicle 1 traveling on the road surface and images the periphery of the vehicle 1. The cameras 111 to 114 are installed on the front, rear, left and right of the vehicle 1. For example, the front and rear cameras are attached to the vehicle body near the license plate, and the left and right cameras are attached to the lower part of the side mirror. Here, the camera 111 is attached to the front of the vehicle 1, the camera 112 is attached to the rear of the vehicle 1, the camera 113 is attached to the left of the vehicle 1, and the camera 114 is attached to the right of the vehicle 1 (see FIGS. 4 to 6). . Each of the cameras 111 to 114 is attached so that the optical axis faces obliquely downward from the horizontal direction.

各カメラ111〜114は、既知の設計情報に従って取り付けられるが、実際には取り付け誤差が発生しており、この誤差は未知である。また、各カメラ111〜114には、車両1の全周囲の画像を取得できるように、広角の魚眼カメラが採用される。各カメラ111〜114で撮像された4つの画像は、演算装置101に出力される。   Each of the cameras 111 to 114 is attached according to known design information, but in reality, an attachment error has occurred, and this error is unknown. In addition, a wide-angle fisheye camera is employed for each of the cameras 111 to 114 so that an image of the entire periphery of the vehicle 1 can be acquired. Four images captured by the cameras 111 to 114 are output to the arithmetic device 101.

車速センサ105は、車速を検出するセンサである。舵角センサ106は、舵角を検出するセンサである。ヨーレートセンサ107は、ヨーレートを検出するセンサである。各センサで検出された情報は、演算装置101に出力され、演算装置101における演算処理で利用される。   The vehicle speed sensor 105 is a sensor that detects the vehicle speed. The steering angle sensor 106 is a sensor that detects the steering angle. The yaw rate sensor 107 is a sensor that detects the yaw rate. Information detected by each sensor is output to the arithmetic device 101 and used in arithmetic processing in the arithmetic device 101.

入力装置108は、例えばスイッチやボタン等といった、ユーザーの操作を受け付ける装置であり、キャリブレーション機能のオン/オフ、キャリブレーション結果の初期化、キャリブレーション方法の変更等に利用される。ユーザーの操作を介して当該入力装置108に入力された各種情報は、演算装置101に出力される。   The input device 108 is a device that accepts user operations such as switches and buttons, and is used for turning on / off the calibration function, initializing the calibration result, changing the calibration method, and the like. Various types of information input to the input device 108 through user operations are output to the arithmetic device 101.

通信装置109は、不図示の外部機器との通信に使用される装置である。通信装置109は、外部機器から各種情報を受信し、受信した各種情報を演算装置101に出力したり、演算装置101で演算された各種情報を外部機器へ出力したりする。   The communication device 109 is a device used for communication with an external device (not shown). The communication device 109 receives various types of information from an external device, and outputs the received various types of information to the arithmetic device 101, and outputs various types of information calculated by the arithmetic device 101 to the external device.

RAM102には、演算装置101における演算処理過程で必要となる数値データ、演算処理途中の処理結果に対するプログラムの変数等が書き込まれる。また、書き込まれたデータは、演算装置101の演算処理過程で適宜必要に応じて読み出されて演算処理に使用される。また、RAM102には、各カメラ111〜114によって撮像された画像データ等も格納される。   In the RAM 102, numerical data required in the arithmetic processing process in the arithmetic device 101, program variables for processing results during the arithmetic processing, and the like are written. Also, the written data is read out as necessary in the arithmetic processing process of the arithmetic unit 101 and used for arithmetic processing. The RAM 102 also stores image data captured by the cameras 111 to 114.

ROM103には、例えば、キャリブレーションを実行するプログラムや、プログラムで必要となる情報のうちで書き換えをせずに利用される情報が事前に格納される。ROM103には、例えば、各カメラの設置位置や角度の設計値等、各カメラ111〜114の取り付け状態に関するカメラパラメータとなる外部パラメータと、各カメラの焦点距離、画素サイズ、光軸中心、歪み関数等のカメラパラメータとなる内部パラメータとが格納される。   In the ROM 103, for example, a program for executing calibration and information used without rewriting among information necessary for the program are stored in advance. In the ROM 103, for example, external parameters that are camera parameters relating to the mounting state of each camera 111 to 114, such as the installation position and angle design value of each camera, the focal length, the pixel size, the optical axis center, and the distortion function of each camera And other internal parameters that are camera parameters are stored.

演算装置101は、各カメラ111〜114、車速センサ105、舵角センサ106、ヨーレートセンサ107、入力装置108及び通信装置109等から送信される種々の情報を受け取って、プログラム等に基づき計算処理を実施する装置である。演算装置101には、キャリブレーション装置116が内蔵されている。キャリブレーション装置116の構成については後述する。   The arithmetic device 101 receives various information transmitted from each of the cameras 111 to 114, the vehicle speed sensor 105, the rudder angle sensor 106, the yaw rate sensor 107, the input device 108, the communication device 109, and the like, and performs calculation processing based on a program or the like. It is an apparatus to be implemented. The arithmetic device 101 includes a calibration device 116. The configuration of the calibration device 116 will be described later.

表示装置104は、演算装置101の処理結果を受け取り、ディスプレイ等を用いてその処理結果をユーザーに提示する。例えば、各カメラ111〜114の4つの画像を視点変換・合成して生成された合成画像をユーザーに対して表示する。また、表示装置104は、例えば後方カメラ112の画像だけを表示する等、演算装置101の出力に従って表示内容を切り替えることもできる。   The display device 104 receives the processing result of the arithmetic device 101 and presents the processing result to the user using a display or the like. For example, a combined image generated by viewpoint-converting and combining four images of the cameras 111 to 114 is displayed to the user. The display device 104 can also switch display contents according to the output of the arithmetic device 101, for example, displaying only the image of the rear camera 112.

<車両の座標軸と各軸回りの回転角>
図2は、車両の座標軸と各軸回りの回転角の一例を示す説明図である。なお、説明の便宜上、図2では、XYZ三次元座標系を定義し、車両1の重心Gを原点Oとして定義する。
<Vehicle coordinate axes and rotation angles around each axis>
FIG. 2 is an explanatory diagram illustrating an example of a coordinate axis of a vehicle and a rotation angle around each axis. For convenience of explanation, in FIG. 2, an XYZ three-dimensional coordinate system is defined, and the center of gravity G of the vehicle 1 is defined as the origin O.

この例では、原点Oを含む、地面EGと平行な水平面をXY平面と定義し、車両1の進行方向をX軸方向と定義し、原点Oを通過し且つX軸に鉛直な直線をY軸と定義する。また、原点Oを含む、地面EGに対して鉛直な面をXZ平面と定義し、原点Oを通過し且つX軸に鉛直な直線をZ軸と定義する。   In this example, a horizontal plane parallel to the ground EG including the origin O is defined as the XY plane, the traveling direction of the vehicle 1 is defined as the X-axis direction, and a straight line passing through the origin O and perpendicular to the X-axis is defined as the Y-axis. It is defined as A plane perpendicular to the ground EG including the origin O is defined as the XZ plane, and a straight line passing through the origin O and perpendicular to the X axis is defined as the Z axis.

図中のローリングとは、X軸回りの回転のことをいい、ピッチングとは、Y軸回りの回転のことをいい、ヨーイングとは、Z軸回りの回転のことをいう。X,Y,Z軸の回りの回転角のパラメータを、それぞれ、車両1のロール角、車両1のピッチ角、車両1のヨー角という。また、図中の高さHは、地面EGから車両1の重心G(原点O)までの高さであって、車両1の高さを示す。   Rolling in the figure refers to rotation about the X axis, pitching refers to rotation about the Y axis, and yawing refers to rotation about the Z axis. The parameters of the rotation angles around the X, Y, and Z axes are referred to as the roll angle of the vehicle 1, the pitch angle of the vehicle 1, and the yaw angle of the vehicle 1, respectively. In addition, a height H in the figure is a height from the ground EG to the center of gravity G (origin O) of the vehicle 1 and indicates the height of the vehicle 1.

<製品出荷時及び使用時のキャリブレーションを実施するまでの手順>
図3は、製品出荷時及び使用時のキャリブレーションを実施するまでの手順を説明したフロー図である。図示するように、製品出荷時のキャリブレーションS205は、例えば、カメラ取り付けS201、乗車状態再現S202、位置調整S203、キャリブレーションチャート撮像S204の後に実施される。
<Procedure until calibration at the time of product shipment and use>
FIG. 3 is a flowchart for explaining the procedure until the calibration at the time of product shipment and use. As shown in the figure, calibration S205 at the time of product shipment is performed after, for example, camera mounting S201, riding state reproduction S202, position adjustment S203, and calibration chart imaging S204.

カメラ取り付けS201では、各カメラ111〜114を車体へ取り付け、乗車状態再現S202では、車両1に搭乗者が乗っている状態が再現される。例えば、運転席に体重60キロの検査員が実際に乗ったり、それに相当する荷物を搭載したりする等して、実際に発生すると想定される乗車状態が再現される。この乗車状態再現S202を実施する理由は、乗車状態によって車両1の姿勢が変化し、それに伴って地面に対する各カメラ111〜114の角度等が変動するからである。   In camera attachment S201, each camera 111-114 is attached to a vehicle body, and the riding state reproduction S202 reproduces the state where the passenger is on the vehicle 1. For example, a boarding state that is assumed to actually occur is reproduced by, for example, an inspector having a weight of 60 kg actually getting on the driver's seat or mounting a corresponding baggage. The reason why the riding state reproduction S202 is performed is that the posture of the vehicle 1 changes depending on the riding state, and the angle of each of the cameras 111 to 114 with respect to the ground changes accordingly.

各カメラ111〜114の角度や位置が、設計した取り付け状態と異なる場合、重畳合成画像(図4〜図6参照)における各カメラ111〜114で撮像されて視点変換された俯瞰画像同士の境界(以下、画像境界という)にズレが発生する。そのため、この変動した角度等を考慮したうえでキャリブレーションを実施する必要がある。この乗車状態再現S202によって、それに対応した車両姿勢によるカメラ取り付け状態を再現する。   When the angles and positions of the cameras 111 to 114 are different from the designed mounting state, the boundary between the overhead images captured by the cameras 111 to 114 and subjected to viewpoint conversion in the superimposed composite image (see FIGS. 4 to 6) ( Hereinafter, a shift occurs in the image boundary). Therefore, it is necessary to perform calibration in consideration of the changed angle and the like. By this riding state reproduction S202, the camera mounting state according to the corresponding vehicle posture is reproduced.

位置調整S203では、車両1とキャリブレーションチャートが予め定められた位置関係になるように調整する。ここでは、キャリブレーションチャート(例えば紙や板等に印字されたパターン)とカメラの位置関係を規定の位置関係に定めたうえでキャリブレーションが実施される。   In the position adjustment S203, the vehicle 1 and the calibration chart are adjusted so as to have a predetermined positional relationship. Here, calibration is performed after the positional relationship between a calibration chart (for example, a pattern printed on paper, a plate, etc.) and the camera is set to a predetermined positional relationship.

キャリブレーションチャート撮像S204では、車両1に取り付けられた各カメラ111〜114で、キャリブレーションチャートを撮像する。   In the calibration chart imaging S <b> 204, the calibration chart is imaged by the cameras 111 to 114 attached to the vehicle 1.

製品出荷時のキャリブレーションS205では、各カメラ111〜114で撮像された画像を使ってキャリブレーションを実施する。その際、例えば、設計通りに各カメラ111〜114が取り付けられており、かつ規定の位置にキャリブレーションチャートが設置されている場合に、キャリブレーションチャートが映るべき位置を計算し、実際に撮像した画像中のキャリブレーションチャートがその映るべき位置に映るように、プログラム中の画像変換に使用しているカメラパラメータを調整する。   In calibration S205 at the time of product shipment, calibration is performed using images captured by the cameras 111 to 114. At that time, for example, when each camera 111 to 114 is mounted as designed and the calibration chart is installed at a specified position, the position where the calibration chart should be displayed is calculated and actually captured The camera parameters used for image conversion in the program are adjusted so that the calibration chart in the image is displayed at the position to be reflected.

このキャリブレーションS205に関しては、例えば、キャリブレーションチャートと車両1の位置関係が不定でもキャリブレーションを実施できる技術を利用してもよく、この場合には、位置調整S203の手順が不要になる。   For this calibration S205, for example, a technique capable of performing calibration even if the positional relationship between the calibration chart and the vehicle 1 is indeterminate may be used. In this case, the procedure of the position adjustment S203 is not necessary.

ところで、このような手順でキャリブレーションを実施する場合、乗車状態再現S202で実施しているように、特定の乗車状態を想定した上でキャリブレーションを実施していることになる。そのため、実際の乗車状態が製品出荷時のキャリブレーション時の乗車状態と異なれば、重畳合成画像(図4〜図6参照)における画像境界にズレが生じるという問題がある。従って、特定の乗車状態でキャリブレーションを実施するだけでは不十分であり、例えば乗車状態に応じて、その都度キャリブレーションを実施する必要がある。   By the way, when the calibration is performed in such a procedure, the calibration is performed on the assumption of a specific riding state as in the riding state reproduction S202. Therefore, if the actual boarding state is different from the boarding state at the time of calibration at the time of product shipment, there is a problem that the image boundary in the superimposed composite image (see FIGS. 4 to 6) is shifted. Therefore, it is not sufficient to perform calibration only in a specific boarding state. For example, it is necessary to perform calibration every time depending on the boarding state.

そこで、製品出荷された後における走行中や駐停車中等を含む使用時にも、その際の乗車状態に応じたキャリブレーションを実施する。すなわち、図3に示すように、製品出荷時のキャリブレーションS205を実施した後、使用時のキャリブレーションS206を実施する。   Therefore, calibration according to the boarding state at that time is performed even during use, such as during travel or parking, after the product is shipped. That is, as shown in FIG. 3, after performing calibration S205 at the time of product shipment, calibration S206 at the time of use is performed.

使用時のキャリブレーションS206では、上記した問題に対応するために、キャリブレーション装置116(図1)により、走行中や駐停車中等の車両1の使用時に各カメラ111〜114で撮像できる周囲環境の情報を用いて、乗車状態に応じたその都度のキャリブレーションが実施される。   In use calibration S206, in order to deal with the above-described problem, the calibration device 116 (FIG. 1) allows the cameras 111 to 114 to capture images of the surrounding environment when the vehicle 1 is in use, such as running or parked. Each time calibration according to the boarding state is performed using the information.

<使用時のキャリブレーションS206の概説>
図4〜図6を参照して、キャリブレーション装置116(図1)による使用時のキャリブレーションS206を概説する。なお、図4〜図6では、説明の便宜上、異なる時刻t1、t2、・・・、t7に対応して生成された個々の合成画像を重畳した一枚の重畳合成画像を用いたキャリブレーション処理を説明する。
<Outline of calibration S206 during use>
With reference to FIG. 4 to FIG. 6, the calibration S206 in use by the calibration device 116 (FIG. 1) will be outlined. 4 to 6, for convenience of explanation, calibration processing using a single superimposed composite image in which individual composite images generated corresponding to different times t1, t2,..., T7 are superimposed. Will be explained.

しかし、実際のキャリブレーション処理は、特定の特徴物の位置に対応した座標点(以下では、適宜、特徴点という)を個々の合成画像に渡って追跡した結果として得られる軌跡線を用いて行えば良い。特定の特徴物としては、例えば、道路に描かれた速度制限標識や、道路に描かれた交通案内標識等の道路標識のコーナー部分(点)が使用される。   However, the actual calibration process is performed using a trajectory line obtained as a result of tracking coordinate points corresponding to the position of a specific feature (hereinafter referred to as feature points as appropriate) across individual composite images. Just do it. As a specific feature, for example, a speed limit sign drawn on a road or a corner portion (point) of a road sign such as a traffic guide sign drawn on a road is used.

図4は、使用時キャリブレーションの実施前の重畳合成画像の一例を示したものであり、図3のS201〜S205の処理等による工場での製品出荷時のキャリブレーションを実施した後、使用時の車両の乗車状態が、製品出荷時のキャリブレーションにおいて想定した乗車状態から変化したときの重畳合成画像の一例を示したものである。   FIG. 4 shows an example of the superimposed composite image before the calibration at the time of use. After the calibration at the time of product shipment in the factory by the processing of S201 to S205 in FIG. 6 shows an example of a superimposed composite image when the boarding state of the vehicle changes from the boarding state assumed in the calibration at the time of product shipment.

図4に示すように、重畳合成画像には、車両1の両側に軌跡線Fr1、Fr2、Lt1、Rt2、Rr1、Rr2(図示例では特徴点の軌跡)が映り込んでいる。   As shown in FIG. 4, locus lines Fr 1, Fr 2, Lt 1, Rt 2, Rr 1, Rr 2 (trajectories of feature points in the illustrated example) are reflected on both sides of the vehicle 1.

2本の軌跡線Fr1、Fr2は、重畳合成画像上に並んだ異なる時刻t1、t2における特徴点同士を直線で結ぶことにより得られる。すなわち、軌跡線Fr1は、重畳合成画像上に並んだ、時刻t1における特徴点Fr1_t1と、時刻t2におけるFr1_t2とを近似直線で結ぶことにより得られる。軌跡線Fr2は、重畳合成画像上に並んだ、時刻t1における特徴点Fr2_t1と、時刻t2における特徴点Fr2_t2とを近似直線で結ぶことにより得られる。   The two trajectory lines Fr1 and Fr2 are obtained by connecting the feature points at different times t1 and t2 arranged on the superimposed composite image with straight lines. That is, the trajectory line Fr1 is obtained by connecting the feature points Fr1_t1 at time t1 and Fr1_t2 at time t2 that are arranged on the superimposed composite image with an approximate straight line. The locus line Fr2 is obtained by connecting the feature point Fr2_t1 at the time t1 and the feature point Fr2_t2 at the time t2, which are arranged on the superimposed composite image, with an approximate straight line.

従って、重畳合成画像上で2本の軌跡線Fr1、Fr2を引くには、時刻t1において前方カメラ111で撮像されて視点変換された俯瞰画像の中に特徴点Fr1_t1と特徴点Fr2_t1が含まれているだけでは足りず、時刻t2において前方カメラ111で撮像されて視点変換された俯瞰画像の中に特徴点Fr1_t2と特徴点Fr2_t2が含まれている必要がある。   Therefore, in order to draw the two trajectory lines Fr1 and Fr2 on the superimposed composite image, the feature point Fr1_t1 and the feature point Fr2_t1 are included in the bird's-eye view image captured by the front camera 111 at time t1 and subjected to viewpoint conversion. However, it is necessary that the feature point Fr1_t2 and the feature point Fr2_t2 are included in the bird's-eye view image captured by the front camera 111 and converted in viewpoint at time t2.

例えば、車両1が時速100kmで走行中であれば、車両の全長が4.5m〜5m程度とすると、時刻t1〜時刻t2の間において特徴点が移動する距離を1.35m程度、つまり、前方カメラ111の撮像周期を0.05秒程度に設定しておけば、時刻t1における特徴点Fr2_t1、Fr2_t1と、時刻t2における特徴点Fr2_t2、Fr2_t2の双方を同じ俯瞰画像の範囲内に所在させることができると考えられる。これにより、重畳合成画像上で2本の軌跡線Fr1、Fr2を引くことができると考えられる。2本の軌跡線Fr1、Fr2はそれぞれ互いに平行である必要があるが、車両1と軌跡線の相対的な角度や軌跡線までの距離等といった、車両1と軌跡線の相対的な関係は不要である。   For example, if the vehicle 1 is traveling at a speed of 100 km / h, and the total length of the vehicle is about 4.5 m to 5 m, the distance that the feature point moves between time t1 and time t2 is about 1.35 m, that is, forward If the imaging cycle of the camera 111 is set to about 0.05 seconds, both the feature points Fr2_t1 and Fr2_t1 at time t1 and the feature points Fr2_t2 and Fr2_t2 at time t2 may be located within the same overhead image range. It is considered possible. Thereby, it is considered that two trajectory lines Fr1 and Fr2 can be drawn on the superimposed composite image. The two trajectory lines Fr1 and Fr2 need to be parallel to each other, but the relative relationship between the vehicle 1 and the trajectory line, such as the relative angle between the vehicle 1 and the trajectory line, the distance to the trajectory line, or the like is not necessary. It is.

2本の軌跡線Rr1、Rr2は、重畳合成画像上に並んだ異なる時刻t6、t7における特徴点同士を直線で結ぶことにより得られる。すなわち、軌跡線Rr1は、重畳合成画像上に並んだ、時刻t6における特徴点Rr1_t6と、時刻t7におけるRr1_t7とを近似直線で結ぶことにより得られる。軌跡線Rr2は、重畳合成画像上に並んだ、時刻t6における特徴点Rr2_t6と、時刻t7における特徴点Rr2_t7とを近似直線で結ぶことにより得られる。   The two trajectory lines Rr1 and Rr2 are obtained by connecting the feature points at different times t6 and t7 arranged on the superimposed composite image with straight lines. That is, the trajectory line Rr1 is obtained by connecting the feature points Rr1_t6 at time t6 and Rr1_t7 at time t7, which are arranged on the superimposed composite image, with an approximate straight line. The locus line Rr2 is obtained by connecting the feature point Rr2_t6 at the time t6 and the feature point Rr2_t7 at the time t7, which are arranged on the superimposed composite image, with an approximate straight line.

従って、重畳合成画像上で2本の軌跡線Rr1、Rr2を引くには、時刻t6において後方カメラ112で撮像されて視点変換された俯瞰画像の中に特徴点Rr1_t6と特徴点Rr2_t6が含まれているだけでは足りず、時刻t7において後方カメラ112で撮像されて視点変換された俯瞰画像の中に特徴点Rr2_t6と特徴点Rr2_t7が含まれている必要がある。   Therefore, in order to draw the two trajectory lines Rr1 and Rr2 on the superimposed composite image, the feature point Rr1_t6 and the feature point Rr2_t6 are included in the bird's-eye view image captured by the rear camera 112 at time t6 and subjected to viewpoint conversion. However, it is necessary that the feature point Rr2_t6 and the feature point Rr2_t7 are included in the bird's-eye view image captured by the rear camera 112 and converted in viewpoint at time t7.

例えば、車両1が時速100kmで走行中であれば、車両の全長が4.5m〜5m程度とすると、時刻t6〜時刻t7の間において特徴点が移動する距離を1.35m程度、つまり、後方カメラ112の撮像周期を0.05秒程度に設定しておけば、時刻t6における特徴点Rr1_t6、Rr2_t6と、時刻t7における特徴点Rr1_t7、Rr2_t7の双方を同じ俯瞰画像の範囲内に所在させることができると考えられる。これにより、重畳合成画像上で2本の軌跡線Rr1、Rr2を引くことができると考えられる。2本の軌跡線Rr1、Rr2はそれぞれ互いに平行である必要があるが、車両1と軌跡線の相対的な角度や軌跡線までの距離等といった、車両1と軌跡線の相対的な関係は不要である。   For example, if the vehicle 1 is traveling at a speed of 100 km / h, and the total length of the vehicle is about 4.5 m to 5 m, the distance that the feature point moves between time t6 and time t7 is about 1.35 m, that is, If the imaging cycle of the camera 112 is set to about 0.05 seconds, both the feature points Rr1_t6 and Rr2_t6 at time t6 and the feature points Rr1_t7 and Rr2_t7 at time t7 may be located within the same overhead image range. It is considered possible. Thereby, it is considered that two trajectory lines Rr1 and Rr2 can be drawn on the superimposed composite image. The two trajectory lines Rr1 and Rr2 need to be parallel to each other, but the relative relationship between the vehicle 1 and the trajectory line, such as the relative angle between the vehicle 1 and the trajectory line, the distance to the trajectory line, or the like is not necessary. It is.

1本の軌跡線Lt1は、重畳合成画像上に並んだ異なる時刻t3〜t5における特徴点同士を直線で結ぶことにより得られる。すなわち、軌跡線Lt1は、重畳合成画像上に並んだ、時刻t3における特徴点Lt_t3と、時刻t4における特徴点Lt_t4と、時刻t5における特徴点Lt_t5を近似直線で結ぶことにより得られる。   One trajectory line Lt1 is obtained by connecting feature points at different times t3 to t5 arranged on the superimposed composite image with straight lines. That is, the trajectory line Lt1 is obtained by connecting the feature point Lt_t3 at time t3, the feature point Lt_t4 at time t4, and the feature point Lt_t5 at time t5, which are arranged on the superimposed composite image, with an approximate straight line.

従って、重畳合成画像上で1本の軌跡線Lt1を引くには、時刻t3において左方カメラ113で撮像されて視点変換された俯瞰画像の中に特徴点Lt_t3が含まれているだけでは足りず、時刻t4において左方カメラ113で撮像されて視点変換された俯瞰画像の中に特徴点Lt_t4が含まれるか、時刻t5において左方カメラ113で撮像されて視点変換された俯瞰画像の中に特徴点Lt_t5が含まれている必要がある。   Therefore, in order to draw one trajectory line Lt1 on the superimposed composite image, it is not sufficient that the feature point Lt_t3 is included in the overhead image captured by the left camera 113 and converted in viewpoint at time t3. The feature point Lt_t4 is included in the overhead view image captured by the left camera 113 at time t4 and converted in viewpoint, or the feature point is included in the overhead image captured by the left camera 113 at time t5 and converted in viewpoint. The point Lt_t5 needs to be included.

例えば、車両1が時速100kmで走行中であれば、車両の全長が4.5m〜5m程度とすると、時刻t3〜時刻t5の間において特徴点が移動する距離を1.35m程度、つまり、左方カメラ113の撮像周期を0.05秒程度に設定しておけば、時刻t3における特徴点Lt_t3と、時刻t4における特徴点Lt_t4と、時刻t5における特徴点Lt_t5の全てを同じ俯瞰画像の範囲内に所在させることができると考えられる。   For example, if the vehicle 1 is traveling at a speed of 100 km / h, and the total length of the vehicle is about 4.5 m to 5 m, the distance that the feature point moves between time t3 and time t5 is about 1.35 m, that is, left If the imaging cycle of the one-way camera 113 is set to about 0.05 seconds, all of the feature point Lt_t3 at time t3, the feature point Lt_t4 at time t4, and the feature point Lt_t5 at time t5 are within the same overhead image range. It is thought that it can be located in.

また、時刻t3〜時刻t5の間において特徴点が移動する距離を2.7m程度、つまり、左方カメラ113の撮像周期を0.1秒程度に設定しておけば、時刻t3における特徴点Lt_t3と、時刻t5における特徴点Lt_t5の双方を同じ俯瞰画像の範囲内に所在させることができると考えられる。これにより、重畳合成画像上で1本の軌跡線Lt1を引くことができると考えられる。   Further, if the distance that the feature point moves between time t3 and time t5 is set to about 2.7 m, that is, the imaging cycle of the left camera 113 is set to about 0.1 second, the feature point Lt_t3 at time t3. It is considered that both the feature point Lt_t5 at time t5 can be located within the same overhead view image. Thereby, it is considered that one trajectory line Lt1 can be drawn on the superimposed composite image.

1本の軌跡線Rt2は、重畳合成画像上に並んだ異なる時刻t3〜t5における特徴点同士を直線で結ぶことにより得られる。すなわち、軌跡線Rt2は、重畳合成画像上に並んだ、時刻t3における特徴点Rt_t3と、時刻t4における特徴点Rt_t4と、時刻t5における特徴点Rt_t5を近似直線で結ぶことにより得られる。   One locus line Rt2 is obtained by connecting feature points at different times t3 to t5 arranged on the superimposed composite image with straight lines. That is, the trajectory line Rt2 is obtained by connecting the feature point Rt_t3 at time t3, the feature point Rt_t4 at time t4, and the feature point Rt_t5 at time t5, which are arranged on the superimposed composite image, with an approximate straight line.

従って、重畳合成画像上で1本の軌跡線Rt2を引くには、時刻t3において右方カメラ114で撮像されて視点変換された俯瞰画像の中に特徴点Rt_t3が含まれているだけでは足りず、時刻t4において右方カメラ114で撮像されて視点変換された俯瞰画像の中に特徴点Rt_t4が含まれるか、時刻t5において右方カメラ114で撮像されて視点変換された俯瞰画像の中に特徴点Rt_t5が含まれている必要がある。   Therefore, in order to draw one trajectory line Rt2 on the superimposed composite image, it is not sufficient that the feature point Rt_t3 is included in the overhead image captured by the right camera 114 at the time t3 and subjected to viewpoint conversion. The feature point Rt_t4 is included in the bird's-eye view image captured by the right camera 114 at time t4 and converted in viewpoint, or the feature point is included in the bird's-eye view image captured by the right camera 114 and converted in viewpoint at time t5. The point Rt_t5 needs to be included.

例えば、車両1が時速100kmで走行中であれば、車両の全長が4.5m〜5m程度とすると、時刻t3〜時刻t5の間において特徴点が移動する距離を1.35m程度、つまり、右方カメラ114の撮像周期を0.05秒程度に設定しておけば、時刻t3における特徴点Rt_t3と、時刻t4における特徴点Rt_t4と、時刻t5における特徴点Rt_t5の全てを同じ俯瞰画像の範囲内に所在させることができると考えられる。   For example, if the vehicle 1 is traveling at a speed of 100 km / h, and the total length of the vehicle is about 4.5 m to 5 m, the distance that the feature point moves between time t3 and time t5 is about 1.35 m, that is, right If the imaging cycle of the direction camera 114 is set to about 0.05 seconds, all of the feature point Rt_t3 at time t3, the feature point Rt_t4 at time t4, and the feature point Rt_t5 at time t5 are within the same range of the overhead view image. It is thought that it can be located in.

また、時刻t3〜時刻t5の間において特徴点が移動する距離を2.7m程度、つまり、右方カメラ114の撮像周期を0.1秒程度に設定しておけば、時刻t3における特徴点Rt_t3と、時刻t5における特徴点Rt_t5の双方を同じ俯瞰画像の範囲内に所在させることができると考えられる。これにより、重畳合成画像上で1本の軌跡線Rt2を引くことができると考えられる。   Further, if the distance that the feature point moves between time t3 and time t5 is set to about 2.7 m, that is, the imaging cycle of the right camera 114 is set to about 0.1 second, the feature point Rt_t3 at time t3. It is considered that both the feature point Rt_t5 at time t5 can be located within the same overhead image range. Thereby, it is considered that one trajectory line Rt2 can be drawn on the superimposed composite image.

図4に示す重畳合成画像には、上記の各軌跡線Fr1、Fr2、Lt1、Rt2、Rr1、Rr2が表示されているが、車両1の乗車状態が事前に想定された乗車状態と異なる。そのため、地面に対する各カメラ111〜114の姿勢(角度や位置)が変化しており、図4に示すように、重畳合成画像における画像境界において、各軌跡線にズレが生じている。   In the superimposed composite image shown in FIG. 4, the trajectory lines Fr1, Fr2, Lt1, Rt2, Rr1, and Rr2 are displayed, but the boarding state of the vehicle 1 is different from the boarding state assumed in advance. For this reason, the postures (angles and positions) of the cameras 111 to 114 with respect to the ground are changed, and as shown in FIG. 4, the locus lines are displaced at the image boundaries in the superimposed composite image.

そこで、使用時キャリブレーションでは、このような状況において、重畳合成画像を補正して各軌跡線のズレがなくなるように、キャリブレーションを実施する。本実施形態では、できるだけ多くのシーンでキャリブレーションを実施でき、かつ安定したキャリブレーションを実施するために、上記の各軌跡線Fr1、Fr2、Lt1、Rt2、Rr1、Rr2を用いてキャリブレーションを実施する。   Therefore, in use calibration, calibration is performed in such a situation so that the superimposed composite image is corrected so that there is no deviation between the trajectory lines. In this embodiment, calibration can be performed in as many scenes as possible, and in order to perform stable calibration, calibration is performed using each of the trajectory lines Fr1, Fr2, Lt1, Rt2, Rr1, and Rr2. To do.

より詳細には、この使用時キャリブレーションでは、各カメラ111〜114のパラメータを直接推定せず、車両1の姿勢、すなわち車両1の姿勢を表すパラメータを推定し、車両1の姿勢を表すパラメータから各カメラ111〜114のカメラパラメータを推定して上記キャリブレーションを実施する。   More specifically, in this in-use calibration, the parameters of the cameras 111 to 114 are not directly estimated, but the posture of the vehicle 1, that is, the parameter representing the posture of the vehicle 1 is estimated, and the parameters representing the posture of the vehicle 1 are estimated. The calibration is performed by estimating the camera parameters of each of the cameras 111 to 114.

車両1の姿勢を推定するステップは、車両1のピッチ角を推定するステップと、車両1のロール角・高さを同時に推定するステップとに分かれている。車両1のピッチ角を推定するステップでは、車両1の前後に設置された前方カメラ111及び後方カメラ112で撮像された軌跡線の平行性に基づいて車両1のピッチ角の推定を行う。   The step of estimating the attitude of the vehicle 1 is divided into a step of estimating the pitch angle of the vehicle 1 and a step of simultaneously estimating the roll angle and height of the vehicle 1. In the step of estimating the pitch angle of the vehicle 1, the pitch angle of the vehicle 1 is estimated based on the parallelism of the trajectory lines captured by the front camera 111 and the rear camera 112 installed in the front and rear of the vehicle 1.

車両1のピッチ角を推定してカメラパラメータの補正を実施すると、図5で示すような重畳合成画像が得られる。ここでは、軌跡線Fr1、Fr2が重畳合成画像上で平行になるようにカメラパラメータが補正される。同様に、軌跡線Rr1、Rr2が重畳合成画像上で平行になるようにカメラパラメータが補正される。   When the pitch angle of the vehicle 1 is estimated and the camera parameters are corrected, a superimposed composite image as shown in FIG. 5 is obtained. Here, the camera parameters are corrected so that the trajectory lines Fr1 and Fr2 are parallel on the superimposed composite image. Similarly, the camera parameters are corrected so that the trajectory lines Rr1 and Rr2 are parallel on the superimposed composite image.

その後、車両1のロール角・高さを同時に推定するステップでは、重畳合成画像の中の各俯瞰画像同士の画像境界における軌跡線のズレがなくなるように、車両1のロール角及び高さを推定する。   Thereafter, in the step of simultaneously estimating the roll angle and height of the vehicle 1, the roll angle and height of the vehicle 1 are estimated so that there is no deviation of the locus line at the image boundary between the overhead images in the superimposed composite image. To do.

このように車両1のロール角及び高さを推定してカメラパラメータの補正を実施し、車両姿勢の変動に伴った各カメラ111〜114のカメラパラメータを推定してキャリブレーションを実施した結果、図6に示すように、重畳合成画像の中の各俯瞰画像同士の画像境界において軌跡線のズレのない重畳合成画像が得られる。   As a result of estimating the roll angle and height of the vehicle 1 in this way and correcting the camera parameters, estimating the camera parameters of the cameras 111 to 114 in accordance with changes in the vehicle posture, and performing calibration, FIG. As shown in FIG. 6, a superimposed composite image with no deviation of the trajectory line is obtained at the image boundary between the overhead images in the superimposed composite image.

<キャリブレーション装置の実施形態>
図7は、本発明の一実施形態に係るキャリブレーション装置の概略構成を示したものであり、上記した使用時キャリブレーションを具現化し得るキャリブレーション装置の内部構成を示したものである。
<Embodiment of Calibration Apparatus>
FIG. 7 shows a schematic configuration of a calibration apparatus according to an embodiment of the present invention, and shows an internal configuration of a calibration apparatus that can embody the above-described calibration in use.

また、図8は、図7に示すキャリブレーション装置によるキャリブレーション処理を説明したフロー図である。なお、図7に示すキャリブレーション処理は、ROM103に予め格納されたプログラムがロードされて実施される。   FIG. 8 is a flowchart for explaining calibration processing by the calibration apparatus shown in FIG. Note that the calibration process shown in FIG. 7 is executed by loading a program stored in advance in the ROM 103.

キャリブレーション装置116は、車両1に搭載されて車両の周辺を撮像する各カメラ111〜114の校正を実施する。キャリブレーション装置116は、キャリブレーション実施判定部117と、画像生成部118と、軌跡線取得部119と、舵角取得部120と、パラメータ校正部121と、を有する。   The calibration device 116 is mounted on the vehicle 1 and calibrates each of the cameras 111 to 114 that images the periphery of the vehicle. The calibration device 116 includes a calibration execution determination unit 117, an image generation unit 118, a locus line acquisition unit 119, a steering angle acquisition unit 120, and a parameter calibration unit 121.

キャリブレーション実施判定部117は、カメラのキャリブレーションの実施が必要であるか否かを判定する(図8のS801)。例えば、各カメラ111〜114で撮像された4つの画像の全てに特定の特徴点が映っているシーンに関し、重畳合成画像の中の各俯瞰画像同士の画像境界において軌跡線にズレが発生しているか否かを判定することで、カメラのキャリブレーションの実施が必要か否かを自動的に判定する。ここで、軌跡線にズレが発生しているか否かは、例えば、画像から特徴点の軌跡を公知の技術を用いて認識し、その画像中での位置を算出し、予め指定した画像境界位置における位置のズレ量を測定し、そのズレ量が予め指定した閾値を超えているか否かで判定することができる。   The calibration execution determination unit 117 determines whether it is necessary to perform camera calibration (S801 in FIG. 8). For example, with respect to a scene in which specific feature points are reflected in all four images captured by the cameras 111 to 114, a deviation occurs in the locus line at the image boundary between the overhead images in the superimposed composite image. It is automatically determined whether or not it is necessary to perform camera calibration. Here, whether or not there is a deviation in the trajectory line is determined by, for example, recognizing the trajectory of the feature point from the image using a known technique, calculating the position in the image, and specifying the image boundary position in advance. It is possible to determine whether or not the amount of deviation of the position at the point of time is measured and whether or not the amount of deviation exceeds a predetermined threshold.

キャリブレーション実施判定部117によりカメラのキャリブレーションの実施が必要であると判定された場合(図8のS801におけるYES)、画像生成部118は、まず、車両1に取り付けられた4つのカメラ111〜114で車両1の周辺が撮像されることで得られた複数の画像をRAM102から取得する(図8のS802)。RAM102には、過去数フレームの画像が蓄積される。一方、キャリブレーションの実施が必要であると判定された場合(図8のS801におけるNO)、キャリブレーション装置によるキャリブレーション処理は終了する。   When the calibration execution determination unit 117 determines that camera calibration needs to be performed (YES in S801 in FIG. 8), the image generation unit 118 first has four cameras 111-1 attached to the vehicle 1. A plurality of images obtained by imaging the periphery of the vehicle 1 at 114 are acquired from the RAM 102 (S802 in FIG. 8). The RAM 102 stores images of several past frames. On the other hand, when it is determined that the calibration needs to be performed (NO in S801 in FIG. 8), the calibration process by the calibration apparatus ends.

なお、各カメラ111〜114で撮像された画像に同期ズレがあると、それがキャリブレーションの誤差としてあらわれるため、RAM102には、各カメラ111〜114で撮像された画像が完全に同期して保存されるか、あるいは、画像のズレ時間を取得できるかの仕組みがあることが望ましい。   In addition, if there is a synchronization shift in the images captured by the cameras 111 to 114, this will appear as a calibration error, so the images captured by the cameras 111 to 114 are stored in the RAM 102 in complete synchronization. It is desirable that there is a mechanism for whether or not the image shift time can be acquired.

次に、画像生成部118は、複数のフレームを俯瞰画像に視点変換し、これら複数の俯瞰画像を合成して一つの合成画像を生成する(図8のS803)。RAM102には、画像生成部118で異なる時刻に生成された個々の合成画像が蓄積される。   Next, the image generation unit 118 converts the plurality of frames into a bird's-eye view image and synthesizes the plurality of bird's-eye view images to generate one composite image (S803 in FIG. 8). The RAM 102 stores individual composite images generated at different times by the image generation unit 118.

軌跡線取得部119は、まず、上記RAM102から取得した個々の合成画像を重畳した一枚の重畳合成画像の中に映り込んでいる特定の特徴物を抽出する(図8のS804)。特徴物の抽出手法としては、Harrisコーナー検出等の手法が知られている。次に、軌跡線取得部119は、重畳合成画像上において特定の特徴物の位置に対応した座標点同士を直線で結ぶことにより得られる軌跡線を取得する(図8のS805)。軌跡線取得部119は、特定の特徴物の位置に対応した座標点(特徴点)の追跡を行うことにより、特徴点の系列を特定する。特徴点の追跡の手法としては、Lucas-Kanade法等の手法が知られている。軌跡線取得部119は、特徴点の系列を直線近似することにより、軌跡線を取得する。   The trajectory line acquisition unit 119 first extracts a specific feature reflected in a single superimposed composite image obtained by superimposing individual composite images acquired from the RAM 102 (S804 in FIG. 8). As a feature extraction method, a method such as Harris corner detection is known. Next, the trajectory line acquisition unit 119 acquires a trajectory line obtained by connecting the coordinate points corresponding to the positions of specific features on the superimposed composite image with straight lines (S805 in FIG. 8). The trajectory line acquisition unit 119 specifies a series of feature points by tracking coordinate points (feature points) corresponding to the positions of specific feature objects. As a feature point tracking method, a method such as the Lucas-Kanade method is known. The trajectory line acquisition unit 119 acquires a trajectory line by linearly approximating the feature point series.

舵角取得部120は、舵角センサ106で検出された舵角を示す情報を取得する(図8のS806)。   The steering angle acquisition unit 120 acquires information indicating the steering angle detected by the steering angle sensor 106 (S806 in FIG. 8).

パラメータ校正部121は、舵角取得部120で取得された舵角を示す情報に基づき、車両1が直進走行しているか否かを判定する(図8のS807)。車両1が直進走行していると判定された場合(図8のS807におけるYES)、パラメータ校正部121は、軌跡線取得部119で取得された軌跡線を利用してカメラのキャリブレーションを実施する。車両1が直進走行していると判定されなかった場合(図8のS807におけるNO)、S807の処理を繰り返す。   The parameter calibration unit 121 determines whether or not the vehicle 1 is traveling straight on the basis of the information indicating the steering angle acquired by the steering angle acquisition unit 120 (S807 in FIG. 8). When it is determined that the vehicle 1 is traveling straight (YES in S807 in FIG. 8), the parameter calibration unit 121 performs camera calibration using the trajectory line acquired by the trajectory line acquisition unit 119. . When it is not determined that the vehicle 1 is traveling straight ahead (NO in S807 of FIG. 8), the process of S807 is repeated.

このキャリブレーション処理では、各カメラ111〜114におけるカメラパラメータを直接推定するのではなく、車両1の姿勢を推定し、その車両1の姿勢を介して全てのカメラパラメータを推定する。各カメラ111〜114は剛体である車体に取り付けられているため、車体の姿勢変化が発生した場合には、それに連動して各カメラ111〜114の角度や位置も変動する。   In this calibration process, the camera parameters of the cameras 111 to 114 are not directly estimated, but the attitude of the vehicle 1 is estimated, and all camera parameters are estimated via the attitude of the vehicle 1. Since the cameras 111 to 114 are attached to the rigid vehicle body, when the posture change of the vehicle body occurs, the angles and positions of the cameras 111 to 114 also change in conjunction with the change.

例えば、車両1の前側の座席に乗員が乗り、車両1の前側が沈み込めば、前方カメラ111の角度は下向きになり、後方カメラ112は同じ量の角度だけ上向きになる。車両1の右側の座席に乗員が乗り、車両1の右側が沈み込めば、右方カメラ114の角度は下向きになり、左方カメラ113の角度は同じ量だけ上向きになる。また、その際には、前方カメラ111と後方カメラ112は光軸に対してやや右側に回転する。   For example, if an occupant gets on the front seat of the vehicle 1 and the front side of the vehicle 1 sinks, the angle of the front camera 111 will be downward and the rear camera 112 will be upward by the same amount. If an occupant gets on the right seat of the vehicle 1 and the right side of the vehicle 1 sinks, the angle of the right camera 114 will be downward and the angle of the left camera 113 will be upward by the same amount. At that time, the front camera 111 and the rear camera 112 rotate slightly to the right with respect to the optical axis.

このように、各カメラ111〜114の変動は車体姿勢の変動に連動する。また、車体姿勢の変動に対して、各カメラ111〜114の変動は一意に決定されることとなる。各カメラ111〜114の車体への連動性を考慮しつつカメラパラメータを推定するために、パラメータ校正部121は、各カメラ111〜114のカメラパラメータを個別に推定するのではなく、車両1の姿勢の推定を実施し、推定された車両1の姿勢から各カメラパラメータを校正する。   As described above, the variation of each of the cameras 111 to 114 is linked to the variation of the vehicle body posture. Further, the variation of each of the cameras 111 to 114 is uniquely determined with respect to the variation of the vehicle body posture. In order to estimate the camera parameters while considering the linkage of the cameras 111 to 114 to the vehicle body, the parameter calibration unit 121 does not estimate the camera parameters of each of the cameras 111 to 114 individually, but the attitude of the vehicle 1. The camera parameters are calibrated from the estimated posture of the vehicle 1.

より詳細には、軌跡線のみを用いてキャリブレーションを実施する場合、各カメラ111〜114個別でカメラパラメータを推定すると、推定不可能なパラメータがある。例えば、仮に車両1と直線の平行性を用いてキャリブレーションを実施する場合、前方カメラ111のロール角は、重畳合成画像中の軌跡線が完全に縦向きになるように補正すれば求めることができる。   More specifically, when the calibration is performed using only the trajectory line, if the camera parameters are estimated individually for each of the cameras 111 to 114, there are parameters that cannot be estimated. For example, when calibration is performed using parallelism between the vehicle 1 and a straight line, the roll angle of the front camera 111 can be obtained by correcting the trajectory line in the superimposed composite image to be completely vertical. it can.

また、前方カメラ111のピッチ角も、軌跡線が複数本撮像されていれば、それらはともに車両1に対して平行であり、且つ軌跡線同士も平行であるため、その軌跡線の平行性を満たすように補正することで推定できる。   Also, the pitch angle of the front camera 111 is parallel to the vehicle 1 if a plurality of trajectory lines are captured, and the trajectory lines are also parallel to each other. It can be estimated by correcting to satisfy.

しかし、前方カメラ111のヨー角については、ヨー角を変動させても軌跡線の平行性や重畳合成画像中の軌跡線の角度が変動しないため、補正するための特徴が不足しており、一意に決定することができない。そのため、カメラパラメータを推定することができず、完全にズレのない合成画像を生成することができない。   However, the yaw angle of the front camera 111 does not change the parallelism of the trajectory line and the angle of the trajectory line in the superimposed composite image even if the yaw angle is changed, and thus there is a lack of features for correction and is unique. Cannot be determined. Therefore, the camera parameters cannot be estimated, and a composite image that is not completely displaced cannot be generated.

それに対し、走行中等の使用中の車両1の姿勢推定を介してキャリブレーションを実施する場合には、軌跡線と車両の相対的な関係がない場合でも、軌跡線のみを用いて全てのカメラパラメータを推定できる。あるカメラパラメータを推定するためには、そのカメラパラメータの変動に対して、何らかの観測可能な変化があらわれなければならないが、車両姿勢のパラメータが変動する場合には、観測可能な軌跡線に変化があらわれる。   On the other hand, when the calibration is performed through the posture estimation of the vehicle 1 in use, such as when traveling, all camera parameters are obtained using only the trajectory line, even if there is no relative relationship between the trajectory line and the vehicle. Can be estimated. In order to estimate a certain camera parameter, some observable change must appear with respect to the change in the camera parameter. However, when the vehicle attitude parameter fluctuates, the observable trajectory line changes. Appears.

具体的には、車両1のピッチ角が変動した場合、重畳合成画像における軌跡線の平行性が変化する。また、車両1のロール角が変動した場合、重畳合成画像の中の各俯瞰画像同士の画像境界に軌跡線のズレが発生する。また、車両1の高さが変動した場合、車両1のロール角が変動する場合とは異なる軌跡線のズレが重畳合成画像の中の各俯瞰画像同士の画像境界にて発生する。従って、重畳合成画像中の軌跡線のみで車両姿勢のパラメータを推定でき、車両姿勢が決まれば、車両1に取り付けられた各カメラ111〜114の位置や角度を計算できるため、重畳合成画像中の軌跡線のみで全てのカメラパラメータを推定できる。   Specifically, when the pitch angle of the vehicle 1 changes, the parallelism of the trajectory lines in the superimposed composite image changes. Further, when the roll angle of the vehicle 1 fluctuates, a deviation of the locus line occurs at the image boundary between the overhead images in the superimposed composite image. Further, when the height of the vehicle 1 fluctuates, a shift of the locus line different from the case where the roll angle of the vehicle 1 fluctuates occurs at the image boundary between the overhead images in the superimposed composite image. Accordingly, the parameters of the vehicle posture can be estimated only from the locus line in the superimposed composite image, and once the vehicle posture is determined, the positions and angles of the cameras 111 to 114 attached to the vehicle 1 can be calculated. All camera parameters can be estimated by using only trace lines.

ただし、このキャリブレーション処理は、工場出荷時等にキャリブレーションが予め実施されている必要がある。工場出荷時にキャリブレーションが完了している場合、そのキャリブレーション時に想定した特定の乗車状態においては重畳合成画像にズレがない状態となっている。   However, this calibration processing needs to be performed in advance at the time of factory shipment. When the calibration is completed at the time of factory shipment, the superimposed composite image is not displaced in the specific riding state assumed at the time of calibration.

重畳合成画像におけるズレは、車両1の乗車状態の変化に伴う車両姿勢の変動が原因で発生したものであるため、その車両姿勢の変動に伴うカメラ姿勢の変動をキャンセルすれば、元のズレがない重畳合成画像に戻すことができる。   Since the deviation in the superimposed composite image is caused by the change in the vehicle posture accompanying the change in the riding state of the vehicle 1, if the change in the camera posture accompanying the change in the vehicle posture is cancelled, the original deviation is corrected. It is possible to return to a superimposed composite image.

従って、車両姿勢を推定し、その変動に伴うカメラの角度や位置を計算することで、ズレのない重畳合成画像を生成することができる。逆に言えば、キャリブレーションが予め実施されていない場合には、車両姿勢の変動分のカメラ角度や位置の補正を実施しても、初期の未キャリブレーション状態に戻るだけであって、重畳合成画像のズレは残されたままとなるため、ズレのない重畳合成画像を生成することができない。そのため、このキャリブレーション処理では、事前にキャリブレーションが実施されている必要がある。   Therefore, it is possible to generate a superimposed composite image without deviation by estimating the vehicle posture and calculating the angle and position of the camera accompanying the change. In other words, if calibration has not been performed in advance, even if correction of the camera angle and position corresponding to the change in the vehicle attitude is performed, it will only return to the initial uncalibrated state, Since the misalignment of the image remains, a superimposed composite image without misalignment cannot be generated. Therefore, in this calibration process, calibration needs to be performed in advance.

パラメータ校正部121は、軌跡線取得部119で取得された軌跡線が、車両1の走行方向に沿って延びるとともに、重畳合成画像の中の各俯瞰画像同士の境界にズレが発生しないように、各カメラ111〜114の取り付け状態に関する外部パラメータ(カメラパラメータ)を校正する。具体的には、パラメータ校正部121は、姿勢推定部301と、並進補正部304と、カメラパラメータ算出部305とを有する。姿勢推定部301は、ピッチ角推定部302と、ロール角・高さ・回転中心推定部303とを有する。   The parameter calibration unit 121 is configured so that the trajectory line acquired by the trajectory line acquisition unit 119 extends along the traveling direction of the vehicle 1 and no deviation occurs at the boundary between the overhead images in the superimposed composite image. The external parameters (camera parameters) relating to the attachment states of the cameras 111 to 114 are calibrated. Specifically, the parameter calibration unit 121 includes an attitude estimation unit 301, a translation correction unit 304, and a camera parameter calculation unit 305. The posture estimation unit 301 includes a pitch angle estimation unit 302 and a roll angle / height / rotation center estimation unit 303.

ピッチ角推定部302は、2本の軌跡線Fr1、Fr2(図4〜図6)と2本の軌跡線Rr1、Rr2(図4〜図6)を用いて、車両1のピッチ角推定を実施する(図8のS808)。車両1が直進走行しているときの2本の軌跡線Fr1、Fr2(軌跡線Rr1、Rr2)は、理想的な重畳合成画像においては、車両1の走行方向に沿って延びる方向に平行に表示されるはずである。しかし、車両1のピッチ角の変動がある場合、重畳合成画像において2本の軌跡線Fr1、Fr2(軌跡線Rr1、Rr2)は前方側が広がって後方側が狭くなる形状に表示され、平行ではなくなる。前方カメラ111(後方カメラ112)で撮像された画像を俯瞰視点に変換した場合に、2本の軌跡線Fr1,Fr2(軌跡線Rr1、Rr2)が平行になるように、車両1のピッチ角を推定する。   The pitch angle estimation unit 302 performs pitch angle estimation of the vehicle 1 using the two trajectory lines Fr1 and Fr2 (FIGS. 4 to 6) and the two trajectory lines Rr1 and Rr2 (FIGS. 4 to 6). (S808 in FIG. 8). Two trajectory lines Fr1 and Fr2 (trajectory lines Rr1 and Rr2) when the vehicle 1 is traveling straight ahead are displayed in parallel with the direction extending along the traveling direction of the vehicle 1 in an ideal superimposed composite image. Should be done. However, when the pitch angle of the vehicle 1 varies, the two locus lines Fr1 and Fr2 (trajectory lines Rr1 and Rr2) are displayed in a shape in which the front side is widened and the rear side is narrowed in the superimposed composite image, and are not parallel. When the image captured by the front camera 111 (rear camera 112) is converted into a bird's-eye view viewpoint, the pitch angle of the vehicle 1 is set so that the two trajectory lines Fr1, Fr2 (trajectory lines Rr1, Rr2) are parallel. presume.

詳細には、ピッチ角推定部302は、前方カメラ111及び後方カメラ112における直線方程式の平行性に基づいて、例えば直線ベクトルの内積を評価関数とし、その内積が前方カメラ111及び後方カメラ112ともにできるだけ1に近い値になるように、車両1のピッチ角の最適化を実施する。ここで使用される軌跡線Fr1、Fr2(軌跡線Rr1,Rr2)については、上記した軌跡線取得部119で得られている。なお、上記最適化は、最急降下法等の公知の技術を用いれば実現できる。すなわち、例えば、車両1のピッチ角に関する評価関数を求め、評価関数が目的の値に近づくように、車両1のピッチ角を微小変化させる処理を繰り返し実施すればよい。   Specifically, the pitch angle estimation unit 302 uses, for example, an inner product of straight line vectors as an evaluation function based on the parallelism of the straight line equations in the front camera 111 and the rear camera 112, and the inner product can be as much as possible for both the front camera 111 and the rear camera 112. The pitch angle of the vehicle 1 is optimized so as to be a value close to 1. The trajectory lines Fr1 and Fr2 (the trajectory lines Rr1 and Rr2) used here are obtained by the trajectory line acquisition unit 119 described above. The optimization can be realized by using a known technique such as the steepest descent method. That is, for example, an evaluation function related to the pitch angle of the vehicle 1 is obtained, and the process of minutely changing the pitch angle of the vehicle 1 may be repeatedly performed so that the evaluation function approaches the target value.

ロール角・高さ・回転中心推定部303は、重畳合成画像の中の各俯瞰画像同士の画像境界にあらわれている軌跡線のズレがなくなるように、車両1のロール角、車両1の高さ、車両1の回転中心を推定する(図8のS809)。ここで、車両1のピッチ角については、ピッチ角推定部302で得られたピッチ角に固定する。   The roll angle / height / rotation center estimation unit 303 causes the roll angle of the vehicle 1 and the height of the vehicle 1 so as to eliminate the shift of the trajectory line appearing at the image boundary between the overhead images in the superimposed composite image. Then, the center of rotation of the vehicle 1 is estimated (S809 in FIG. 8). Here, the pitch angle of the vehicle 1 is fixed to the pitch angle obtained by the pitch angle estimation unit 302.

詳細には、ロール角・高さ・回転中心推定部303は、重畳合成画像の中の各俯瞰画像同士の画像境界にあらわれている軌跡線のズレを表す評価関数を設計し、その評価関数が最小となるように、車両1のロール角、車両1の高さ、車両1の回転中心に関する各パラメータを最適化する。ここで、評価関数は、例えば、重畳合成画像の中の各俯瞰画像同士の画像境界における軌跡線のズレを、前方カメラ111と左方カメラ113の画像境界、前方カメラ111と右方カメラ114の画像境界、後方カメラ112と左方カメラ113の画像境界、後方カメラ112と右方カメラ114の画像境界でそれぞれ算出し、それらの総和をとったものとする。ここで使用される各軌跡線Fr1、Fr2、Lt1、Rt2、Rr1、Rr2については、上記した軌跡線取得部119で得られている。   Specifically, the roll angle / height / rotation center estimation unit 303 designs an evaluation function that represents the deviation of the locus line that appears at the image boundary between the overhead images in the superimposed composite image, and the evaluation function is The parameters relating to the roll angle of the vehicle 1, the height of the vehicle 1, and the rotation center of the vehicle 1 are optimized so as to be minimized. Here, the evaluation function includes, for example, the shift of the locus line at the image boundary between the overhead images in the superimposed composite image, the image boundary between the front camera 111 and the left camera 113, and the relationship between the front camera 111 and the right camera 114. It is assumed that the image boundary, the image boundary between the rear camera 112 and the left camera 113, and the image boundary between the rear camera 112 and the right camera 114 are calculated, and the sum thereof is taken. The trajectory lines Fr1, Fr2, Lt1, Rt2, Rr1, and Rr2 used here are obtained by the trajectory line acquisition unit 119 described above.

なお、上記最適化は、公知の技術を用いて実施されるが、推定するパラメータが複数あるため、最急降下法等のような勾配法に基づくものではなく、大域的最適化法を選択することが望ましい。車両1のロール角、車両1の高さ、車両1の回転中心を微小変化させる処理を、重畳合成画像の中の各俯瞰画像同士の画像境界における軌跡線のズレを表す評価関数が最小化されるように繰り返し実施する。なお、ここでは、車両1の回転中心によって、各カメラパラメータが異なることを考慮し、車両1の回転中心も含めて最適化を実施する。   Although the above optimization is performed using a known technique, since there are a plurality of parameters to be estimated, it is not based on a gradient method such as the steepest descent method, but a global optimization method should be selected. Is desirable. The evaluation function that represents the deviation of the trajectory line at the image boundary between the overhead images in the superimposed composite image is minimized in the process of minutely changing the roll angle of the vehicle 1, the height of the vehicle 1, and the rotation center of the vehicle 1. Repeat as shown. Here, considering that the camera parameters differ depending on the rotation center of the vehicle 1, the optimization including the rotation center of the vehicle 1 is performed.

並進補正部304は、過去に実施したキャリブレーションから得られる情報等に基づいて、地面に対する車両1の並進(地面に対して平行な方向への移動)に相当するパラメータ(並進パラメータ)、すなわちカメラの高さを除く並進方向の位置(平面視における位置)を補正する(図8のS810)。   The translation correction unit 304 is a parameter (translation parameter) corresponding to translation of the vehicle 1 with respect to the ground (movement in a direction parallel to the ground), that is, a camera, based on information obtained from calibration performed in the past. The position in the translation direction (the position in plan view) excluding the height of is corrected (S810 in FIG. 8).

ここでは、地面とカメラの絶対的な距離を示す情報を測定していないために、地面に対するカメラの位置を推定することはできないが、実際に生じ得る車体姿勢の変動の範囲では、カメラの並進方向のズレは極めて小さいため、例えばROM103等に保存された製品出荷時のキャリブレーションを実施した際の値を利用する。   Here, since the information indicating the absolute distance between the ground and the camera is not measured, it is impossible to estimate the position of the camera with respect to the ground. Since the deviation of the direction is extremely small, for example, the value at the time of product calibration stored in the ROM 103 or the like is used.

カメラ同士の相対的な位置は、ロール角・高さ・回転中心推定部303によって得られているため、基準となるカメラ(基準カメラ)を一つ選定し(例えば前方カメラ111)、前方カメラ111の製品出荷時のキャリブレーションの値と現在の値の並進方向の誤差分をキャンセルするように、各カメラ111〜114の全ての位置を並進補正する。   Since the relative positions of the cameras are obtained by the roll angle / height / rotation center estimating unit 303, one reference camera (reference camera) is selected (for example, the front camera 111), and the front camera 111 is selected. All the positions of the cameras 111 to 114 are corrected for translation so that the error in the translation direction between the calibration value at the time of product shipment and the current value is canceled.

カメラパラメータ算出部305は、姿勢推定部301で得られた車両1の姿勢と並進補正部304で得られたパラメータから、その車両1の姿勢に対応した各カメラ111〜114の姿勢に関するカメラパラメータを算出する(図8のS811)。なお、座標変換によって、対応する各カメラ111〜114のカメラパラメータを一意に計算できる。   The camera parameter calculation unit 305 calculates camera parameters related to the postures of the cameras 111 to 114 corresponding to the posture of the vehicle 1 from the postures of the vehicle 1 obtained by the posture estimation unit 301 and the parameters obtained by the translation correction unit 304. Calculate (S811 in FIG. 8). Note that the camera parameters of the corresponding cameras 111 to 114 can be uniquely calculated by coordinate conversion.

以上説明したように、このような構成とすることで、本実施形態のキャリブレーション処理は、工場等で一度キャリブレーションが実施された状態を前提とするものの、特開2016-70814号公報で提案されているような白線に対する車両の平行性、すなわち白線と車両の相対的な関係を必要とせずに、軌跡線のみを利用して全てのカメラパラメータを推定できる。   As described above, with such a configuration, the calibration process of the present embodiment is presumed in a state where calibration has been performed once in a factory or the like, but is proposed in Japanese Patent Laid-Open No. 2016-70814. All the camera parameters can be estimated using only the trajectory line without requiring the parallelism of the vehicle to the white line, that is, the relative relationship between the white line and the vehicle.

このように、本実施形態によれば、道路の白線等の直線状特徴部が存在しない環境下でもカメラパラメータを校正することができる。このため、キャリブレーション処理が行われる環境の自由度を高めることができる。従って、キャリブレーション装置116を適用できる範囲を広げることができる。   Thus, according to the present embodiment, the camera parameters can be calibrated even in an environment where there is no linear feature such as a white line on the road. For this reason, the freedom degree of the environment where a calibration process is performed can be raised. Therefore, the range in which the calibration device 116 can be applied can be expanded.

なお、上記実施形態では、4台のカメラを使用し、隣接する2台のカメラで撮像した画像の一部が重畳もしくは隣接する例を示した。しかし、これに限られない。例えば、装置全体のカメラの台数や重畳もしくは隣接部分を撮像するカメラの台数は、ユーザー等の要請に応じて適宜変更しても良い。   In the above embodiment, an example in which four cameras are used and a part of an image captured by two adjacent cameras is superimposed or adjacent is shown. However, it is not limited to this. For example, the number of cameras in the entire apparatus and the number of cameras that superimpose or image adjacent portions may be appropriately changed according to a request from a user or the like.

なお、上記実施形態では、キャリブレーション実施判定部117は、重畳合成画像の中の各俯瞰画像同士の画像境界において軌跡線にズレが発生しているか否かを判定することで、カメラのキャリブレーションの実施が必要か否かを判定する例を示した。しかし、これに限られない。例えば、キャリブレーション実施判定部117は、ジャイロセンサ等といった車両の姿勢変化を直接推定するセンサを用いて、車両への積載状況が変化したことを検知することで、キャリブレーションの実施が必要か否かを判定しても良い。   In the above-described embodiment, the calibration execution determination unit 117 determines whether or not the locus line has shifted at the image boundary between the overhead images in the superimposed composite image, thereby calibrating the camera. An example is shown in which it is determined whether or not implementation is necessary. However, it is not limited to this. For example, the calibration execution determination unit 117 uses a sensor that directly estimates a change in the posture of the vehicle, such as a gyro sensor, to detect whether the loading state on the vehicle has changed, and whether or not calibration needs to be performed. It may be determined.

また例えば、キャリブレーション実施判定部117は、軌跡線取得部119により抽出された特定の特徴物(例えば、道路に描かれた速度制限標識や、道路に描かれた交通案内標識等の道路標識のコーナー部分(点))等を利用し、重畳合成画像の中の各俯瞰画像同士の画像境界における直線的特徴量のズレ量と共に、重畳合成画像の中の車両の両側(周囲)にある互いに平行な直線的特徴量の平行性を用いて、カメラのキャリブレーションの実施が必要か否かを判定しても良い。   In addition, for example, the calibration execution determination unit 117 can detect a specific feature extracted by the trajectory line acquisition unit 119 (for example, a road sign such as a speed limit sign drawn on a road or a traffic guide sign drawn on a road). Using the corner portion (point)), etc., the deviation of the linear feature amount at the image boundary between the overhead images in the superimposed composite image and parallel to each other on both sides (surroundings) of the vehicle in the superimposed composite image It may be determined whether or not the camera needs to be calibrated using the parallelism of the linear feature amount.

なお、上記実施形態では、画像生成部118は、各カメラ111〜114で車両1の周辺が撮像されることで得られた複数フレームをRAM102から取得する例を示した。しかし、これに限られない。例えば、画像生成部118は、各カメラ111〜114から直接画像を取得しても良い。   In the above-described embodiment, the image generation unit 118 has obtained an example in which a plurality of frames obtained by capturing the periphery of the vehicle 1 with the cameras 111 to 114 are acquired from the RAM 102. However, it is not limited to this. For example, the image generation unit 118 may acquire images directly from the cameras 111 to 114.

なお、上記実施形態では、パラメータ校正部121は、軌跡線Fr1、Fr2(軌跡線Rr1、Rr2)が重畳合成画像上で平行になるように、車両1のピッチ角を推定してカメラパラメータの補正を実施する例を示した。しかし、これに限られない。例えば、パラメータ校正部121は、軌跡線Fr1、Fr2(軌跡線Rr1、Rr2)の何れか一方が車両1の走行方向に沿って延びるように、車両1のピッチ角を推定してカメラパラメータの補正を実施しても良い。   In the above embodiment, the parameter calibration unit 121 corrects the camera parameters by estimating the pitch angle of the vehicle 1 so that the trajectory lines Fr1 and Fr2 (the trajectory lines Rr1 and Rr2) are parallel on the superimposed composite image. The example which implements was shown. However, it is not limited to this. For example, the parameter calibration unit 121 corrects the camera parameters by estimating the pitch angle of the vehicle 1 so that one of the trajectory lines Fr1 and Fr2 (the trajectory lines Rr1 and Rr2) extends along the traveling direction of the vehicle 1. May be implemented.

以上、本発明の実施形態を図面により詳述したが、実施形態は本発明の例示にしか過ぎないものであるため、本発明は実施形態の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although embodiment of this invention was explained in full detail with drawing, since embodiment is only an illustration of this invention, this invention is not limited only to the structure of embodiment, This invention is not limited. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.

1・・・車両
111・・・前方カメラ
112・・・後方カメラ
113・・・左方カメラ
114・・・右方カメラ
116・・・キャリブレーション装置
118・・・画像生成部
119・・・軌跡線取得部
120・・・舵角取得部
121・・・パラメータ校正部
Fr1、Fr2、Lt1、Rt2、Rr1、Rr2・・・軌跡線
Fr1_t1、Fr2_t1、Fr1_t2、Fr2_t2、Lt_t3、Rt_t3、Lt_t4、Rt_t4、Lt_t5、Rt_t5、Rr1_t6、Rr2_t6、Rr1_t7、Rr2_t7・・・特徴点
t1、t2、t3、t4、t5、t6、t7・・・時刻
DESCRIPTION OF SYMBOLS 1 ... Vehicle 111 ... Front camera 112 ... Back camera 113 ... Left camera 114 ... Right camera 116 ... Calibration apparatus 118 ... Image generation part 119 ... Trajectory Line acquisition unit 120... Steering angle acquisition unit 121... Parameter calibration unit Fr1, Fr2, Lt1, Rt2, Rr1, Rr2. Lt_t5, Rt_t5, Rr1_t6, Rr2_t6, Rr1_t7, Rr2_t7... Feature points t1, t2, t3, t4, t5, t6, t7.

Claims (4)

路面上を走行する車両に取り付けられて前記車両の周辺を撮像する複数のカメラにより前記周辺が撮像されることで得られた複数の画像を俯瞰画像に視点変換し、これら複数の俯瞰画像を合成して一つの合成画像を生成する画像生成部と、
前記画像生成部で異なる時刻に生成された個々の合成画像を重畳した一枚の重畳合成画像の中に映り込んでいる特定の特徴物の位置に対応した座標点同士を直線で結ぶことにより得られる軌跡線を取得する軌跡線取得部と、
前記軌跡線取得部で取得された前記軌跡線が前記重畳合成画像上で前記車両の走行方向に沿って延びるとともに、前記重畳合成画像の中の各俯瞰画像同士の境界にズレが発生しないように前記複数のカメラの取り付け状態に関するカメラパラメータを校正するパラメータ校正部と、
を有することを特徴とするキャリブレーション装置。
A plurality of images obtained by capturing the periphery of the vehicle by being attached to a vehicle traveling on the road surface and capturing the periphery of the vehicle are converted into a bird's-eye view image, and the plurality of bird's-eye view images are combined. An image generation unit that generates one composite image,
It is obtained by connecting the coordinate points corresponding to the positions of specific features reflected in one superimposed composite image obtained by superimposing individual composite images generated at different times by the image generation unit with straight lines. A trajectory line acquisition unit for acquiring a trajectory line to be obtained;
The trajectory line acquired by the trajectory line acquisition unit extends along the traveling direction of the vehicle on the superimposed composite image so that no deviation occurs at the boundary between the overhead images in the superimposed composite image. A parameter calibration unit that calibrates camera parameters related to the mounting state of the plurality of cameras;
A calibration apparatus comprising:
請求項1に記載のキャリブレーション装置において、
前記車両の舵角を取得する舵角取得部を有し、
前記パラメータ校正部は、
前記舵角取得部で取得された舵角に基づき、前記車両が直進走行しているときに得られた前記重畳合成画像に基づいて前記カメラパラメータを校正することを特徴とするキャリブレーション装置。
The calibration device according to claim 1,
A steering angle acquisition unit for acquiring the steering angle of the vehicle;
The parameter calibration unit is
A calibration apparatus, wherein the camera parameter is calibrated based on the superimposed composite image obtained when the vehicle is traveling straight on the basis of the steering angle acquired by the steering angle acquisition unit.
請求項1又は請求項2に記載のキャリブレーション装置において、
前記重畳合成画像は、
当該重畳合成画像の中の各俯瞰画像に対応する領域に、前記特定の特徴物の位置に対応した座標点が前記軌跡線を引けるように少なくとも2つ含まれるような周期で前記周辺が撮像されることで得られることを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1 or 2,
The superimposed composite image is
The periphery is imaged at a period such that at least two coordinate points corresponding to the position of the specific feature are included in a region corresponding to each overhead image in the superimposed composite image so that the locus line can be drawn. A calibration device obtained by
請求項1乃至請求項3の何れか一項に記載のキャリブレーション装置において、
前記特定の特徴物の位置に対応した座標点は、前記路面上に描かれた標識のコーナー部分であることを特徴とするキャリブレーション装置。
In the calibration apparatus according to any one of claims 1 to 3,
The calibration apparatus according to claim 1, wherein the coordinate point corresponding to the position of the specific feature is a corner portion of a sign drawn on the road surface.
JP2017054487A 2017-03-21 2017-03-21 Calibration device Pending JP2018157496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017054487A JP2018157496A (en) 2017-03-21 2017-03-21 Calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017054487A JP2018157496A (en) 2017-03-21 2017-03-21 Calibration device

Publications (1)

Publication Number Publication Date
JP2018157496A true JP2018157496A (en) 2018-10-04

Family

ID=63716870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054487A Pending JP2018157496A (en) 2017-03-21 2017-03-21 Calibration device

Country Status (1)

Country Link
JP (1) JP2018157496A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060976A (en) * 2018-10-10 2020-04-16 クラリオン株式会社 Calibration device and calibration method
CN111489397A (en) * 2019-12-19 2020-08-04 阿里巴巴集团控股有限公司 Imaging device calibration method and device
CN113396580A (en) * 2019-02-18 2021-09-14 三菱电机株式会社 Image processing apparatus, image processing method, and image processing program
WO2023286359A1 (en) * 2021-07-12 2023-01-19 古野電気株式会社 Berthing assistance apparatus, berthing assistance method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
JP2016070814A (en) * 2014-09-30 2016-05-09 クラリオン株式会社 Camera calibration device and camera calibration system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
JP2016070814A (en) * 2014-09-30 2016-05-09 クラリオン株式会社 Camera calibration device and camera calibration system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060976A (en) * 2018-10-10 2020-04-16 クラリオン株式会社 Calibration device and calibration method
JP7162489B2 (en) 2018-10-10 2022-10-28 フォルシアクラリオン・エレクトロニクス株式会社 CALIBRATION DEVICE AND CALIBRATION METHOD
CN113396580A (en) * 2019-02-18 2021-09-14 三菱电机株式会社 Image processing apparatus, image processing method, and image processing program
CN111489397A (en) * 2019-12-19 2020-08-04 阿里巴巴集团控股有限公司 Imaging device calibration method and device
WO2023286359A1 (en) * 2021-07-12 2023-01-19 古野電気株式会社 Berthing assistance apparatus, berthing assistance method, and program

Similar Documents

Publication Publication Date Title
EP3367677B1 (en) Calibration apparatus, calibration method, and calibration program
JP6371185B2 (en) Camera calibration device and camera calibration system
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
KR101132099B1 (en) Vehicle environment monitoring device and car environment monitoring method
JP4899424B2 (en) Object detection device
CN105141945B (en) Panorama camera chain (VPM) on-line calibration
JP2018157496A (en) Calibration device
US20080151053A1 (en) Operation Support Device
US20100092042A1 (en) Maneuvering assisting apparatus
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP2009290645A (en) In-vehicle unit
EP3418122B1 (en) Position change determination device, overhead view image generation device, overhead view image generation system, position change determination method, and program
JP5516988B2 (en) Parking assistance device
US9892519B2 (en) Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle
JP7008040B2 (en) Methods for creating mappings of environmental models, as well as vehicle control systems and corresponding vehicles
JP2020060899A (en) Calibration device for on-vehicle camera
JP6768554B2 (en) Calibration device
JP2019526105A5 (en)
CN112129313A (en) AR navigation compensation system based on inertial measurement unit
CN112184545A (en) Vehicle-mounted ring view generating method, device and system
JP7456857B2 (en) Self-position estimation device
JP7019431B2 (en) Camera calibration device, camera calibration method, and program
JP2020087210A (en) Calibration device and calibration method
WO2022202780A1 (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309